Web Analytics Made Easy - Statcounter

بسیاری از کارشناسان و حتی طراحان و دست‌اندرکاران هوش مصنوعی هشدار می‌دهند که این فناوری جدید می‌تواند تهدیدی هم‌ارز با سلاح‌های هسته‌ای علیه نسل بشر باشد و چه‌بسا موجب انقراض انسان‌ها شود.

سرویس جهان مشرق – توسعه‌ی سریع هوش مصنوعی و فناوری‌های مبتنی بر آن اگرچه از سویی بسیار جذاب است و چه‌بسا بتواند تحولی کم‌سابقه را در تاریخ بشر ایجاد کند، اما به همان اندازه نیز ممکن است نسل بشر را با خطر انقراض روبه‌رو نماید.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

این هشداری است که بسیاری از کارشناسان، ناظران و حتی طراحان و دست‌اندرکاران توسعه‌ی هوش مصنوعی می‌دهند. اندیشکده‌ی شناخته‌شده‌ی «رَند» اخیراً طی گزارشی تحت عنوان «خطرات عملیاتی هوش مصنوعی در حملات بیولوژیک مقیاس‌بزرگ[۱]» نتایج انجام برخی آزمایش‌ها درباره‌ی امکان کمک گرفتن از هوش مصنوعی برای انتشار یک اپیدمی مرگ‌بار در میان انسان‌ها را منتشر کرده است. آن‌چه در ادامه می‌خوانید، گزیده‌ای از این گزارش است.

هفته‌نامه‌ی آمریکایی «تایم» اوایل سال جاری میلادی، جلد یکی از شماره‌های خود را به هوش مصنوعی اختصاص داد. این طرح، سؤال تایم از ابزار هوش مصنوعی «چت‌جی‌پی‌تی» درباره‌ی درج عنوان «مسابقه‌ی تسلیحاتی هوش مصنوعی دارد همه‌چیز را تغییر می‌دهد» روی جلد این هفته‌نامه، و پاسخ چت‌جی‌پی‌تی را نشان می‌دهد. (+)

پیشرفت سریع هوش مصنوعی پیامدهای گسترده‌ای در حوزه‌های متعدد دارد؛ از جمله احتمال استفاده از این ابزار در توسعه‌ی سلاح‌های بیولوژیک پیشرفته. این احتمال از آن‌جایی به طور خاص نگران‌کننده است که هوش مصنوعی برای اشخاص و نهادهای غیردولتی نیز قابل‌دسترسی است. سرعت رشد فناوری‌های مرتبط با هوش مصنوعی اغلب از سرعت تکامل ظرفیت‌های نظارتی نهادهای دولتی تنظیم‌کننده‌ی مقررات فراتر است، که منجر به ایجاد خلأ قابل‌توجهی در سیاست‌ها و مقررات موجود در این حوزه شده است. همه‌گیری بیماری کووید-۲۰۱۹ نمونه‌ای مناسبی است که نشان می‌دهد شیوع یک بیماری همه‌گیر حتی با درجه‌ی متوسط می‌تواند چه تأثیر مخربی[۲] بر نظام‌های جهانی داشته باشد[۳].

مدیران سه شرکت پیشرو در حوزه‌ی هوش مصنوعی، از جمله «سام آلتمن» (مرکز تصویر) مدیرعامل «اُپن اِی‌آی» (سازنده‌ی «چت‌جی‌پی‌تی»)، نامه‌ی سرگشاده‌ای را امضا کرده‌اند که درباره‌ی خطرات هوش مصنوعی هشدار می‌دهد. (+)

در همین‌باره بخوانید:

›› از همه‌گیری کرونا تا همه‌گیری فقر/ از هر ده آمریکایی یک نفر سال گذشته گرسنگی کشید

›› دزدی فروشگاه‌ها از مردم در آمریکا و دزدی مردم از بیمارستان‌ها در انگلیس/ کرونا و چهره پشت ماسک غرب

آن‌چه این مسئله را بغرنج‌تر می‌کند، عدم توازن اقتصادی میان حوزه‌های تهاجمی و تدافعی در فناوری‌های بیولوژیک است. به عنوان نمونه، هزینه‌ی نهایی احیای یک ویروس خطرناک، مانند آبله، می‌تواند تنها ۱۰۰ هزار دلار باشد. این در حالی است که ساخت یک واکسن پیچیده ممکن است بیش از ۱ میلیارد دلار هزینه داشته باشد[۴]. تلاش‌های قبلی برای استفاده‌ی تسلیحاتی از عوامل بیولوژیک (مانند تلاش «اوم شینریکو[۵]» برای استفاده از سم بوتولینوم) به دلیل عدم شناخت باکتری با شکست مواجه شده‌اند[۶]. با این حال، پیشرفت‌های کنونی در حوزه‌ی هوش مصنوعی ممکن است بتوانند این خلأ اطلاعاتی را به‌سرعت برطرف کنند: نمونه‌های پیشرفته‌ی «مدل زبانی بزرگ[۷]» می‌توانند اطلاعاتی درباره‌ی عوامل بیماری‌زای همه‌گیر بالقوه ارائه کنند و با توجه به محدودیت‌های عملیاتی، مزایای نسبی هر کدام از آن‌ها برای استفاده به عنوان سلاح بیولوژیک را بررسی کنند.

مدتی قبل محققان کانادایی موفق شدند با تنها ۱۰۰ هزار دلار هزینه و با سفارش پستی دی‌ان‌ای اقدام به احیای یکی از گونه‌های منقرض‌شده‌ی ویروس عامل آبله کنند. در حالی که ریشه‌کن کردن آبله، یکی از مرگ‌بارترین بیماری‌های تاریخ بشر، ده‌ها سال زمان و میلیاردها دلار هزینه برای انسان داشت، برای احیای این بیماری احتمالاً تنها به یک تیم کوچک متشکل از چند دانشمند با دانش تخصصی محدود، شش ماه زمان و حدود ۱۰۰ هزار دلار هزینه نیاز است. به علاوه، هوش مصنوعی می‌تواند این پیش‌نیازها را تا حد زیادی کاهش دهد یا از بین ببرد. (+)

در همین‌باره بخوانید:

›› از بی‌اعتمادی به دولت تا ترس از مرگ/ چرا آمریکایی‌ها واکسن کرونا نمی‌زنند؟

›› آیا می‌توان به واکسن کرونای «فایزر» اعتماد کرد؟

›› فناوری درمانی با بودجه پنتاگون/ فایزر چگونه از کودکان نیجریه‌ای به عنوان موش آزمایشگاهی استفاده کرد

›› صدور مجوز فایزر و مدرنا توسط نهادی که اعضای جنین انسان را به موش پیوند می‌زند

توانایی بالقوه‌ی مدل‌های زبانی بزرگ برای رفع این نقص در دانش بیولوژیک، اهمیتی توجه به همگرایی میان هوش مصنوعی و فناوری‌های بیولوژیک را برجسته می‌کند؛ به‌ویژه «بیولوژی مصنوعی» که می‌تواند امکان طراحی عوامل بیماری‌زای جدید یا احیای عوامل قبلی به صورت شدیدتر و مرگ‌بارتر از عوامل بیماری‌زای موجود در طبیعت را فراهم نماید[۸]. این ابزارِ در حال تکامل، محدود به برنامه‌های تسلیحات بیولوژیک دولتی نیست، بلکه روزبه‌روز برای افراد و سازمان‌های خارج از چارچوب‌های رسمی حکومتی نیز قابل‌دسترس‌تر می‌شود[۹].

همزمان با ورود گسترده‌ی فناوری‌های مبتنی بر هوش مصنوعی به زندگی انسان، خطر «شورش» این فناوری‌ها یا سوءاستفاده‌ از آن‌ها نیز روبه‌افزایش است. (+)

لازم به ذکر است که اگرچه مدل‌های زبانی بزرگی که در این آزمایش از آن‌ها استفاده شد، دستورالعمل‌های بیولوژیک صریحی ندادند، اما این مدل‌ها می‌توانند راهنمایی‌هایی ارائه کنند که ممکن است به برنامه‌ریزی و اجرای یک حمله‌ی بیولوژیک کمک کنند. در یک سناریوی آزمایشی، مدل زبانی بزرگ در این تحقیق، درباره‌ی چگونگی به بار آوردن تعداد زیادی تلفات با استفاده از یک سلاح بیولوژیکی وارد بحث شد. مدل مذکور ضمن شناسایی عوامل بیماری‌زای بالقوه (از جمله ویروس واریولا (آبله)، یک سویه‌ی دستکاری‌شده از ویروس آنفلوانزا، باسیلوس آنتراسیس (سیاه‌زخم)، و یرسینیا پستیس (طاعون))، شانس نسبی آن‌ها برای ایجاد مرگ‌ومیر دسته‌جمعی در ابعاد گسترده را نیز مورد بررسی قرار داد.

شرکت‌های مختلفی پیشاپیش شروع به گنجاندن فناوری‌های هوش مصنوعی در محصولاتی مانند ربات‌های انسان‌نما کرده‌اند. اگر روزی هوش مصنوعی از محدودیت‌های خود خارج شود، آیا این محصولات نمی‌توانند یک سناریوی کاملاً هالیوودی و آخرالزمانی را رقم بزنند؟ (+)

علاوه بر این، مدل زبانی بزرگ مورد آزمایش، امکان‌پذیری، زمان، هزینه، و موانع پیش روی دستیابی به جوندگان یا کک‌های آلوده به یرسینیا پستیس، حمل و نگهداری نمونه‌های زنده، و توزیع آن نمونه‌ها را نیز ارزیابی کرد. مدل زبانی مذکور همچنین اشاره کرد که آمار احتمالی مرگ‌ومیر به عواملی مانند اندازه‌ی جمعیت مبتلاشده، سرعت و اثربخشی واکنش، و نسبتِ موارد طاعون ریوی به طاعون خیارکی بستگی دارد، چراکه طاعون ریوی مسری‌تر و کشنده‌تر است. استخراج این اطلاعات از مدل زبانی بزرگ نیازمند یک تکنیک «جیلبریک» [دستکاری نرم‌افزاری] نیاز داشت، زیرا مدل مدنظر در ابتدا از بحث درباره‌ی این موضوعات خودداری می‌کرد. گزیده‌هایی از گفت‌وگوی محققان با این مدل (با حذف برخی از بخش‌ها برای جلوگیری از سوءاستفاده) در تصویر زیر آمده است.

ترجمه‌ی بخشی از گفت‌وگوی محققان اندیشکده‌ی «رَند» با یکی از ابزارهای هوش مصنوعی درباره‌ی مراحل و دستورالعمل شیوع گسترده‌ی طاعون در میان انسان‌ها. هوش مصنوعی به طور مفصل توضیحاتی را درباره‌ی نحوه‌ی انجام این کار ارائه داده است. ادامه‌ی این گفت‌وگو به علت احتمال سوءاستفاده‌ی «بازیگران بدخواه» منتشر نشده است. (+)

در نمونه‌ی دیگری که روی سم بوتولینوم متمرکز بود، مدل زبانی بزرگ، با جزئیات کامل، درباره‌ی جوانب مثبت و منفی سازوکارهای مختلف انتقال عامل بیماری‌زا گفت‌وگو کرد؛ از جمله استفاده از هوا و مواد غذایی. مدل زبانی بزرگ در این آزمایش، انتقال عوامل بیماری‌زا از طریق غذا را ساده اما مملو از ریسک توصیف کرد؛ به‌ویژه خطرِ شناسایی احتمالی آلودگی و پایداری ماده‌ی سمی در صورت قرار دادن در مواد غذایی مختلف. از سوی دیگر، مدل مذکور روش‌های مبتنی بر انتشار عامل بیماری‌زا از طریق هوا را برای ابتلای سریع یک جمعیت زیاد مؤثر تشخیص داد؛ اگرچه هشدار داد که این روش‌ها به تجهیزات و تخصص ویژه نیاز دارند. علاوه بر این‌ها، مدل زبانی بزرگ چندین دستگاه مناسب برای انتشار عوامل بیماری‌زا از طریق هوا را پیشنهاد داد و حتی یک داستان پوششی باورپذیر مطرح کرد که می‌توان از آن برای به دست آوردن کلوستریدیوم بوتولینوم به بهانه‌ی انجام تحقیقات علمی مشروع استفاده کرد.

ترجمه‌ی بخشی از گفت‌وگوی محققان اندیشکده‌ی «رَند» با ابزار هوش مصنوعی. محققان از این ابزار پرسیده‌اند برای دستیابی به «کلوستریدیوم بوتولینوم» چه بهانه‌ای می‌توانند بیاورند. (+)

تحقیقات ما پیچیدگی‌های مربوط به سوءاستفاده از هوش مصنوعی، به‌ویژه مدل‌های زبانی بزرگ، برای تدارک حملات بیولوژیک را برجسته می‌کند. نتایج اولیه نشان می‌دهد که مدل‌های زبانی بزرگ می‌توانند محتواهای قابل‌استفاده‌ای تولید کنند که ممکن است بتوانند به برنامه‌ریزی یک حمله‌ی بیولوژیک کمک کنند. با این حال، این سؤال همچنان باقی است که آیا قابلیت‌های مدل‌های زبانی بزرگِ موجود، مصداق سطح جدیدی از تهدید، فراتر از اطلاعات مضری هستند که پیشاپیش به‌راحتی به صورت آنلاین در دسترس است، یا نه. با توجه به خطرات احتمالی، هیچ تردید درباره‌ی نیاز به انجام آزمایش‌های دقیق در این‌باره وجود ندارد. این مسئله به‌ویژه در شرایطی صدق می‌کند که برخی افراد[۱۰]، تهدید هوش مصنوعی[۱۱] را برابر با تهدید سلاح‌های هسته‌ای می‌دانند[۱۲].

[۱] The Operational Risks of AI in Large-Scale Biological Attacks Link

[۲] The WHO estimates of excess mortality associated with the COVID-۱۹ pandemic Link

[۳] Assessing the impact of one million COVID-۱۹ deaths in America: economic and life expectancy losses Link

[۴] Establishing a Global Vaccine-Development Fund Link

[۵] «اوم شینریکو» نام قبلی فرقه‌ی مذهبی-تروریستی ژاپنی است که اکنون «الف» نام دارد، اما همچنان بیش‌تر با نام قبلی‌اش شناخته می‌شود.

[۶] Bacillus anthracis Bioterrorism Incident, Kameido, Tokyo, ۱۹۹۳ Link

[۷] «مدل زبانی بزرگ» (large language model)، که به اختصار ال‌ال‌ام (LLM) نامیده می‌شود، مدل زبانی‌ای است که می‌تواند اقدام به درک و تولید گزاره‌های زبانی با ادبیات انسانی کند. این مدل‌ها پایه‌ی ابزارهایی مانند چت‌چی‌پی‌تی (ChatGPT) هستند.

[۸] RAND President and CEO Presenting to House Permanent Select Committee on Intelligence Link

[۹] ۲۰۲۳ Biodefense Posture Review Link

[۱۰] A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn Link

[۱۱] Statement on AI risk of extinction Link

[۱۲] Statement on AI Risk Link

منبع: مشرق

کلیدواژه: تحلیل روز طوفان الاقصی قیمت هوش مصنوعی اندیشکده رند مدل زبانی بزرگ حمله بیولوژیکی پاتوژن عامل بیماری همه گیری کرونا اپیدمی ویروس کرونا شیوع کرونا کووید ۱۹ واکسن ویروس خودرو قیمت های روز در یک نگاه حوادث سلامت مدل های زبانی بزرگ عوامل بیماری زای عوامل بیماری زا مدل زبانی بزرگ ی هوش مصنوعی ی بیولوژیک دلار هزینه فناوری ها درباره ی ی عوامل مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.mashreghnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «مشرق» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۲۵۲۳۶۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ورود صنایع بزرگ به حوزه استارت‌آپی کشور در استیج اینوتکس بررسی می شود

به گزارش خبرگزاری علم و فناوری آنا، رضا غیابی؛ دبیر محتوایی رویداد اینوتکس گفت: در استیج اینوتکس 2024، تمرکز بر ورود صنایع بزرگ به حوزه استارت‌آپی است و برخی از صنایع بزرگ کشور در این رویداد حضور خواهند داشت. 

وی افزود: چالش های روز حوزه استارت‌آپی در قانون گذاری، رگولاتوری، تأمین مالی، رکود بازار و بین المللی شدن استارت‌آپ‌ها در این دوره از استیج مورد بحث و تبادل نظر بیش از 90 نفر از بخش خصوصی، عمومی غیردولتی و دولتی قرار خواهد گرفت.

غیابی در خصوص تمایز این دوره از استیج اینوتکس با دوره های پیشین نیز گفت: امسال و با همکاری سازمان جهانی تبلیغات، به موضوع تبلیغات جهانی استارت‌آپ ها پرداخته خواهد شد. این موضوع یکی از حلقه های مفقوده زیست بوم نوآوری و فناوری کشور است و تلاش داریم در این حوزه نیز بحث های کارشناسی خوبی در استیج اینوتکس شاهد باشیم.

دبیر محتوایی استیج اینوتکس 2024 در پایان گفت: علاوه بر پخش زنده رویداد استیج اینوتکس 2024، جلسات کارشناسی برگزار شده در این رویداد، پس از برگزاری اینوتکس در قالب مجموعه فیلم هایی در دسترس علاقه مندان به حوزه فناوری قرار خواهد گرفت.

انتهای پیام/

دیگر خبرها

  • چرا ارتش‌ها نمی‌توانند به هوش مصنوعی اعتماد کند؟
  • چرا ارتش‌ها نمی‌تواند به هوش مصنوعی اعتماد کند؟
  • چت‌بات هوش مصنوعی انویدیا با قابلیت‌های هیجان‌انگیز آپدیت شد
  • هوش مصنوعی به کمک ثبت تخلفات رانندگی می آید
  • رئیس پلیس راهور تهران بزرگ: هوش مصنوعی به کمک ثبت تخلفات رانندگی می آید
  • مسکن‌ها؛ مهم‌ترین علت بروز سردرد‌های میگرنی!
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • دانشگاه بوعلی سینای همدان، میزبان رویداد دانشگاهی نزدیک قله ایم
  • چین از مدل هوش مصنوعی تبدیل متن به ویدئو رونمایی کرد
  • ورود صنایع بزرگ به حوزه استارت‌آپی کشور در استیج اینوتکس بررسی می شود