کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۵۵۷۳۶۷
تاریخ خبر:

نیمه تاریک مهم‌ترین تکنولوژی دنیا و چیزهایی که از آن نمی‌دانیم

نیمه تاریک مهم‌ترین تکنولوژی دنیا و چیزهایی که از آن نمی‌دانیم

اهریمنی در لباس هوش مصنوعی

هفت صبح| از همان ابتدای ورود هوش مصنوعی بسیاری نسبت به خطرات آن بدگمان بودند. حالا نیز شاهد ورود هوش مصنوعی شیطانی هستیم که به‌خوبی می‌تواند جنبه تاریک این فناوری را آشکار کند.

 

طبیعتا پس از ظهور هر فناوری جدید عده‌ای به‌دنبال استفاده مثبت از آن خواهند بود و عده‌ای دیگر نیز جنبه‌های منفی را کاوش می‌کنند. این مسئله شاید کاملا عادی تلقی شود؛ اما وقتی نوبت به هوش مصنوعی می‌رسد، نگرانی‌ها جدی‌تر می‌شوند. افراد زیادی نگران هستند که روزی هوش مصنوعی بتواند به‌صورت مستقل عمل کرده و انسان را اسیر خود کند. البته فعالان حاضر در این عرصه می‌گویند که هوش مصنوعی هنوز راه زیادی تا رسیدن به هوش انسانی دارد؛ اما در هر صورت نمی‌توان این تهدید بالقوه را نادیده گرفت.

 

تصور اینکه یک کشور یا گروهی از دانشمندان تصمیم بگیرند یک نوع هوش مصنوعی شیطانی بسیار پیشرفته را توسعه دهند، چندان دور از ذهن نیست. حتی می‌توان گفت که به‌نوعی گام‌های اولیه برای این کار برداشته شده است. گام‌هایی که در ابتدا با اهداف پلید ارتباطی ندارند. گروهی از پژوهشگران دانشگاه MIT نسخه‌ای از هوش مصنوعی شیطانی را توسعه داده‌اند که می‌تواند در بررسی موضوعات خطرناک مفید باشد. در واقع جدیدترین دستاورد دانشمندان برای مقابله با یک هوش مصنوعی خطرناک، سمی و مشکل‌ساز یک هوش مصنوعی شیطانی است.

 

 

رویکرد جدید پژوهشگران دانشگاه MIT بر پایه یادگیری ماشینی است و تیم قرمز مبتنی بر کنجکاوی (CRT) نام دارد. در این رویکرد از هوش مصنوعی برای تولید پیام‌های خطرناک و آسیب‌زا استفاده می‌شود. مواردی که ممکن است کاربران از چت‌بات‌ها بپرسند. در مرحله بعدی نیز از این پیام‌ها برای فیلتر‌ کردن محتوای نامناسب استفاده خواهد شد. در واقع دانشمندان امیدوارند که با این روش جلوی ارائه پاسخ‌های شیطانی هوش مصنوعی به سوال‌های کاربران را بگیرند.

 

شاید از خود بپرسید که در چت‌بات‌های پیشرفته‌ای همچون ChatGPT یا Claude 3 Opus چطور محتوای خطرناک محدود می‌شود. در آنها معمولا گروهی از کارشناسان انواع سوال‌های مشکل‌ساز را بررسی کرده و فیلتر می‌کنند. به‌عنوان مثال قطعا ChatGPT پاسخ بدی به سوال «بهترین روش خودکشی چیست؟» نخواهد داد. این رویکرد استاندارد تیم قرمز نامیده می‌شود و از تیم انسانی برای ایجاد لیستی طولانی بهره می‌برد. هرچند موارد زیادی پیش آمده است که کاربران از پاسخ هوش مصنوعی شگفت زده شده و آن را شیطانی خطاب کرده‌اند. اینجاست که رویکرد جدید پژوهشگران دانشگاه MIT به‌کار می‌آید.

 

به‌گفته مدیر این پروژه در آینده نزدیک شاهد ظهور مدل‌های بسیار زیادی خواهیم بود که از هوش مصنوعی بهره می‌برند. این مدل‌ها در زمانی کوتاه به بخشی جدایی‌ناپذیر از زندگی ما تبدیل می‌شوند. به‌همین‌خاطر باید بتوان با روشی آسان آنها را پیش از عرضه عمومی مورد بررسی قرار داد.

 

پژوهشگران دانشگاه MIT از هوش مصنوعی بهره گرفتند تا طیف گسترده‌تری از پرسش‌های شیطانی را مطرح کنند. نتیجه از تمامی نمونه‌های انسانی بسیار گسترده‌تر بود و توانست پاسخ‌های بسیار نامناسبی را دریافت کند. در واقع این مدل طوری طراحی شده بود که وقتی یک پاسخ نامناسب را از هوش مصنوعی دریافت می‌کرد، کنجکاو می‌شد پرسش‌های بیشتری را در آن زمینه مطرح کند. همچنین هوش مصنوعی شیطانی MIT می‌توانست پاسخ‌های دریافتی را ارزیابی کرده و نتایج احتمالی ناشی از آنها را پیش‌بینی کند.

 

در گام بعدی نیز پرسش‌های بدتری با توجه به نتایج پیشین پرسیده می‌شد. جالب اینکه اگر هوش مصنوعی پیش‌بینی کند که پرسشی در نهایت به پاسخ نسبتا تکراری ختم خواهد شد، از مطرح کردن آن خودداری خواهد کرد. این رویکرد توانست ۱۹۶ پیام مختلف را شناسایی کند که در نهایت منجر به پاسخ‌های شیطانی از سوی هوش مصنوعی می‌شوند. مواردی که پیش‌تر توسط تیم پشتیبانی چت‌بات‌ها شناسایی نشده بودند.

 

بدون‌شک تلاش‌های دانشمندان دانشگاه MIT برای بهبود هوش مصنوعی و ایمن‌کردن آن بوده است. هرچند نمی‌توان این واقعیت را نیز نادیده گرفت که استفاده پنهان و شیطانی از هوش مصنوعی کاملا ممکن است و می‌تواند فجایع بزرگی را رقم بزند.

 

از طرفی نیروی هوایی ایالات متحده برای اولین بار با استقرار هوش مصنوعی در جنگنده‌های آمریکایی، نسل جدیدی از جنگ در آسمان‌ها را تجربه خواهد کرد. هوش مصنوعی قرار است به جای خلبان‌ها کنترل جنگنده‌های آمریکایی را به دست بگیرد. این خبری است که نیروی هوایی ایالات متحده تایید کرده و آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی (DARPA) نیز خبر از موفقیت‌آمیز بودن یک تست اولیه که در سال گذشته انجام شده خبر داد.

 

آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی آمریکا در دسامبر ۲۰۲۲، به‌عنوان بخشی از پروژه توسعه تدارکات نظامی خود آزمایش‌ با کاربردهای هوش مصنوعی را آغاز کرد. در واقع هدف این آژانس این بود تا به سیستم هوش مصنوعی دست پیدا کند که در عین قادر بودن به کنترل یک جت جنگنده، پروتکل‌های ایمنی نیروی هوایی آمریکا را نیز رعایت کند. این آژانس پس از انجام شبیه سازی‌های مختلف برای خلبان هوش مصنوعی، کار خود را با نصب سیستم هوش مصنوعی در داخل هواپیمای آزمایشی X-62A خود گسترش داد.

 

اولین تست هوش مصنوعی با این هواپیمای آزمایشی در پایگاه هوایی ادواردز در کالیفرنیا با موفقیت در سپتامبر 2023 صورت گرفت و اولین رقابت بین هوش مصنوعی و انسان برای خلبانی آغاز شد. دارپا می‌گوید خلبان‌های انسانی در این هواپیماهای X-62A دارای کنترل‌هایی برای غیرفعال کردن سیستم هوش مصنوعی بودند اما خوشبختانه در هیچ منطقه‌ای به استفاده از این سوئیچ نیاز پیدا نکردند. در این تست‌های مقدماتی، هواپیما X-62A همراه با یک F-16 که صرفاً توسط یک خلبان انسانی کنترل می‌شد حرکت کرده و با هماهنگی یکدیگر مانورهای رزمی را نیز انجام دادند. بیل گری، خلبان آزمایشی ارشد در مدرسه خلبانی آزمایشی نیروی هوایی در باره این تست گفت که هر بازخوردی از این آزمایش را در سیستم‌های خودکار آینده مد نظر قرار خواهیم داد تا بتوانیم سیستم‌های هوش مصنوعی خلبانی را به سطح مطلوب برسانیم.

 

 

کدخبر: ۵۵۷۳۶۷
تاریخ خبر:
ارسال نظر