واقعیت ترسناک هوش مصنوعی

روزنامه هفت صبح، ملیکا طاهرانپور | اجلاس ایمنی هوش مصنوعی ۲۰۲۳ برای اولینبار در تاریخ برگزار شد تا شروع تلاشی گسترده باشد برای جلوگیری از نابودی بشر بهدست هوش مصنوعی. هوش مصنوعی و مدلهای مبتنیبر آن مدتهاست که بین ما هستند اما با رونمایی از چتبات ChatGPT و پس از آن، دیگر مولدهای هوش مصنوعی مثل میدجرنی و Dall-E، همه چیز تغییر کرد. کمکم شگفتزدگی و لذت پرسیدن سوالهای فراوان از چتباتها، جای خود را به ترس و دلهره داد.
مردم به این فکر افتادند که اگر روزی هوش مصنوعی جایگاه شغلیشان را بهخطر بیندازد چه باید بکنند و دولتها به رباتهایی فکر میکردند که از کنترل انسان خارج شدهاند و با درکی فراانسانی در پی تیشه زدن به ریشه بشریت هستند. فیلمهای علمیتخیلی درنهایت کار خودشان را کردند، مقالههای فراوانی در این مورد نوشته شد و نظریههای مختلفی بیان شد تا جاییکه در آخرین صحبتهای ایلان ماسک و بسیاری دیگر ازجمله جفری هینتون معروفبه پدرخوانده هوش مصنوعی، AI فناوری تهدیدآمیزی برای بشر تلقی شد.
به دنبال تمام هراسها و اضطرابها، بالاخره بریتانیا برای قانونمند کردن توسعه هوش مصنوعی قدم برداشت. نخستوزیر بریتانیا، ریشی سوناک، اولین اجلاس ایمنی هوش مصنوعی را با حضور ۲۸ کشور دنیا برگزار کرد. اجلاس جهانی ایمنی هوش مصنوعی، طی دو جلسه حدود ۱۵۰ نماینده از سراسر جهان از جمله رهبران دولت و وزیران، رهبران صنعت، دانشگاه و جامعه مدنی و بزرگان این حوزه را گرد هم آورد تا درباره آینده هوش مصنوعی صحبت کنند.
سوناک در سخنرانی ۲۶ اکتبر، چارچوب بحث اجلاس سران را مطرح کرده بود. طی این سخنرانی، او از مزیتها و خطرات احتمالی هوش مصنوعی صحبت کرد و به مردمش اطمینان خاطر داد که از آنها محافظت خواهد کرد. تأسیس اولین مؤسسه ایمنی هوش مصنوعی جهان در بریتانیا یکی از برنامههای سوناک بود. بهگفته او، این مؤسسه باعث ارتقای دانش جهان در مورد ایمنی هوش مصنوعی خواهد شد و انواع جدید هوش مصنوعی را بهدقت بررسی، ارزیابی و آزمایش خواهد کرد.
برنامه بعدی سوناک، میزبانی اولین اجلاس جهانی ایمنی هوش مصنوعی با دعوت از برجستهترین نمایندگان جهان، شرکتهای پیشرو هوش مصنوعی و کشورهای پیشرفته در استفاده از آن بود. درکمال تعجب و حتی مخالفت بسیاری از سران، چین نیز به این اجلاس دعوت شد زیرا سوناک و تیمش عقیده دارند بهمنظور دستیابی به یک استراتژی جدی برای هوش مصنوعی، باید تمام قدرتهای پیشرو هوش مصنوعی جهان با هم همکاری داشته باشند.
یکی از حرکات نمادین بریتانیا، برگزاری اجلاس در پارک بلچلی بود. بلچلی نقطهای است که سالها پیش آلن تورینگ، پدر علوم کامپیوتر و هوش مصنوعی، در آنجا موفق به شکستن رمز انیگما شد. اولین گامها به سمت هوش مصنوعی در این نقطه برداشته شد و حالا تصمیمات مهم درباره روشهای ایمن کردن هوش مصنوعی در همینجا گرفته شد.
در پی دسترسی بیشتر به تراشههای بهتر و قدرت محاسباتی بالاتر، هوش مصنوعی با سرعت بیسابقهای در حال توسعه است. به گفته سوناک، جهان در نقطه عطف انقلاب تکنولوژیکی نسلی قرار دارد و اگر خواهان بهرهبری از مزایای هوش مصنوعی هستیم، باید خطرات آن را برطرف کنیم. هدف اصلی اجلاس، شروع گفتوگوی جهانی درباره مدلهای «هوش مصنوعی پیشتاز» (Frontier AI) بود. این اصطلاح به مدلهای هوش مصنوعی همهمنظوره بسیار توانمند اشاره دارد که میتوانند طیف گستردهای از وظایف را انجام دهند و با قابلیتهای موجود در پیشرفتهترین مدلهای امروزی مطابقت کنند یا حتی از آن فراتر روند.
قابلیتهای سیستمهای هوش مصنوعی قدرتمند فرصتها و البته خطرات بیسابقهای را بههمراه خواهد داشت. جلسه یکم نوامبر امکان گفتوگوی آزادی را فراهم کرد که در آن انواع خطرات ناشی از هوش مصنوعی پیشتاز و نقش بازیگران مختلف در پاسخ به آنها و همچنین فرصتهای قابل توجه هوش مصنوعی در حوزههای مختلف مورد توجه قرار گرفت. در ۲ نوامبر، بحثها بیشتر بر روی تأثیرات هوش مصنوعی، گزینههایی برای همکاری مؤثر و چگونگی پیشبرد مأموریت ایمنی جهانی هوش مصنوعی متمرکز شد.
سران نشست بر روی یک موضوع توافق داشتند؛ اینکه هوش مصنوعی پیشتاز باید برای اهداف عالی و به سمت خیر هدایت شود. دراینبین، تصمیمگیری مسئولان باید بهگونهای باشد که جنبههای مثبت هوش مصنوعی قربانی جنبههای منفی احتمالی نشود.
تولید و انتشار اطلاعات نادرست و سوگیریهای هوش مصنوعی یکی از اولیهترین نگرانیهای افراد حاضر در نشست بود. توانایی چتباتها در تولید متن، صدا، تصاویر و ویدئوهایی که شباهت زیادی به واقعیت دارند، از نگرانیهای غیرقابل انکار دولتها از آینده فناوری است.
بسیاری معتقدند که اطلاعات نادرست تولیدشده توسط هوش مصنوعی میتواند بر انتخابات پیشروی ایالات متحده و هند و انتخابات اندونزی، مکزیک و بریتانیا در سال آینده تأثیر بگذارد. اما بهغیر از این موضوع، خطر بزرگتری نیز وجود دارد. اگر سلاحی تا این اندازه قدرتمند به دست افراد ناشایست بیفتد، ممکن است مسیر هوش مصنوعی به سمت شر عوض شود.
سوءاستفاده از هوش مصنوعی پیشتاز برای جنگ، حملات سایبری گسترده، سلاحهای زیستی فرمولهشده، کلاهبرداریهای عظیم و مواردی از این دست از اتفاقات نابخشودنی و هولناکی هستند که از الان باید به فکر جلوگیری از آنها بود. این احتمال نیز که هوش مصنوعی ممکن است به دلیل اختلال در عملکرد یا دستیابی به ابرهوش که از ادراک انسانی فراتر است، به انسان آسیب برساند، در نشست مطرح شد. در روز دوم نشست، ایلان ماسک در مورد چنین احتمالی با سوناک گفتوگو کرد.
از آنجا که پیشرفت تکنولوژی بسیار سرعت یافته است، خودمختارشدن هوش مصنوعی دور از ذهن نیست و باید زودتر چارهای برای خطرات احتمالی اندیشید. ایلان ماسک درگفتوگو با ریشی سوناک، فناوری نوپای هوش مصنوعی را به «غول چراغ جادو» تشبیه کرد: «داستان هوش مصنوعی شبیه داستان غول چراغ جادو است. وقتی یک غول جادویی وجود دارد که میتواند همه آرزوها را برآورده کند، معمولاً داستان به جای خوبی ختم نمیشود. مراقب باش چه چیزی آرزو میکنی.»
شرح عکس: طبق انتظارات چت جیپیتی یکی از اصلیترین محورهای این اجلاس بود