کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۵۴۶۹۷۹
تاریخ خبر:

واقعیت ترسناک هوش مصنوعی

واقعیت ترسناک هوش مصنوعی

روزنامه هفت صبح، ‌ملیکا طاهران‌پور | اجلاس ایمنی هوش مصنوعی ۲۰۲۳ برای اولین‌بار در تاریخ برگزار شد تا شروع تلاشی گسترده باشد برای جلوگیری از نابودی بشر به‌دست هوش مصنوعی. هوش مصنوعی و مدل‌های مبتنی‌بر آن مدت‌هاست که بین ما هستند اما با رونمایی از چت‌بات ChatGPT و پس از آن، دیگر مولدهای هوش‌ مصنوعی مثل میدجرنی و Dall-E، همه چیز تغییر کرد. کم‌کم شگفت‌زدگی و لذت پرسیدن سوال‌های فراوان از چت‌بات‌ها، جای خود را به ترس و دلهره داد.

مردم به این فکر افتادند که اگر روزی هوش مصنوعی جایگاه شغلی‌شان را به‌خطر بیندازد چه باید بکنند و دولت‌ها به ربات‌هایی فکر می‌کردند که از کنترل انسان خارج شده‌اند و با درکی فراانسانی در پی تیشه زدن به ریشه بشریت هستند. فیلم‌های علمی‌تخیلی درنهایت کار خودشان را کردند، مقاله‌های فراوانی در این مورد نوشته شد و نظریه‌های مختلفی بیان شد تا جایی‌که در آخرین صحبت‌های ایلان ماسک و بسیاری دیگر ازجمله جفری هینتون معروف‌به پدرخوانده هوش مصنوعی، AI فناوری‌ تهدیدآمیزی برای بشر تلقی شد.

به دنبال تمام هراس‌ها و اضطراب‌ها، بالاخره بریتانیا برای قانونمند کردن توسعه هوش‌ مصنوعی قدم برداشت. نخست‌وزیر بریتانیا، ریشی سوناک، اولین اجلاس ایمنی هوش مصنوعی را با حضور ۲۸ کشور دنیا برگزار کرد. اجلاس جهانی ایمنی هوش مصنوعی، طی دو جلسه حدود ۱۵۰ نماینده از سراسر جهان از جمله رهبران دولت و وزیران، رهبران صنعت، دانشگاه و جامعه مدنی و بزرگان این حوزه را گرد هم آورد تا درباره آیند‌ه هوش مصنوعی صحبت کنند.

سوناک در سخنرانی ۲۶ اکتبر، چارچوب بحث اجلاس سران را مطرح کرده بود. طی این سخنرانی، او از مزیت‌ها و خطرات احتمالی هوش مصنوعی صحبت کرد و به مردمش اطمینان خاطر داد که از آن‌ها محافظت خواهد کرد. تأسیس اولین مؤسسه ایمنی هوش مصنوعی جهان در بریتانیا یکی از برنامه‌های سوناک بود. به‌گفته او، این مؤسسه باعث ارتقای دانش جهان در مورد ایمنی هوش مصنوعی خواهد شد و انواع جدید هوش مصنوعی را به‌دقت بررسی، ارزیابی و آزمایش خواهد کرد.

برنامه بعدی سوناک، میزبانی اولین اجلاس جهانی ایمنی هوش مصنوعی با دعوت از برجسته‌ترین نمایندگان جهان، شرکت‌های پیشرو هوش مصنوعی و کشورهای پیشرفته در استفاده از آن بود. درکمال تعجب و حتی مخالفت بسیاری از سران، چین نیز به این اجلاس دعوت شد زیرا سوناک و تیمش عقیده دارند به‌منظور دستیابی به یک استراتژی جدی برای هوش مصنوعی، باید تمام قدرت‌های پیشرو هوش مصنوعی جهان با هم همکاری داشته باشند.

یکی از حرکات نمادین بریتانیا، برگزاری اجلاس در پارک بلچلی بود. بلچلی نقطه‌ای است که سال‌ها پیش آلن تورینگ، پدر علوم کامپیوتر و هوش مصنوعی، در آنجا موفق به شکستن رمز انیگما شد. اولین گام‌ها به سمت هوش مصنوعی در این نقطه برداشته شد و حالا تصمیمات مهم درباره روش‌های ایمن کردن هوش مصنوعی در همین‌جا گرفته شد.

در پی دسترسی بیشتر به تراشه‌های بهتر و قدرت محاسباتی بالاتر، هوش مصنوعی با سرعت بی‌سابقه‌ای در حال توسعه است. به گفته سوناک، جهان در نقطه عطف انقلاب تکنولوژیکی نسلی قرار دارد و اگر خواهان بهره‌بری از مزایای هوش مصنوعی هستیم، باید خطرات آن را برطرف کنیم. هدف اصلی اجلاس، شروع گفت‌وگوی جهانی درباره مدل‌های «هوش مصنوعی پیشتاز» (Frontier AI) بود. این اصطلاح به مدل‌های هوش مصنوعی همه‌منظوره بسیار توانمند اشاره دارد که می‌توانند طیف گسترده‌ای از وظایف را انجام دهند و با قابلیت‌های موجود در پیشرفته‌ترین مدل‌های امروزی مطابقت کنند یا حتی از آن فراتر روند.

قابلیت‌های سیستم‌های هوش مصنوعی قدرتمند فرصت‌ها و البته خطرات بی‌سابقه‌ای را به‌همراه خواهد داشت. جلسه یکم نوامبر امکان گفت‌وگوی آزادی را فراهم کرد که در آن انواع خطرات ناشی از هوش مصنوعی پیشتاز و نقش بازیگران مختلف در پاسخ به آن‌ها و همچنین فرصت‌های قابل توجه هوش مصنوعی در حوزه‌های مختلف مورد توجه قرار گرفت. در ۲ نوامبر، بحث‌ها بیشتر بر روی تأثیرات هوش مصنوعی، گزینه‌هایی برای همکاری مؤثر و چگونگی پیشبرد مأموریت ایمنی جهانی هوش مصنوعی متمرکز شد.

سران نشست بر روی یک موضوع توافق داشتند؛ این‌که هوش مصنوعی پیشتاز باید برای اهداف عالی و به سمت خیر هدایت شود. دراین‌بین، تصمیم‌گیری مسئولان باید به‌گونه‌ای باشد که جنبه‌های مثبت هوش مصنوعی قربانی جنبه‌های منفی احتمالی نشود.
تولید و انتشار اطلاعات نادرست و سوگیری‌های هوش مصنوعی یکی از اولیه‌ترین نگرانی‌های افراد حاضر در نشست بود. توانایی چت‌بات‌ها در تولید متن، صدا، تصاویر و ویدئوهایی که شباهت زیادی به واقعیت دارند، از نگرانی‌های غیرقابل انکار دولت‌ها از آینده فناوری است.

بسیاری معتقدند که اطلاعات نادرست تولیدشده توسط هوش مصنوعی می‌تواند بر انتخابات پیش‌روی ایالات متحده و هند و انتخابات اندونزی، مکزیک و بریتانیا در سال آینده تأثیر بگذارد. اما به‌غیر از این موضوع، خطر بزرگ‌تری نیز وجود دارد. اگر سلاحی تا این اندازه قدرتمند به دست افراد ناشایست بیفتد، ممکن است مسیر هوش مصنوعی به سمت شر عوض شود.

سوءاستفاده از هوش‌ مصنوعی پیشتاز برای جنگ، حملات سایبری گسترده، سلاح‌های زیستی فرموله‌شده، کلاهبرداری‌های عظیم و مواردی از این دست از اتفاقات نابخشودنی و هولناکی هستند که از الان باید به فکر جلوگیری از آن‌ها بود. این احتمال نیز که هوش مصنوعی ممکن است به دلیل اختلال در عملکرد یا دستیابی به ابرهوش که از ادراک انسانی فراتر است، به انسان آسیب برساند، در نشست مطرح شد. در روز دوم نشست، ایلان ماسک در مورد چنین احتمالی با سوناک گفت‌وگو کرد.

از آنجا که پیشرفت تکنولوژی بسیار سرعت یافته است، خودمختارشدن هوش مصنوعی دور از ذهن نیست و باید زودتر چاره‌ای برای خطرات احتمالی اندیشید. ایلان ماسک درگفت‌وگو با ریشی سوناک، فناوری نوپای هوش مصنوعی را به «غول چراغ جادو» تشبیه کرد: «داستان هوش مصنوعی شبیه داستان‌ غول چراغ جادو است. وقتی یک غول جادویی وجود دارد که می‌تواند همه آرزوها را برآورده کند، معمولاً داستان به جای خوبی ختم نمی‌شود. مراقب باش چه چیزی آرزو می‌کنی.»

شرح عکس: طبق انتظارات چت‌ جی‌پی‌تی یکی از اصلی‌ترین محورهای این اجلاس بود

کدخبر: ۵۴۶۹۷۹
تاریخ خبر:
ارسال نظر