کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۵۹۴۶۹۷
تاریخ خبر:

هوشِ گمراه‌کننده | عواقب اعتماد کور به چت‌بات‌ها در زمینه راستی‌آزمایی

هوشِ گمراه‌کننده | عواقب اعتماد کور به چت‌بات‌ها در زمینه راستی‌آزمایی

‌آیا می‌توان به چت‌بات‌های هوش مصنوعی برای راستی‌آزمایی اطلاعات اعتماد کرد؟

هفت صبح| با همه هیاهویی که پیرامون هوش مصنوعی و توانایی آن در تحلیل و تولید محتوا به راه افتاده، پرسشی اساسی در میان کاربران و متخصصان فضای دیجیتال در حال گسترش است: آیا می‌توان به چت‌بات‌های هوش مصنوعی برای راستی‌آزمایی اطلاعات اعتماد کرد؟ باید بگوییم، بررسی‌ها و مطالعات اخیر، پاسخی نگران‌کننده به این پرسش می‌دهند.

 

از زمان راه‌اندازی چت‌بات «گروک» توسط شرکت ایکس‌اِی‌آی متعلق به ایلان ماسک در نوامبر ۲۰۲۳، این ابزار به سرعت میان کاربران شبکه اجتماعی «ایکس» محبوب شد. کاربران روزانه هزاران بار با فرمان «گروک، این درسته؟» از آن می‌خواهند تا درستی اطلاعات و اخبار را بررسی کند. اما نخستین نشانه‌های خطر، زمانی آشکار شد که گروک، بدون هیچ پرسش مرتبطی، ناگهان شروع به تکرار ادعای «نسل‌کشی سفیدپوستان در آفریقای جنوبی» کرد، موضوعی که نه‌تنها بی‌پایه است، بلکه از دید بسیاری از کارشناسان، بازتاب‌دهنده نظریه‌های توطئه نژادپرستانه‌ای نظیر «جایگزینی بزرگ» است.

 

این ادعا نخستین بار زمانی در فضای رسانه‌ای آمریکا جدی مطرح شد که دولت دونالد ترامپ، شماری از کشاورزان سفیدپوست اهل آفریقای جنوبی را با عنوان «قربانیان نسل‌کشی» به ایالات متحده آورد. پس از واکنش‌های شدید، شرکت ایکس‌اِی‌آی اعلام کرد ‌‌رفتار گروک ناشی از یک «تغییر غیرمجاز» در مدل بوده و وعده داد «بررسی کامل» انجام خواهد داد‌ اما سؤال اساسی اینجاست: آیا این اشتباه، یک مورد استثنایی است یا بخشی از یک مشکل ساختاری در عملکرد چت‌بات‌های امروزی؟

 

مطالعه‌ای که شبکه خبری بی‌بی‌سی در فوریه ۲۰۲۴ منتشر کرد، نشان داد که ۵۱ درصد پاسخ‌های چت‌بات‌ها از جمله چت‌جی‌پی‌تی، جمینای، کوپایلوت و پرپلکستی، دارای خطاهای قابل توجه یا تحریف محتوا بوده‌اند. به طور خاص، ۱۹ درصد پاسخ‌ها حاوی خطاهای «مبتنی بر واقعیت» بودند و در ۱۳ درصد نقل‌قول‌ها به‌صورت نادرست بازسازی شده بودند یا به کلی و از اساس در منابع اصلی وجود نداشتند.

 

در این میان، گروک عملکرد ضعیف‌تری از سایر رقبا داشته و در ۹۴ درصد موارد، پاسخ نادرست داده، بی‌آنکه تردیدی در صحت ادعایش نشان دهد. نکته نگران‌کننده‌تر این است که چت‌بات‌ها به طور معمول با اعتماد‌به‌نفس کامل پاسخ می‌دهند، حتی وقتی جواب اشتباه است. برای مثال، در یک مطالعه منتشرشده توسط مرکز تاو برای روزنامه‌نگاری دیجیتال، از چت‌جی‌پی‌تی خواسته شد ۲۰۰ پاسخ درباره منبع مقالات ارائه دهد. فقط در ۱۵ مورد از این پاسخ‌ها، نشانه‌ای از تردید در پاسخ وجود داشت و در هیچ موردی از پاسخ دادن خودداری نکرد.

 

این در حالی‌ست که پژوهش نشان داد در ۶۰ درصد موارد، چت‌بات‌ها نتوانستند به درستی منبع اطلاعات را تشخیص دهند.خطاهای چت‌بات‌ها به موارد خبری محدود نمی‌شود.  در حوزه تصویر هم چت‌بات‌ها ضعف‌های جدی دارند. در آزمایشی که دویچه‌وله انجام داد، تصویری ساخته‌شده با هوش مصنوعی از آتش‌سوزی در یک آشیانه هواپیما به گروک نشان داده شد. گروک مدعی شد که تصویر مربوط به چند حادثه مختلف در فرودگاه‌های لندن، دنور و هوشی‌مین است، در حالی‌که تصویر از اساس جعلی بود.

 

حتی با وجود نشانه‌های واضح در تصویر مانند وارونگی باله‌های هواپیما و پرتاب‌های غیرواقعی آب، گروک نتوانست تشخیص دهد که تصویر واقعی نیست. او حتی وجود واترمارک «تیک‌تاک» را دلیلی بر اصالت تصویر دانست و افزود که چون از تیک‌تاک آمده، پس احتمال واقعی بودنش زیاد است. در نمونه‌ای دیگر، گروک ویدئویی ساختگی از یک مار آناکوندای غول‌پیکر را که در رود آمازون شنا می‌کرد و این روزها در شبکه‌های اجتماعی سیار مورد توجه قرار گرفته است، واقعی معرفی کرد. این در حالی‌ست که ابعاد مار در ویدئو غیرممکن و نشانه‌های ویرایش دیجیتالی آشکار بودند.

 

حتی وجود واترمارک چت‌جی‌پی‌تی در گوشه تصویر، مانع از تأیید آن توسط گروک نشد. پاسخ این خطاها در نهایت به چیزی برمی‌گردد که متخصصان آن را «رژیم اطلاعاتی» می‌نامند. مدل‌های زبانی بزرگ مانند گروک یا چت‌جی‌پی‌تی، از طریق داده‌هایی که با آن آموزش دیده‌اند، از مقالات، صفحات اینترنتی‌ و شبکه‌های اجتماعی گرفته تا پایگاه‌های داده عمومی، شناخت خود را از جهان می‌سازند. اگر این منابع آلوده به تبلیغات سیاسی، اطلاعات نادرست یا تعصبات ایدئولوژیک باشند، نتیجه هم به همان اندازه مسموم خواهد بود.

 

به گفته توماسو کانتا، معاون پروژه راستی‌آزمایی ایتالیایی «پاگلا پولیتیکا»، چت‌بات‌ها بارها اطلاعاتی ارائه می‌دهند که «ناقص، گمراه‌کننده یا آشکارا نادرست» است. او هشدار می‌دهد که در صورت آموزش مدل‌ها با داده‌هایی که به‌صورت هدفمند انتخاب شده‌اند، برای مثال از سوی صاحبان فناوری یا تحت تأثیر جهت‌گیری سیاسی، احتمال خطا به مراتب بیشتر می‌شود. همه این‌ها موجب شده تا کارشناسان هشدار دهند که نباید چت‌بات‌ها را به‌عنوان ابزار مستقل راستی‌آزمایی تلقی کرد.

 

فلیکس سایمون، پژوهشگر مؤسسه اینترنت آکسفورد می‌گوید: «هوش مصنوعی ممکن است در موارد ساده کمک‌کننده باشد، اما در موقعیت‌های پیچیده یا سیاسی، دقت و بی‌طرفی لازم را ندارد.» با توجه به این شواهد، اگرچه چت‌بات‌ها ابزارهایی مفید و در برخی حوزه‌ها شگفت‌انگیز به شمار می‌روند، اما باید با احتیاط به آنها نگریست. راستی‌آزمایی، کاری است که هنوز به نگاه انسانی، سواد رسانه‌ای و درک بافت اطلاعات نیاز دارد، چیزهایی که هوش مصنوعی هنوز به آن نرسیده است.

 

سایر اخبارجهانرا از اینجا دنبال کنید.
کدخبر: ۵۹۴۶۹۷
تاریخ خبر:
ارسال نظر