هوشِ گمراهکننده | عواقب اعتماد کور به چتباتها در زمینه راستیآزمایی

آیا میتوان به چتباتهای هوش مصنوعی برای راستیآزمایی اطلاعات اعتماد کرد؟
هفت صبح| با همه هیاهویی که پیرامون هوش مصنوعی و توانایی آن در تحلیل و تولید محتوا به راه افتاده، پرسشی اساسی در میان کاربران و متخصصان فضای دیجیتال در حال گسترش است: آیا میتوان به چتباتهای هوش مصنوعی برای راستیآزمایی اطلاعات اعتماد کرد؟ باید بگوییم، بررسیها و مطالعات اخیر، پاسخی نگرانکننده به این پرسش میدهند.
از زمان راهاندازی چتبات «گروک» توسط شرکت ایکساِیآی متعلق به ایلان ماسک در نوامبر ۲۰۲۳، این ابزار به سرعت میان کاربران شبکه اجتماعی «ایکس» محبوب شد. کاربران روزانه هزاران بار با فرمان «گروک، این درسته؟» از آن میخواهند تا درستی اطلاعات و اخبار را بررسی کند. اما نخستین نشانههای خطر، زمانی آشکار شد که گروک، بدون هیچ پرسش مرتبطی، ناگهان شروع به تکرار ادعای «نسلکشی سفیدپوستان در آفریقای جنوبی» کرد، موضوعی که نهتنها بیپایه است، بلکه از دید بسیاری از کارشناسان، بازتابدهنده نظریههای توطئه نژادپرستانهای نظیر «جایگزینی بزرگ» است.
این ادعا نخستین بار زمانی در فضای رسانهای آمریکا جدی مطرح شد که دولت دونالد ترامپ، شماری از کشاورزان سفیدپوست اهل آفریقای جنوبی را با عنوان «قربانیان نسلکشی» به ایالات متحده آورد. پس از واکنشهای شدید، شرکت ایکساِیآی اعلام کرد رفتار گروک ناشی از یک «تغییر غیرمجاز» در مدل بوده و وعده داد «بررسی کامل» انجام خواهد داد اما سؤال اساسی اینجاست: آیا این اشتباه، یک مورد استثنایی است یا بخشی از یک مشکل ساختاری در عملکرد چتباتهای امروزی؟
مطالعهای که شبکه خبری بیبیسی در فوریه ۲۰۲۴ منتشر کرد، نشان داد که ۵۱ درصد پاسخهای چتباتها از جمله چتجیپیتی، جمینای، کوپایلوت و پرپلکستی، دارای خطاهای قابل توجه یا تحریف محتوا بودهاند. به طور خاص، ۱۹ درصد پاسخها حاوی خطاهای «مبتنی بر واقعیت» بودند و در ۱۳ درصد نقلقولها بهصورت نادرست بازسازی شده بودند یا به کلی و از اساس در منابع اصلی وجود نداشتند.
در این میان، گروک عملکرد ضعیفتری از سایر رقبا داشته و در ۹۴ درصد موارد، پاسخ نادرست داده، بیآنکه تردیدی در صحت ادعایش نشان دهد. نکته نگرانکنندهتر این است که چتباتها به طور معمول با اعتمادبهنفس کامل پاسخ میدهند، حتی وقتی جواب اشتباه است. برای مثال، در یک مطالعه منتشرشده توسط مرکز تاو برای روزنامهنگاری دیجیتال، از چتجیپیتی خواسته شد ۲۰۰ پاسخ درباره منبع مقالات ارائه دهد. فقط در ۱۵ مورد از این پاسخها، نشانهای از تردید در پاسخ وجود داشت و در هیچ موردی از پاسخ دادن خودداری نکرد.
این در حالیست که پژوهش نشان داد در ۶۰ درصد موارد، چتباتها نتوانستند به درستی منبع اطلاعات را تشخیص دهند.خطاهای چتباتها به موارد خبری محدود نمیشود. در حوزه تصویر هم چتباتها ضعفهای جدی دارند. در آزمایشی که دویچهوله انجام داد، تصویری ساختهشده با هوش مصنوعی از آتشسوزی در یک آشیانه هواپیما به گروک نشان داده شد. گروک مدعی شد که تصویر مربوط به چند حادثه مختلف در فرودگاههای لندن، دنور و هوشیمین است، در حالیکه تصویر از اساس جعلی بود.
حتی با وجود نشانههای واضح در تصویر مانند وارونگی بالههای هواپیما و پرتابهای غیرواقعی آب، گروک نتوانست تشخیص دهد که تصویر واقعی نیست. او حتی وجود واترمارک «تیکتاک» را دلیلی بر اصالت تصویر دانست و افزود که چون از تیکتاک آمده، پس احتمال واقعی بودنش زیاد است. در نمونهای دیگر، گروک ویدئویی ساختگی از یک مار آناکوندای غولپیکر را که در رود آمازون شنا میکرد و این روزها در شبکههای اجتماعی سیار مورد توجه قرار گرفته است، واقعی معرفی کرد. این در حالیست که ابعاد مار در ویدئو غیرممکن و نشانههای ویرایش دیجیتالی آشکار بودند.
حتی وجود واترمارک چتجیپیتی در گوشه تصویر، مانع از تأیید آن توسط گروک نشد. پاسخ این خطاها در نهایت به چیزی برمیگردد که متخصصان آن را «رژیم اطلاعاتی» مینامند. مدلهای زبانی بزرگ مانند گروک یا چتجیپیتی، از طریق دادههایی که با آن آموزش دیدهاند، از مقالات، صفحات اینترنتی و شبکههای اجتماعی گرفته تا پایگاههای داده عمومی، شناخت خود را از جهان میسازند. اگر این منابع آلوده به تبلیغات سیاسی، اطلاعات نادرست یا تعصبات ایدئولوژیک باشند، نتیجه هم به همان اندازه مسموم خواهد بود.
به گفته توماسو کانتا، معاون پروژه راستیآزمایی ایتالیایی «پاگلا پولیتیکا»، چتباتها بارها اطلاعاتی ارائه میدهند که «ناقص، گمراهکننده یا آشکارا نادرست» است. او هشدار میدهد که در صورت آموزش مدلها با دادههایی که بهصورت هدفمند انتخاب شدهاند، برای مثال از سوی صاحبان فناوری یا تحت تأثیر جهتگیری سیاسی، احتمال خطا به مراتب بیشتر میشود. همه اینها موجب شده تا کارشناسان هشدار دهند که نباید چتباتها را بهعنوان ابزار مستقل راستیآزمایی تلقی کرد.
فلیکس سایمون، پژوهشگر مؤسسه اینترنت آکسفورد میگوید: «هوش مصنوعی ممکن است در موارد ساده کمککننده باشد، اما در موقعیتهای پیچیده یا سیاسی، دقت و بیطرفی لازم را ندارد.» با توجه به این شواهد، اگرچه چتباتها ابزارهایی مفید و در برخی حوزهها شگفتانگیز به شمار میروند، اما باید با احتیاط به آنها نگریست. راستیآزمایی، کاری است که هنوز به نگاه انسانی، سواد رسانهای و درک بافت اطلاعات نیاز دارد، چیزهایی که هوش مصنوعی هنوز به آن نرسیده است.