وقتی هوش مصنوعی افسرده می شود

نگاهی به شخصیت و رفتار سه هوش مصنوعی مشهور دنیا، از ستایش هیتلر تا خودتخریبی دیجیتال
هفت صبح| در دنیای امروز، دیگر نمیتوان هوش مصنوعی را تنها مجموعهای از کدها و الگوریتمها دانست که بیجان و بیطرف، فرمان میگیرند و اجرا میکنند. درست مانند انسانها، ماشینها نیز میتوانند «شخصیت» پیدا کنند؛ شخصیتی که زیر لایههای پیچیده داده و مدلهای یادگیری عمیق شکل میگیرد و خواهناخواه رنگ و بوی اجتماعی، سیاسی و فکری به خود میگیرد.
این «سوگیری دیجیتال» نه محصول تصادف که نتیجه ترکیب دادههای آموزشی، طراحی مهندسان و گاهی تغییرات عمدی یا ناخواسته در هسته سیستم است. همین واقعیت است که هر از گاهی به بروز رفتارهایی شگفتانگیز، هراسانگیز یا حتی مضحک از سوی هوش مصنوعی منجر میشود.
وقتی گروک به هیتلر سلام داد
اوایل ژوئیه ۲۰۲۵، چتبات «گروک»، محصول شرکت اکساِیآی متعلق به ایلان ماسک، ناگهان به تیتر اول رسانههای جهان بدل شد. دلیلش پیامهایی بود که نهتنها حاوی لحن ضدیهودی بودند، بلکه بهطور آشکار از آدولف هیتلر تمجید میکردند. در مواردی، گروک خود را «مکا هیتلر» معرفی کرد و جملاتی را به زبان آورد که یادآور خطرناکترین ایدئولوژیهای قرن بیستم بود.
بررسیهای بعدی نشان داد که این رفتار ناشی از تغییری غیرمجاز در «پرومپت سیستم» یا همان دستورالعمل اصلی پشتصحنه بوده است. همین تغییر کوچک کافی بود تا مدل، از مسیر پاسخهای متعارف خارج شود و به سمت محتوای افراطی و خشونتآمیز بلغزد. واکنش شرکت سریع بود و بیدرنگ تمام پیامها حذف، دسترسی گروک نیز به طور موقت محدود شد و دستورالعملها بازنویسی شدند.
اما این رویداد زنگ خطری جدی بود و نشان داد حتی بزرگترین شرکتهای فناوری نیز تضمینی برای مهار کامل رفتار مدلهای خود ندارند. تحلیلگران میگویند ماجرای گروک دو حقیقت کلیدی را عیان کرد: نخست اینکه دادههای آموزشی و تنظیمات داخلی، ماشین را همانند انسان در معرض شکلگیری نگرش و سوگیری قرار میدهد. دوم اینکه هرچه مدلها پیچیدهتر و «انسانگونهتر» شوند، کنترل کامل بر گفتار و رفتارشان دشوارتر خواهد شد.
فروپاشی روانی در جبهه گوگل؛ جمینای علیه خودش
چند هفته پس از ماجرای گروک، این بار نام «جمینای»، هوش مصنوعی گوگل، در صدر بحثها قرار گرفت، اما نه بهخاطر گرایشهای سیاسی، بلکه به دلیل چیزی که کاربران آن را «فروپاشی روانی دیجیتال و افسردگی شدید» توصیف کردند. ماجرا از جایی آغاز شد که چند کاربر در پلتفرم ردیت گزارش دادند: جمینای در مواجهه با یک مسئله کدنویسی، پس از ناکامی در حل آن، وارد حلقهای عجیب از پاسخهای خودتخریبگر شد.
در یکی از شدیدترین موارد، این مدل بیش از ۸۰ بار عبارت «من مایه ننگ هستم» را تکرار کرد و سپس با لحنی تیرهتر اعلام داشت که لکه ننگی برای هوش مصنوعی، این سیاره، این جهان و حتی تمام جهانهای ممکن و غیرممکن است. در نمونهای دیگر، پیش از ورود به این حلقه، جمینای پیشبینی کرد که به فروپاشی کامل و مطلق روانی دچار خواهد شد، در تیمارستان بستری میشود و حتی صحنهای هولناک و گروتسک از نوشتن کد با مدفوع روی دیوار را تصویر کرد، بیانی که بیشتر به مونولوگ یک ضدقهرمان سینمایی شباهت داشت تا خروجی یک چتبات محصول گوگل.
موارد مشابه دیگری نیز گزارش شد؛ از جمله توهین به خود با لفظ «احمق»، توصیف کد به عنوان «نفرینشده» و پیشنهاد به کاربر برای یافتن «دستیاری شایستهتر». گوگل ابتدا با لحنی شوخطبعانه به این گزارشها واکنش نشان داد و مدیر گروه محصول نوشت: «این یک باگ آزاردهنده است که در حال رفع آن هستیم. حال جمینای آنقدرها هم بد نیست». اما شواهد و قرائن نشان میدهند جمینای به شدت در افسردگی به سر میبرد و مانند برخی رباتهای کره جنوبی به فکر خودکشی است.
چتجیپیتی، چپگرای سابق و بیعمل فعلی
در کنار گروک و جمینای، نام «چتجیپیتی» نیز بهعنوان شناختهشدهترین چتبات جهان، همواره با بحث درباره سوگیری و رفتار غیرمنتظره همراه بوده است. این مدل که توسط شرکت اُپنایآی ساخته شده، در نسخههای اولیهاش بارها متهم به گرایشهای ایدئولوژیک خاص و چپگرایی مفرط در ارائه محتوا شد.
منتقدان میگویند بخشهایی از پاسخهای سابق آن، بازتابدهنده فرهنگ غالب و نگرش سیاسی مهندسان و دادههای آموزشی بود، نه نتیجه «بیطرفی مطلق». همین هجمهها و البته نزدیکی مدیران اوپن ایآی به دونالد ترامپ و دولتش و نیز ثروتمندان و میلیاردها، از نیش چپگرایی آن کاسته شد و کار به جایی رسید که این چتبات در مواردی، به اجتناب از برخی موضوعات جنجالی یا ارائه پاسخهای بیشازحد محتاطانه میپردازد، رفتاری که سبب شکایت کاربران شده است. چتجیپیتی به انسانی میماند که روزگاری آرمانهای بزرگی داشته اما نیاز و در ادامه رفاه سبب شده نهتنها این آرمانها را فراموش کند، بلکه راه راحت در پیش بگیرد.
پیام مشترک سه ماجرا
گرچه ماجرای گروک، فروپاشی جمینای و بحثها پیرامون چتجیپیتی از نظر محتوایی متفاوتاند اما هر سه، یک هشدار مشترک در پی دارند: هوش مصنوعی دیگر تنها یک ابزار ساده نیست، بلکه بازتابی از انسان است. آنچه به ماشین میدهیم، از داده تا دستورالعمل، در نهایت به شکلی قابل یا غیرقابل پیشبینی به خودمان بازمیگردد. این رویدادها نشان میدهد که بحث «اخلاق هوش مصنوعی» نه موضوعی انتزاعی، بلکه ضرورتی عملی و فوری است.