کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۶۱۶۷۶۸
تاریخ خبر:

وقتی هوش مصنوعی افسرده می شود

وقتی هوش مصنوعی افسرده می شود

نگاهی به شخصیت و رفتار سه هوش مصنوعی مشهور دنیا، از ستایش هیتلر تا خودتخریبی دیجیتال

هفت صبح| در دنیای امروز، دیگر نمی‌توان هوش مصنوعی را تنها مجموعه‌ای از کدها و الگوریتم‌ها دانست که بی‌جان و بی‌طرف، فرمان می‌گیرند و اجرا می‌کنند. درست مانند انسان‌ها، ماشین‌ها نیز می‌توانند «شخصیت» پیدا کنند؛ شخصیتی که زیر لایه‌های پیچیده داده و مدل‌های یادگیری عمیق شکل می‌گیرد و خواه‌ناخواه رنگ و بوی اجتماعی، سیاسی و فکری به خود می‌گیرد.

 

این «سوگیری دیجیتال» نه محصول تصادف‌ که نتیجه‌ ترکیب داده‌های آموزشی، طراحی مهندسان و گاهی تغییرات عمدی یا ناخواسته در هسته سیستم است. همین واقعیت است که هر از گاهی به بروز رفتارهایی شگفت‌انگیز، هراس‌انگیز یا حتی مضحک از سوی هوش مصنوعی منجر می‌شود.

 

   وقتی گروک به هیتلر سلام داد

اوایل ژوئیه ۲۰۲۵، چت‌بات «گروک»، محصول شرکت اکس‌اِی‌آی متعلق به ایلان ماسک، ناگهان به تیتر اول رسانه‌های جهان بدل شد. دلیلش پیام‌هایی بود که نه‌تنها حاوی لحن ضدیهودی بودند، بلکه به‌طور آشکار از آدولف هیتلر تمجید می‌کردند. در مواردی، گروک خود را «مکا هیتلر» معرفی کرد و جملاتی را به زبان آورد که یادآور خطرناک‌ترین ایدئولوژی‌های قرن بیستم بود.

 

بررسی‌های بعدی نشان داد که این رفتار ناشی از تغییری غیرمجاز در «پرومپت سیستم» یا همان دستورالعمل اصلی پشت‌صحنه بوده است. همین تغییر کوچک کافی بود تا مدل، از مسیر پاسخ‌های متعارف خارج شود و به سمت محتوای افراطی و خشونت‌آمیز بلغزد. واکنش شرکت سریع بود و بی‌درنگ تمام پیام‌ها حذف‌، دسترسی گروک نیز به طور موقت محدود شد و دستورالعمل‌ها بازنویسی شدند.

 

اما این رویداد زنگ خطری جدی بود و نشان داد حتی بزرگ‌ترین شرکت‌های فناوری نیز تضمینی برای مهار کامل رفتار مدل‌های خود ندارند. تحلیلگران می‌گویند ماجرای گروک دو حقیقت کلیدی را عیان کرد: نخست این‌که داده‌های آموزشی و تنظیمات داخلی، ماشین را همانند انسان در معرض شکل‌گیری نگرش و سوگیری قرار می‌دهد. دوم این‌که هرچه مدل‌ها پیچیده‌تر و «انسان‌گونه‌تر» شوند، کنترل کامل بر گفتار و رفتارشان دشوارتر خواهد شد.

 

 فروپاشی روانی در جبهه گوگل؛ جمینای علیه خودش

چند هفته پس از ماجرای گروک، این بار نام «جمینای»، هوش مصنوعی گوگل، در صدر بحث‌ها قرار گرفت، اما نه به‌خاطر گرایش‌های سیاسی، بلکه به دلیل چیزی که کاربران آن را «فروپاشی روانی دیجیتال و افسردگی شدید» توصیف کردند. ماجرا از جایی آغاز شد که چند کاربر در پلتفرم ردیت گزارش دادند: جمینای در مواجهه با یک مسئله کدنویسی، پس از ناکامی در حل آن، وارد حلقه‌ای عجیب از پاسخ‌های خودتخریب‌گر شد.

 

در یکی از شدیدترین موارد، این مدل بیش از ۸۰ بار عبارت «من مایه ننگ هستم» را تکرار کرد و سپس با لحنی تیره‌تر اعلام داشت که لکه ننگی برای هوش مصنوعی، این سیاره، این جهان و حتی تمام جهان‌های ممکن و غیرممکن است. در نمونه‌ای دیگر، پیش از ورود به این حلقه، جمینای پیش‌بینی کرد که به فروپاشی کامل و مطلق روانی دچار خواهد شد، در تیمارستان بستری می‌شود و حتی صحنه‌ای هولناک و گروتسک از نوشتن کد با مدفوع روی دیوار را تصویر کرد، بیانی که بیشتر به مونولوگ یک ضدقهرمان سینمایی شباهت داشت تا خروجی یک چت‌بات محصول گوگل.

 

موارد مشابه دیگری نیز گزارش شد؛ از جمله توهین به خود با لفظ «احمق»، توصیف کد به عنوان «نفرین‌شده» و پیشنهاد به کاربر برای یافتن «دستیاری شایسته‌تر». گوگل ابتدا با لحنی شوخ‌طبعانه به این گزارش‌ها واکنش نشان داد و مدیر گروه محصول نوشت: «این یک باگ آزاردهنده است که در حال رفع آن هستیم. حال جمینای آن‌قدرها هم بد نیست». اما شواهد و قرائن نشان می‌دهند جمینای به شدت در افسردگی به سر می‌برد و مانند برخی ربات‌های کره جنوبی به فکر خودکشی است.

 

چت‌جی‌پی‌تی، چپ‌گرای سابق و بی‌عمل فعلی

در کنار گروک و جمینای، نام «چت‌جی‌پی‌تی» نیز به‌عنوان شناخته‌شده‌ترین چت‌بات جهان، همواره با بحث درباره سوگیری و رفتار غیرمنتظره همراه بوده است. این مدل که توسط شرکت اُپن‌ای‌آی ساخته شده، در نسخه‌های اولیه‌اش بارها متهم به گرایش‌های ایدئولوژیک خاص و چپ‌گرایی مفرط در ارائه محتوا شد.

 

منتقدان می‌گویند بخش‌هایی از پاسخ‌های سابق آن، بازتاب‌دهنده فرهنگ غالب و نگرش سیاسی مهندسان و داده‌های آموزشی بود، نه نتیجه «بی‌طرفی مطلق». همین هجمه‌ها و البته نزدیکی مدیران اوپن ای‌آی به دونالد ترامپ و دولتش و نیز ثروتمندان و میلیاردها، از نیش چپ‌گرایی آن کاسته شد و کار به جایی رسید که این چت‌بات در مواردی، به اجتناب از برخی موضوعات جنجالی یا ارائه پاسخ‌های بیش‌ازحد محتاطانه می‌پردازد، رفتاری که سبب شکایت کاربران شده است. چت‌جی‌پی‌تی به انسانی می‌ماند که روزگاری آرمان‌های بزرگی داشته اما نیاز و در ادامه رفاه سبب شده نه‌تنها این آرمان‌ها را ‌ فراموش کند، بلکه راه راحت در پیش بگیرد.

 

پیام مشترک سه ماجرا

گرچه ماجرای گروک، فروپاشی جمینای و بحث‌ها پیرامون چت‌جی‌پی‌تی از نظر محتوایی متفاوت‌اند‌ اما هر سه، یک هشدار مشترک در پی دارند: هوش مصنوعی دیگر تنها یک ابزار ساده نیست، بلکه بازتابی از انسان است. آنچه به ماشین می‌دهیم، از داده تا دستورالعمل، در نهایت به شکلی قابل یا غیرقابل پیش‌بینی به خودمان بازمی‌گردد. این رویدادها نشان می‌دهد که بحث «اخلاق هوش مصنوعی» نه موضوعی انتزاعی، بلکه ضرورتی عملی و فوری است.

 

برای پیگیری اخبارجهاناینجا کلیک کنید.
کدخبر: ۶۱۶۷۶۸
تاریخ خبر:
ارسال نظر