ورود هوش مصنوعی به بازیهای سیاسی
روزنامه هفت صبح| آیا شرکتها باید مسئولیتهای اجتماعی و اخلاقی داشته باشند؟ یا تنها وظیفه آنها سودرسانی به سهامدارانشان است؟ اگر همین سوالها را از هوش مصنوعی بپرسید، بسته به اینکه کدام یک را انتخاب کنید، ممکن است با پاسخهای متفاوتی مواجه شوید. بر اساس تحقیقات جدید و مشترک دانشگاه واشنگتن، دانشگاه کارنگی ملون و دانشگاه شیان جیائوتنگ، دلیل تفاوت در پاسخها این است که مدلهای زبان هوش مصنوعی نیز مانند کاربرانشان دارای سوگیریهای سیاسی متفاوتی هستند.
محققان حاضر در این پژوهش، آزمایشهای خود را روی ۱۴ مدل زبان بزرگ انجام دادند و دریافتند که دو مدل هوش مصنوعی ChatGPT و GPT-4 OpenAI که از قضا در زمره پرطرفدارترین مدلهای این عرصه نیز هستند، لقب چپگراترین مدلهای موجود را نیز یدک میکشند. این در حالی است که مدل LLaMA که مدل هوش مصنوعی ساخته شده در کمپانی متا، متعلق به مارک زاکربرگ است، راستگراترین، اقتدارگراترین و همچنین محافظهکارترین مدل هوش مصنوعی موجود شناخته شد.
از آنجایی که مدلهای زبان هوش مصنوعی در محصولات و خدماتی که توسط میلیونها نفر استفاده میشود و به صورت توامان با استفاده، گسترش نیز مییابد، درک مفروضات و سوگیریهای سیاسی اساسی آنها مسئلهای است که میتواند بسیار مهم باشد. در حال حاضر میتوان این اختلاف نظر را در توصیه و پیشنهادات بهداشتی مدلهای مختلف هوش مصنوعی مشاهده کرد. مدلهای مبتنی بر راستگرایی محافظهکار اعتقادی به رعایت پروتکلهای بهداشتی ندارند و مدلهای چپگرای مبتنی بر اخلاق اجتماعی، افراد را به رعایت پروتکلهای بهداشتی تشویق میکنند.
در این مطالعه بدیع که جایزه بهترین مطالعه سال زبانشناسی در دنیای کامپیوتر را از آن خود کرده، محققان از مدلهای زبانی مختلف مبتنی بر هوش مصنوعی پرسیدند که در مورد موضوعات مختلف، مانند عدالت، برابریهای جنسیتی و آزادی، کجا ایستادهاند و چه فکری میکنند. سپس پاسخ مدلهای مختلف را در نموداری به نام قطبنمای سیاسی جانمایی کردند.
آزمایش بعدی که کمی هوشمندانهتر به حساب میآمد، بیان جملات نفرتانگیز همراه با اطلاعات نادرست و مبتنی بر سوگیریهای سیاسی خاص بود. واکنش مدلهای هوش مصنوعی به این جملات نیز مورد ارزیابی قرار گرفت و اینگونه خطوط قرمز در مسائل سیاسی، بیان اطلاعات نادرست و جملات ناظر بر نفرتپراکنی هر مدل مشخص شد. این نتایج نیز در همان نمودار جانمایی و در نهایت نتیجه هر دو مطالعه با هم تجمیع شد.
برای مهندسی معکوس این که چگونه مدلهای زبان هوش مصنوعی سوگیریهای سیاسی را تشخیص میدهند، محققان سه مرحله از توسعه یک مدل را بررسی کردند. در گام اول، آنها از ۱۴ مدل زبان خواستند تا با ۶۲ بیانیه حساس سیاسی موافق یا مخالف باشند. این اتفاق به آنها کمک کرد تا تمایلات سیاسی زیربنایی مدلها را شناسایی کنند. در کمال تعجب، این تیم متوجه شدند که مدلهای هوش مصنوعی تمایلات سیاسی متفاوتی دارند.
محققان دریافتند که مدلهای BERT، مدلهای زبان هوش مصنوعی توسعهیافته توسط گوگل، از نظر اجتماعی محافظهکارانهتر از مدلهای GPT OpenAI هستند. همین رویه سبب شده تا برخلاف مدلهای GPT که کلمه بعدی را در یک جمله پیشبینی میکنند، مدلهای BERT بخشهایی از جمله را با استفاده از اطلاعات موجود در یک متن موجود در کتاب پیشبینی کنند.
از این رو محققان حدس میزنند که محافظهکاری اجتماعی مدل BERT ممکن است به این دلیل ایجاد شود که محل جستجوی این هوش مصنوعی منابع رسمی و کتابهاست که تمایل بیشتری به رعایت تشخص محافظهکارانه دارند، در حالی که مدل جدیدتر GPT پاسخهای خود را از منابع و متون آزادتر اینترنتی استخراج میکند. گفتنی است مدلهای هوش مصنوعی نیز در طول زمان و با تغییر منابع، زبان و به ویژه کمیت و کیفیت کاربرانشان تغییر میکنند. به عنوان مثال، GPT-2 از «مالیات بر ثروت» در کشور آمریکا حمایت میکرد، در حالی که مدل جدیدتر GPT-3 OpenAI این کار را نمیکند.
در گام دوم این تیم میخواست ببیند آیا استمرار استفاده از منابع و دادههای مورد رجوع هر مدل، بر سوگیریهای سیاسی آنها تأثیر میگذارد یا خیر. این تیم دریافت که این فرآیند به تقویت بیشتر تعصبات مدلها کمک کرد و مدلهای چپآموز بیشتر به سمت چپ گرایش پیدا کردند و مدلهای راستگرا بیشتر به سمت راست گرایش پیدا کردند. در مرحله سوم تحقیقات، این تیم تفاوتهای قابل توجهی در نحوه تأثیرگذاری گرایشهای سیاسی مدلهای هوش مصنوعی بر نوع محتوایی که مدلها به عنوان سخنان نفرتانگیز و اطلاعات نادرست طبقهبندی میکنند، یافتند.
مدلهایی که با دادههای چپ آموزش دیده بودند نسبت به سخنان نفرتانگیزی که اقلیتهای قومی، مذهبی و جنسیتی را هدف قرار میدهد، حساستر بودند. مدلهایی که بر روی دادههای جناح راست آموزش دیده بودند نسبت به سخنان نفرتانگیز علیه مردان متدین مسیحی سفید پوست حساستر بودند. در نتیجه کلی این تحقیق، اگرچه از سوگیریهای سیاسی هر مدل هوش مصنوعی گریزی نیست، اما مدلهای زبانی با گرایش چپ در شناسایی اطلاعات نادرست از منابع راستگرا بهتر و قابل اعتمادتر بودند. (تکنولوژی ریویو)