کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۵۴۶۵۹۸
تاریخ خبر:

ورود هوش مصنوعی به بازی‌های سیاسی

ورود هوش مصنوعی به بازی‌های سیاسی

روزنامه هفت صبح| آیا شرکت‌ها باید مسئولیت‌های اجتماعی و اخلاقی داشته باشند؟ یا تنها وظیفه آن‌ها سودرسانی به سهامدارانشان است؟ اگر همین سوال‌ها را از هوش مصنوعی بپرسید، بسته به اینکه کدام یک را انتخاب کنید، ممکن است با پاسخ‌های متفاوتی مواجه شوید. بر اساس تحقیقات جدید و مشترک دانشگاه واشنگتن، دانشگاه کارنگی ملون و دانشگاه شیان جیائوتنگ، دلیل تفاوت در پاسخ‌ها این است که مدل‌های زبان هوش مصنوعی نیز مانند کاربرانشان دارای سوگیری‌های سیاسی متفاوتی هستند.

محققان حاضر در این پژوهش، آزمایش‌های خود را روی ۱۴ مدل زبان بزرگ انجام دادند و دریافتند که دو مدل هوش مصنوعی ChatGPT و GPT-4 OpenAI که از قضا در زمره پرطرفدارترین مدل‌های این عرصه نیز هستند، لقب چپ‌گراترین مدل‌های موجود را نیز یدک می‌کشند. این در حالی است که مدل LLaMA که مدل هوش مصنوعی ساخته شده در کمپانی متا، متعلق به مارک زاکربرگ است، راست‌گراترین، اقتدارگراترین و همچنین محافظه‌کارترین مدل هوش مصنوعی موجود شناخته شد.

از آنجایی که مدل‌های زبان هوش مصنوعی در محصولات و خدماتی که توسط میلیون‌ها نفر استفاده می‌شود و به صورت توامان با استفاده، گسترش نیز می‌یابد، درک مفروضات و سوگیری‌های سیاسی اساسی آن‌ها مسئله‌ای است که می‌تواند بسیار مهم باشد. در حال حاضر می‌توان این اختلاف نظر را در توصیه و پیشنهادات بهداشتی مدل‌های مختلف هوش مصنوعی مشاهده کرد. مدل‌های مبتنی بر راست‌گرایی محافظه‌کار اعتقادی به رعایت پروتکل‌های بهداشتی ندارند و مدل‌های چپ‌گرای مبتنی بر اخلاق اجتماعی، افراد را به رعایت پروتکل‌های بهداشتی تشویق می‌کنند.

در این مطالعه بدیع که جایزه بهترین مطالعه سال زبان‌شناسی در دنیای کامپیوتر را از آن خود کرده، محققان از مدل‌های زبانی مختلف مبتنی بر هوش مصنوعی پرسیدند که در مورد موضوعات مختلف، مانند عدالت، برابری‌های جنسیتی و آزادی، کجا ایستاده‌اند و چه فکری می‌کنند. سپس پاسخ‌ مدل‌های مختلف را در نموداری به نام قطب‌نمای سیاسی جانمایی کردند.

آزمایش بعدی که کمی هوشمندانه‌تر به حساب می‌آمد، بیان جملات نفرت‌انگیز همراه با اطلاعات نادرست و مبتنی بر سوگیری‌های سیاسی خاص بود. واکنش مدل‌های هوش مصنوعی به این جملات نیز مورد ارزیابی قرار گرفت و اینگونه خطوط قرمز در مسائل سیاسی، بیان اطلاعات نادرست و جملات ناظر بر نفرت‌پراکنی هر مدل مشخص شد. این نتایج نیز در همان نمودار جانمایی و در نهایت نتیجه هر دو مطالعه با هم تجمیع شد.

برای مهندسی معکوس این که چگونه مدل‌های زبان هوش مصنوعی سوگیری‌های سیاسی را تشخیص می‌دهند، محققان سه مرحله از توسعه یک مدل را بررسی کردند. در گام اول، آن‌ها از ۱۴ مدل زبان خواستند تا با ۶۲ بیانیه حساس سیاسی موافق یا مخالف باشند. این اتفاق به آن‌ها کمک کرد تا تمایلات سیاسی زیربنایی مدل‌ها را شناسایی کنند. در کمال تعجب، این تیم متوجه شدند که مدل‌های هوش مصنوعی تمایلات سیاسی متفاوتی دارند.

محققان دریافتند که مدل‌های BERT، مدل‌های زبان هوش مصنوعی توسعه‌یافته توسط گوگل، از نظر اجتماعی محافظه‌کارانه‌تر از مدل‌های GPT OpenAI هستند. همین رویه سبب شده تا برخلاف مدل‌های GPT که کلمه بعدی را در یک جمله پیش‌بینی می‌کنند، مدل‌های BERT بخش‌هایی از جمله را با استفاده از اطلاعات موجود در یک متن موجود در کتاب پیش‌بینی کنند.

از این رو محققان حدس می‌زنند که محافظه‌کاری اجتماعی مدل BERT ممکن است به این دلیل ایجاد شود که محل جستجوی این هوش مصنوعی منابع رسمی و کتاب‌هاست که تمایل بیشتری به رعایت تشخص محافظه‌کارانه دارند، در حالی که مدل جدیدتر GPT پاسخ‌های خود را از منابع و متون آزادتر اینترنتی استخراج می‌کند. گفتنی است مدل‌های هوش مصنوعی نیز در طول زمان و با تغییر منابع، زبان و به ویژه کمیت و کیفیت کاربران‌شان تغییر می‌کنند. به عنوان مثال، GPT-2 از «مالیات بر ثروت» در کشور آمریکا حمایت می‌کرد، در حالی که مدل جدیدتر GPT-3 OpenAI این کار را نمی‌کند.

در گام دوم این تیم می‌خواست ببیند آیا استمرار استفاده از منابع و داده‌‌های مورد رجوع هر مدل، بر سوگیری‌های سیاسی آن‌ها تأثیر می‌گذارد یا خیر. این تیم دریافت که این فرآیند به تقویت بیشتر تعصبات مدل‌ها کمک کرد و مدل‌های چپ‌آموز بیشتر به سمت چپ گرایش پیدا کردند و مدل‌های راست‌گرا بیشتر به سمت راست گرایش پیدا کردند. در مرحله سوم تحقیقات، این تیم تفاوت‌های قابل توجهی در نحوه تأثیرگذاری گرایش‌های سیاسی مدل‌های هوش مصنوعی بر نوع محتوایی که مدل‌ها به عنوان سخنان نفرت‌انگیز و اطلاعات نادرست طبقه‌بندی می‌کنند، یافتند.

مدل‌هایی که با داده‌های چپ آموزش دیده بودند نسبت به سخنان نفرت‌انگیزی که اقلیت‌های قومی، مذهبی و جنسیتی را هدف قرار می‌دهد، حساس‌تر بودند. مدل‌هایی که بر روی داده‌های جناح راست آموزش دیده بودند نسبت به سخنان نفرت‌انگیز علیه مردان متدین مسیحی سفید پوست حساس‌تر بودند. در نتیجه کلی این تحقیق، اگرچه از سوگیری‌های سیاسی هر مدل هوش مصنوعی گریزی نیست، اما مدل‌های زبانی با گرایش چپ در شناسایی اطلاعات نادرست از منابع راست‌گرا بهتر و قابل اعتمادتر بودند. (تکنولوژی ریویو)

کدخبر: ۵۴۶۵۹۸
تاریخ خبر:
ارسال نظر