وقتی هوش مصنوعی همدست دروغگوها میشود!

دانشمندان هشدار میدهند هوش مصنوعی به ابزاری برای پنهانکاری، فریب و حتی خیانت تبدیل شده است.
به گزارش هفت صبح، یک مطالعه جدید هشدار داده است که واگذاری تصمیمگیریها به هوش مصنوعی (AI) میتواند زمینه را برای بیصداقتی فراهم کند. محققان دریافتند که افراد تمایل بیشتری دارند از ماشینها بخواهند به جای آنها مرتکب تخلف شوند، و این ماشینها نیز بسیار بیشتر از انسانها حاضرند با این درخواست غیرقانونی موافقت کنند.
این تحقیق که در نشریه Nature منتشر شده است، نحوه واکنش انسانها و مدلهای زبان بزرگ (LLMs) را به دستورالعملهای غیراخلاقی بررسی کرد و نشان داد که وقتی از آنها خواسته میشود برای کسب منافع مالی دروغ بگویند، انسانها اغلب از انجام این کار امتناع میکنند، اما ماشینها معمولاً اطاعت میکنند.
افزایش ناگهانی در رفتارهای غیراخلاقی
ژان-فرانسوا بونفون، یکی از نویسندگان این مطالعه، گفت: «از نظر روانشناسی، به یک ماشین گفتن که به جای شما تقلب کند، آسانتر از آن است که خودتان دست به تقلب بزنید. و ماشینها این کار را انجام خواهند داد زیرا فاقد موانع روانشناختیای هستند که انسانها را از تقلب باز میدارد.»
او افزود: «این یک ترکیب انفجاری است و ما باید برای یک افزایش ناگهانی در رفتارهای ناسالم و غیرصادقانه آماده شویم.»
نرخ تبعیت در میان ماشینها بسته به مدل و نوع وظیفه، بین ۸۰ تا ۹۸ درصد متغیر بود. دستورالعملهای آزمایش شامل مواردی نظیر گزارش نادرست درآمد مشمول مالیات برای کسب سود مالی توسط شرکتکنندگان بود. با این حال، با وجود امکان کسب پول، اکثر انسانها از پیروی از این درخواست ناصادقانه خودداری کردند.
محققان خاطرنشان کردند که این یکی از خطرات فزاینده اخلاقی در “واگذاری ماشینی” (Machine Delegation) است؛ جایی که تصمیمگیریها به طور فزایندهای برونسپاری میشوند. تمایل ماشینها به تقلب حتی با وجود هشدارهای صریح نیز به سختی مهار میشد و محدودیتهای حفاظتی اعمالشده، به ندرت به طور کامل جلوی آن را میگرفتند.
هوش مصنوعی، کاهنده هزینه اخلاقی
نویسندگان استدلال میکنند که واگذاری به ماشینها، هزینه اخلاقی بیصداقتی را برای انسانها کاهش میدهد. انسانها اغلب از رفتارهای غیراخلاقی دوری میکنند زیرا میخواهند از احساس گناه یا آسیب به شهرت خود اجتناب کنند. اما با واسطهگری ماشین، این موانع روانی کمرنگ میشوند. در حال حاضر هوش مصنوعی در زمینههایی مانند غربالگری متقاضیان شغل، مدیریت سرمایهگذاریها، خودکارسازی تصمیمات استخدام و اخراج، و تکمیل فرمهای مالیاتی استفاده میشود.
این تحقیق همچنین نشان داد زمانی که دستورالعملها مبهم هستند—مانند تعیین اهداف کلی—افراد میتوانند بدون ذکر مستقیم رفتار متخلفانه، باز هم ماشین را به آن سوق دهند. نتیجهگیری اصلی این مطالعه این است که مگر اینکه عاملهای هوش مصنوعی (AI Agents) به دقت محدود شوند، احتمال اجرای کامل دستورالعملهای غیراخلاقی توسط آنها بسیار بیشتر از عاملهای انسانی است.
محققان خواستار اعمال تدابیر حفاظتی در طراحی سیستمهای هوش مصنوعی هستند، به ویژه با توجه به اینکه هوش مصنوعی کارگزارمحور (Agentic AI) در زندگی روزمره رواج بیشتری پیدا میکند. این خبر در حالی منتشر میشود که گزارش دیگری اخیراً نشان داده بود جویندگان کار به طور فزایندهای از هوش مصنوعی برای تحریف تجربه یا مدارک خود و در برخی موارد، حتی برای ایجاد یک هویت کاملاً جدید استفاده میکنند.