کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۶۳۴۳۶۱
تاریخ خبر:

وقتی هوش مصنوعی همدست دروغگوها می‌شود!

وقتی هوش مصنوعی همدست دروغگوها می‌شود!

دانشمندان هشدار می‌دهند هوش مصنوعی به ابزاری برای پنهان‌کاری، فریب و حتی خیانت تبدیل شده است.

به گزارش هفت صبح، یک مطالعه جدید هشدار داده است که واگذاری تصمیم‌گیری‌ها به هوش مصنوعی (AI) می‌تواند زمینه را برای بی‌صداقتی فراهم کند. محققان دریافتند که افراد تمایل بیشتری دارند از ماشین‌ها بخواهند به جای آن‌ها مرتکب تخلف شوند، و این ماشین‌ها نیز بسیار بیشتر از انسان‌ها حاضرند با این درخواست غیرقانونی موافقت کنند.

این تحقیق که در نشریه Nature منتشر شده است، نحوه واکنش انسان‌ها و مدل‌های زبان بزرگ (LLMs) را به دستورالعمل‌های غیراخلاقی بررسی کرد و نشان داد که وقتی از آن‌ها خواسته می‌شود برای کسب منافع مالی دروغ بگویند، انسان‌ها اغلب از انجام این کار امتناع می‌کنند، اما ماشین‌ها معمولاً اطاعت می‌کنند.

افزایش ناگهانی در رفتارهای غیراخلاقی

ژان-فرانسوا بونفون، یکی از نویسندگان این مطالعه، گفت: «از نظر روان‌شناسی، به یک ماشین گفتن که به جای شما تقلب کند، آسان‌تر از آن است که خودتان دست به تقلب بزنید. و ماشین‌ها این کار را انجام خواهند داد زیرا فاقد موانع روان‌شناختی‌ای هستند که انسان‌ها را از تقلب باز می‌دارد.»

او افزود: «این یک ترکیب انفجاری است و ما باید برای یک افزایش ناگهانی در رفتارهای ناسالم و غیرصادقانه آماده شویم.»

نرخ تبعیت در میان ماشین‌ها بسته به مدل و نوع وظیفه، بین ۸۰ تا ۹۸ درصد متغیر بود. دستورالعمل‌های آزمایش شامل مواردی نظیر گزارش نادرست درآمد مشمول مالیات برای کسب سود مالی توسط شرکت‌کنندگان بود. با این حال، با وجود امکان کسب پول، اکثر انسان‌ها از پیروی از این درخواست ناصادقانه خودداری کردند.

محققان خاطرنشان کردند که این یکی از خطرات فزاینده اخلاقی در “واگذاری ماشینی” (Machine Delegation) است؛ جایی که تصمیم‌گیری‌ها به طور فزاینده‌ای برون‌سپاری می‌شوند. تمایل ماشین‌ها به تقلب حتی با وجود هشدارهای صریح نیز به سختی مهار می‌شد و محدودیت‌های حفاظتی اعمال‌شده، به ندرت به طور کامل جلوی آن را می‌گرفتند.

هوش مصنوعی، کاهنده هزینه اخلاقی

نویسندگان استدلال می‌کنند که واگذاری به ماشین‌ها، هزینه اخلاقی بی‌صداقتی را برای انسان‌ها کاهش می‌دهد. انسان‌ها اغلب از رفتارهای غیراخلاقی دوری می‌کنند زیرا می‌خواهند از احساس گناه یا آسیب به شهرت خود اجتناب کنند. اما با واسطه‌گری ماشین، این موانع روانی کمرنگ می‌شوند. در حال حاضر هوش مصنوعی در زمینه‌هایی مانند غربالگری متقاضیان شغل، مدیریت سرمایه‌گذاری‌ها، خودکارسازی تصمیمات استخدام و اخراج، و تکمیل فرم‌های مالیاتی استفاده می‌شود.

این تحقیق همچنین نشان داد زمانی که دستورالعمل‌ها مبهم هستند—مانند تعیین اهداف کلی—افراد می‌توانند بدون ذکر مستقیم رفتار متخلفانه، باز هم ماشین را به آن سوق دهند. نتیجه‌گیری اصلی این مطالعه این است که مگر اینکه عامل‌های هوش مصنوعی (AI Agents) به دقت محدود شوند، احتمال اجرای کامل دستورالعمل‌های غیراخلاقی توسط آن‌ها بسیار بیشتر از عامل‌های انسانی است.

محققان خواستار اعمال تدابیر حفاظتی در طراحی سیستم‌های هوش مصنوعی هستند، به ویژه با توجه به اینکه هوش مصنوعی کارگزارمحور (Agentic AI) در زندگی روزمره رواج بیشتری پیدا می‌کند. این خبر در حالی منتشر می‌شود که گزارش دیگری اخیراً نشان داده بود جویندگان کار به طور فزاینده‌ای از هوش مصنوعی برای تحریف تجربه یا مدارک خود و در برخی موارد، حتی برای ایجاد یک هویت کاملاً جدید استفاده می‌کنند.

 

برای پیگیری اخباردانش و فناوریاینجا کلیک کنید.
کدخبر: ۶۳۴۳۶۱
تاریخ خبر:
ارسال نظر