وقتی هوش مصنوعی علیه انسان اعلام جنگ میکند!

بسیاری از کارشناسانی که در حوزه ایمنی هوش مصنوعی فعالیت میکنند، گفتهاند که امکان دارد، در آینده سیستمهای هوش مصنوعی وارد یک جنگ استراتژیک با نوع بشر شوند که این موضوع، نگرانکننده است
بسیاری از کارشناسانی که در حوزه ایمنی هوش مصنوعی فعالیت میکنند، گفتهاند که امکان دارد، در آینده سیستمهای هوش مصنوعی وارد یک جنگ استراتژیک با نوع بشر شوند که این موضوع، نگرانکننده است و باید فکری بهحالش بشود.
تا همین چند سال پیش اتفاقی که امروز توسط هوش مصنوعی رقم میخورد، تنها در فیلمهای علمی-تخلیلی دیده میشود. بنابراین ظهورِ «سیاستگذارینشده» یک جنگ خودمختار تمامعیار توسط هوشِ فوقالعادهای که بهطور مستقل تصمیمگیریِ استراتژیک میکند، اگرچه هنوز یک فرضیه محسوب میشود، اما میتواند خیلی زود به واقعیت تبدیل شود.
انواع اعلان جنگ هوش مصنوعی به انسان
وقتی میگوییم «جنگِ هوش مصنوعی علیه انسان»، معمولا منظور یک یا ترکیبی از این موارد است:
- استفاده از سامانههای خودمختار کشنده در میدان نبرد مانند روباتها، پهپادها و مینهای هوشمند.
- حملات سایبریِ پیشرفته که با هوش مصنوعی هدایت میشوند مانند خرابکاری زیرساخت، دستکاری شبکههای انرژی و حمله به زنجیره تأمین.
- جنگ اطلاعاتی/روانی که با تولید و پخشِ خودکار اطلاعاتِ گمراهکننده، دستکاری افکار عمومی و تضعیف نهادها انجام میشود.
- بحرانهای اقتصادی/اجتماعی از قبیل بیثباتی در بازارها و ادارات که میتواند منجر به درگیریهای سیاسی یا خشونتهای خیابانی شود.
سناریوهای محتمل
الگوریتمها بدون نظارت انسانی اقدام به هدفگیری یا واکنش میکنند و خطای شناسایی یا زنجیره اشتباهات منجر به تلفات غیرنظامی و تشدید درگیری میشود.
هوش مصنوعیِ حملهگر، بهصورت خودآموز ضعفهای مراکز حیاتی را پیدا و بهرهبرداری میکند و بدین ترتیب برق، آب، دارو، حملونقل و ... مختل میشود.
تولید انبوه محتوای گمراهکننده و دیپفیک که اعتماد عمومی و توان پاسخ دولتها را تضعیف میکند؛ در نتیجه آشوب مدنی و نزاعهای داخلی بهوجود میآید.
بازیگران دولتی یا غیردولتی از ترکیبی از موارد بالا استفاده میکنند تا اهداف سیاسی یا نظامی را دنبال کنند.
آیا واقعی است؟
این موضوع از نظر فنی فعلا از دید فنی قابل تحقق نیست. امروز AI در تحلیل داده، تشخیص الگو و تولید محتوا قوی است؛ اما «هوش جامع مصنوعی» یا همان Artificial general intelligence که خودبهخود اهداف استراتژیک انسانی را با دقت اجرا کند هنوز در عمل وجود ندارد. اما این مدل نیز بهزودی از راه خواهد رسید.
چگونه میتوان ریسک را کاهش داد؟
قواعد بینالمللی و پیمانها: ممنوعیت یا محدودیتِ سلاحهای کاملاً خودمختار، شفافیت در توسعه و صادرات سامانههای نظامی مبتنی بر AI.
انسان در حلقه: الزام به تصمیمگیری انسانی برای استفاده از ابزارهای خودکار مرگبار.
تحقیق ایمنِ AI: سرمایهگذاری در تحقیقاتی که قابلیت فهمپذیری، تائیدپذیری و کنترلپذیری مدلها را افزایش میدهند.
افزایش تابآوری زیرساختها: افزونگی، ایزولهسازی حیاتی و تست مکرر تابآوری در برابر حملات هوشمند.
قابلیت پاسخ اطلاعاتی: آموزش عمومی برای تشخیص دیپفیک و رسانههای گمراهکننده و توسعه سامانههای تأیید منبع.
حکمرانی شرکتی و استانداردهای اخلاقی: شرکتها و دانشگاهها مسئولیتپذیری بیشتری در انتشار و محدودسازی مدلها داشته باشند.
همکاری بینالمللی: دیپلماسی فنی، اشتراکگذاری اطلاعات تهدید و مکانیسمهای بازدارندگی.
نقش فردی و اجتماعی ما
- آگاه شدن و حمایت از سیاستها و سازمانهایی که برای ایمنی AI کار میکنند
- تقویت سواد رسانهای و توانایی تشخیص اطلاعات جعلی
- فشار برای شفافیتِ شرکتها و قانونگذاری معقول در حوزه صادرات و کاربردهای نظامی.