واقعیت جعلی| تشدید هشدار دهنده حملات دیپفیک

زیان مالی ناشی از کلاهبرداری دیپفیک در سه ماهه اول سال ۲۰۲۵ از ۲۰۰ میلیارد دلار گذشت
هفت صبح| یکی از پیامدهای منفی گسترش هوش مصنوعی گسترش دیپفیک یا جعل عمیق است که این ماجرا خیلیها را ترسانده است چون مرزی میان دروغ و حقیقت نمیماند. یکی از هنرمندانی که در اعتراض به دیپفیک پیشگام بود اسکارلت جوهانسون بود. سال گذشته بعد از اینکه تصویری از او توسط هوش مصنوعی در ظاهری نامناسب ساخته و پخش شد صدای این بازیگر هالیوود را در آورد و خواستار اقدامی فوری برای مقابله با خطرات هوش مصنوعی شد و از دولت آمریکا خواست که قانونی برای محدود کردن استفاده از هوش مصنوعی تصویب کند. او در همان زمان در مصاحبهای گفته بود که وحشتناک است که دولت آمریکا در برابر تصویب قوانینی که شهروندانش را از خطرات قریبالوقوع هوش مصنوعی محافظت میکند، فلج شده است.
تشدید هشدار دهنده حملات دیپفیک
ماجرای اعتراضات هالیوود هم غیر از اعتراض به دستمزدها، یک سرش به نگرانیها درباره هوش مصنوعی و اتفاقی که میتواند از این مسیر متوجه بازیگران سینما شود، باز میگشت و اعتصابکنندگان خواستار رفع این نگرانیها شده بودند. نگرانیها، اعتراضات و هشدارها درباره هوش مصنوعی بیراه نبوده است چون بر اساس گزارشها در سه ماهه اول سال 2025 زیان مالی ناشی از کلاهبرداری با قابلیت دیپفیک از دویست میلیون دلار فراتر رفته است.
این گزارش حاکی از تشدید «هشداردهنده» و پیچیدگی روزافزون حملات با قابلیت دیپفیک در سراسر جهان است. این یافتهها نشان میدهد در حالی که 41 درصد از اهداف جعل هویت، شخصیتهای عمومی - عمدتا سیاستمداران و پس از آن افراد مشهور هستند - این تهدید به این گروهها محدود نمیشود و 34درصد دیگر از اهداف، شهروندان معمولی هستند و سایر قربانیان شامل سازمانهای خاصاند.
ساخت دیپفیک در مورد سلبریتیها، مقامات سیاسی و عادی بسیار گسترش یافته، زیرا میتواند مخاطبان را قانع کند که این کلیپهای صوتی و تصویری واقعی هستند. دیپفیکها، مرز واقعیت با دروغ و خلاف واقع را از بین میبرد، زیرا باورپذیری بالایی در مخاطبان ایجاد میکند. براساس گزارش رزمبل ایآی (Resemble AI)، چهار مورد استفاده اصلی، محتوای صریح غیرتوافقی، کلاهبرداری و شیادی، دستکاری سیاسی و اطلاعات نادرست بود.
در مورد فعالیت بر اساس مناطق جغرافیایی، این گزارش نشان داد که بیشترین تعداد حوادث در طول سه ماهه اول در آمریکای شمالی (38درصد) به ویژه برای شخصیتهای سیاسی و افراد مشهور رخ داده است. پس از آن آسیا (27 درصد) و اروپا (21 درصد) قرار دارند. با این حال، دادهها همچنین نشان داد که 63 درصد از موارد مربوط به «عوامل مهم بینالمللی» بوده است.
دور زدن امنیت و تکنیکهای فرار
بر اساس این گزارش، استفاده از دیپفیک در حال حاضر با ویدئو (46 درصد) پیشتاز است و پس از آن تصاویر (32درصد) و صدا (22 درصد) قرار گرفته است. این گزارش نشان میدهد که شبیهسازی صدا در حال حاضر تنها به سه تا پنج ثانیه نمونه صوتی نیاز دارد تا صدایی قانع کننده ایجاد شود. در دستکاری صورت، 68درصد از دیپفیکها در حال حاضر «تقریبا» از رسانههای واقعی قابل تشخیص نیستند. براساس این گزارش، ترکیبی از این موارد برای ایجاد جعل هویت همزمان به 33درصد موارد رسیده است که همچنین نشان داده است تکنیکهای فرار ممکن است امکان دور زدن امنیت را فراهم کنند.
رزمبل ایآی در این گزارش گفته است: «این گزارش بر نیاز فوری به یک پاسخ چند وجهی به تهدید دیپ فیک تاکید دارد. این شامل راهحلهای فنی مانند افزایش سرمایهگذاری در فنآوریهای تشخیص دیپفیک، پروتکلهای واترمارکینگ استاندارد و مکانیسمهای احراز هویت محتوا میشود. قوانین هماهنگ در سراسر حوزههای قضایی برای تعریف دیپفیکهای مضر، ایجاد مسئولیت برای پلتفرمها و ایجاد مکانیسمهای اجرایی موثر ضروری است. در نهایت انعطافپذیری عمومی باید از طریق سیستمهای پشتیبانی جامع بینالمللی برای گزارشهای سواد رسانهای و دسترسی گسترده به برنامههای گزارش سواد رسانهای جامع افزایش یابد و به ماهیت فراملی حوادث دیپفیک از طریق همکاری فرامرزی رسیدگی کند.»
قانونی که افسار هوش مصنوعی را میکشد
در انگلستان تولیدکنندگان محتوای جعل عمیق ممکن است برای آزار و شکنجه تحت پیگرد قانونی قرار گیرند اما درخواستهایی برای تبدیل جعل عمیق به یک جرم ویژه وجود دارد؛ در ایالات متحده، تا امروز اعتراضات گستردهای درباره دیپفیک و هوش مصنوعی شده و لایحهای به سنا ارائه شده است:
«قانون حفاظت از محتوای اصلی تولید شده و حفظ یکپارچگی در مقابل محتوای اصلاح شده و دیپ فیک» لایحه ارائه شده است که استانداردهای شفافی را در مورد هوش مصنوعی فراهم میکند. لایحه مذکور همچنین استفاده غیرمجاز از محتوای خلاقانه یا خبرنگاری برای آموزش مدلهای هوش مصنوعی یا غیره را منع میکند.تعیین مرزهای اخلاقی برای هوش مصنوعی یکی از موضوعاتی است که دانشمندان هوش مصنوعی را دچار چالش کرده است و نگرانی بسیار بر این است که هوش مصنوعی بد بر هوش مصنوعی خوب پیروز شود.