کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۵۸۷۸۷۲
تاریخ خبر:

واقعیت جعلی| تشدید هشدار دهنده حملات دیپ‌فیک

واقعیت جعلی| تشدید هشدار دهنده حملات دیپ‌فیک

زیان مالی ناشی از کلاهبرداری دیپ‌فیک در سه ماهه اول سال ۲۰۲۵ از ۲۰۰ میلیارد دلار گذشت

زینب کاظم‌خواه دبیر صفحه آخر

هفت صبح| یکی از پیامدهای منفی گسترش هوش مصنوعی گسترش دیپ‌فیک یا جعل عمیق است که این ماجرا خیلی‌ها را ترسانده است چون مرزی میان دروغ و حقیقت نمی‌ماند. یکی از هنرمندانی که در اعتراض به دیپ‌فیک پیشگام بود اسکارلت جوهانسون بود. سال گذشته بعد از این‌که تصویری از او توسط هوش مصنوعی در ظاهری نامناسب ساخته و پخش شد صدای این بازیگر هالیوود را در آورد و خواستار اقدامی فوری برای مقابله با خطرات هوش مصنوعی شد و از دولت آمریکا خواست که قانونی برای محدود کردن استفاده از هوش مصنوعی تصویب کند. او در همان زمان در مصاحبه‌ای گفته بود که وحشتناک است که دولت آمریکا در برابر تصویب قوانینی که شهروندانش را از خطرات قریب‌الوقوع هوش مصنوعی محافظت می‌کند، فلج شده است. 

 

تشدید هشدار دهنده حملات دیپ‌فیک

ماجرای اعتراضات هالیوود هم غیر از اعتراض به دستمزدها، یک سرش به نگرانی‌ها درباره هوش مصنوعی و اتفاقی که می‌تواند از این مسیر متوجه بازیگران سینما شود، باز می‌گشت و  اعتصاب‌کنندگان خواستار رفع این نگرانی‌ها شده بودند. نگرانی‌ها، اعتراضات و هشدارها درباره هوش مصنوعی بیراه نبوده است چون بر اساس گزارش‌ها در سه ماهه اول سال 2025 زیان مالی ناشی از کلاهبرداری با قابلیت دیپ‌فیک از دویست میلیون دلار فراتر رفته است.

 

این گزارش حاکی از تشدید «هشداردهنده» و پیچیدگی روزافزون حملات با قابلیت دیپ‌فیک در سراسر جهان است. این یافته‌ها نشان می‌دهد در حالی که 41 درصد از اهداف جعل هویت، شخصیت‌های عمومی - عمدتا سیاستمداران و پس از آن افراد مشهور هستند - این تهدید به این گروه‌ها محدود نمی‌شود و 34درصد دیگر از اهداف، شهروندان معمولی هستند و سایر قربانیان شامل سازمان‌های خاص‌اند. 

 

ساخت دیپ‌فیک در مورد سلبریتی‌ها، مقامات سیاسی و عادی بسیار گسترش یافته، زیرا می‌تواند مخاطبان را قانع کند که این کلیپ‌های صوتی و تصویری واقعی هستند. دیپ‌فیک‌ها، مرز واقعیت با دروغ و خلاف واقع را از بین می‌برد، زیرا باورپذیری بالایی در مخاطبان ایجاد می‌کند.  براساس گزارش رزمبل ای‌آی (Resemble AI)، چهار مورد استفاده اصلی، محتوای صریح غیرتوافقی، کلاهبرداری و شیادی، دستکاری سیاسی و اطلاعات نادرست بود.

 

در مورد فعالیت بر اساس مناطق جغرافیایی، این گزارش نشان داد که بیشترین تعداد حوادث در طول سه ماهه اول در آمریکای شمالی (38درصد) به ویژه برای شخصیت‌های سیاسی و افراد مشهور رخ داده است. پس از آن آسیا (27 درصد) و اروپا (21 درصد) قرار دارند. با این حال، داده‌ها همچنین نشان داد که 63 درصد از موارد مربوط به «عوامل مهم بین‌المللی» بوده است. 

 

دور زدن امنیت و تکنیک‌های فرار 

بر اساس این گزارش، استفاده از دیپ‌فیک در حال حاضر با ویدئو (46 درصد) پیشتاز است و پس از آن تصاویر (32درصد) و صدا (22 درصد) قرار گرفته است. این گزارش نشان می‌دهد که شبیه‌سازی صدا در حال حاضر تنها به سه تا پنج ثانیه نمونه صوتی نیاز دارد تا صدایی قانع کننده ایجاد شود. در دستکاری صورت، 68درصد از دیپ‌فیک‌ها در حال حاضر «تقریبا» از رسانه‌های واقعی قابل تشخیص نیستند. براساس این گزارش، ترکیبی از این موارد برای ایجاد جعل هویت همزمان به 33درصد موارد رسیده است که همچنین نشان داده است تکنیک‌های فرار ممکن است امکان دور زدن امنیت را فراهم کنند.

 

رزمبل ای‌آی در این گزارش گفته است: «این گزارش بر نیاز فوری به یک پاسخ چند وجهی به تهدید دیپ فیک تاکید دارد. این شامل راه‌حل‌های فنی مانند افزایش سرمایه‌گذاری در فن‌آوری‌های تشخیص دیپ‌فیک، پروتکل‌های واترمارکینگ استاندارد و مکانیسم‌های احراز هویت محتوا می‌شود. قوانین هماهنگ در سراسر حوزه‌های قضایی برای تعریف دیپ‌فیک‌های مضر، ایجاد مسئولیت برای پلتفرم‌ها و ایجاد مکانیسم‌های اجرایی موثر ضروری است. در نهایت انعطاف‌پذیری عمومی باید از طریق سیستم‌های پشتیبانی جامع بین‌المللی برای گزارش‌های سواد رسانه‌ای و دسترسی گسترده به برنامه‌های گزارش سواد رسانه‌ای جامع افزایش یابد و به ماهیت فراملی حوادث دیپ‌فیک از طریق همکاری فرامرزی رسیدگی کند.»

 

قانونی که افسار هوش مصنوعی را می‌کشد

در انگلستان تولیدکنندگان محتوای جعل عمیق ممکن است برای آزار و شکنجه تحت پیگرد قانونی قرار گیرند اما درخواست‌هایی برای تبدیل جعل عمیق به یک جرم ویژه وجود دارد؛ در ایالات متحده، تا امروز اعتراضات گسترده‌ای درباره دیپ‌فیک و هوش مصنوعی شده و لایحه‌ای به سنا ارائه شده است:

 

«قانون حفاظت از محتوای اصلی تولید شده و حفظ یکپارچگی در مقابل محتوای اصلاح شده و دیپ فیک‌» لایحه ارائه شده است که استانداردهای شفافی را در مورد هوش مصنوعی فراهم می‌‌کند. لایحه مذکور همچنین استفاده غیرمجاز از محتوای خلاقانه یا خبرنگاری برای آموزش مدل‌های هوش مصنوعی یا غیره را منع می‌کند.تعیین مرزهای اخلاقی برای هوش مصنوعی یکی از موضوعاتی است که دانشمندان هوش مصنوعی را دچار چالش کرده است و نگرانی بسیار بر این است که هوش مصنوعی بد بر هوش مصنوعی خوب پیروز شود. 

 

 

کدخبر: ۵۸۷۸۷۲
تاریخ خبر:
ارسال نظر