کاربر گرامی

برای استفاده از محتوای اختصاصی و ویدئو ها باید در وب سایت هفت صبح ثبت نام نمایید

با ثبت نام و خرید اشتراک به نسخه PDF روزنامه، مطالب و ویدئو‌های اختصاصی و تمامی امکانات دسترسی خواهید داشت.

کدخبر: ۵۸۵۹۴۲
تاریخ خبر:

بازتولید نابرابری در عصر‌ هوش مصنوعی

بازتولید نابرابری در عصر‌ هوش مصنوعی

با گسترش روزافزون هوش مصنوعی در زندگی روزمره، از تصمیم‌گیری در امور بهداشتی گرفته تا استخدام، آموزش و امنیت، یک نگرانی بنیادین بیش از پیش برجسته شده است.

 شاهرخ فتوره‌چی| این پدیده، به‌طور پنهان اما تأثیرگذار، نابرابری‌های اجتماعی و اقتصادی را بازتولید کرده و روند تحقق عدالت را مختل می‌سازد. تعصب الگوریتمی زمانی رخ می‌دهد که سامانه‌های خودکار یا تصمیم‌گیر مبتنی بر داده، نتایجی ناعادلانه به نفع یا به زیان گروه‌هایی از مردم تولید کنند. این سوگیری‌ها معمولاً بر پایه عواملی چون نژاد، جنسیت، طبقه اجتماعی، سن یا محل زندگی شکل می‌گیرند. برخلاف تصور رایج، این خطاها نتیجه نقص فنی نیستند، بلکه بازتاب داده‌های ناعادلانه‌ای هستند که الگوریتم‌ها با آن‌ها آموزش دیده‌اند.

  چرا این تعصب شکل می‌گیرد؟

الگوریتم‌های هوش مصنوعی برای یادگیری به داده‌هایی متکی هستند که از جهان واقعی استخراج شده‌اند. اگر این داده‌ها حاوی نابرابری‌های تاریخی یا تبعیض‌های ساختاری باشند، الگوریتم‌ها نیز همان الگوها را تکرار می‌کنند. همچنین، نبود تنوع در تیم‌های توسعه‌دهنده سامانه‌ها باعث می‌شود برخی از سوگیری‌ها اصلاً شناسایی نشوند.

  پیامدهای اجتماعی و اقتصادی

تعصب در الگوریتم‌ها تنها یک مسئله فنی نیست، بلکه تبعاتی عمیق در سطح اجتماع دارد. تصمیمات نادرست در حوزه‌هایی چون سلامت، استخدام یا عدالت قضایی، تبعیض را تقویت کرده، فرصت‌های برابر را کاهش می‌دهد و بی‌اعتمادی عمومی را گسترش می‌دهد.

  نمونه‌هایی از دنیای واقعی

در مطالعه‌ای در سال ۲۰۱۹، پژوهشگران دانشگاه شیکاگو و هاروارد الگوریتمی را بررسی کردند که در سیستم سلامت ایالات متحده برای تشخیص نیاز بیماران به مراقبت طراحی شده بود. این الگوریتم به‌طور ناعادلانه، بیماران سیاه‌پوست را در مقایسه با سفیدپوستان با نیاز کمتری به درمان شناسایی می‌کرد. دلیل اصلی، تکیه بر داده‌های هزینه‌های درمانی گذشته بود؛ داده‌هایی که خود بازتابی از موانع ساختاری در دسترسی به خدمات سلامت برای جوامع محروم هستند. در سال ۲۰۱۵، شرکت آمازون از سامانه‌ای خودکار برای غربالگری رزومه‌ها استفاده کرد. این سامانه که از داده‌های استخدامی پیشین یاد گرفته بود، به‌طور غیرمستقیم به نفع مردان و علیه زنان سوگیری داشت. علت آن، سهم تاریخی بیشتر مردان در استخدام و الگوبرداری سامانه از آن الگوها بود. در حوزه تشخیص چهره نیز، پژوهش‌ها نشان داده‌اند سامانه‌هایی که توسط شرکت‌هایی مانند IBM و Microsoft  توسعه یافته‌اند، در شناسایی چهره افراد با پوست تیره، به‌ویژه زنان، عملکرد ضعیف‌تری دارند. تحقیقی از MIT Media Lab در سال ۲۰۱۸ نشان داد که نرخ خطای شناسایی برای زنان با پوست تیره بیش از 35 درصد بوده است، در حالی‌که این نرخ برای مردان سفیدپوست کمتر از یک درصد بود. چنین خطاهایی، به‌ویژه در حوزه امنیت، تبعاتی جدی و ناعادلانه به همراه دارند.

  راهکارهایی برای کاهش تعصب

مقابله با تعصب الگوریتمی نیازمند تلاش هماهنگ در سطوح گوناگون است:

1- اصلاح داده‌ها: پاک‌سازی و بازنگری داده‌های تاریخی به‌منظور حذف سوگیری‌های موجود.

2- تنوع در تیم‌ها: بهره‌گیری از افراد با پیشینه‌ها و دیدگاه‌های متنوع در فرآیند طراحی و ارزیابی سیستم‌ها.

3- شفاف‌سازی الگوریتم‌ها: ساده‌سازی سامانه‌ها و ارائه اطلاعات روشن درباره نحوه تصمیم‌گیری.

4- قوانین و نظارت عمومی: تدوین چارچوب‌های حقوقی برای ارزیابی عدالت و الزام نهادها به پاسخگویی.

  اهمیت عدالت در فناوری

فناوری ابزاری برای برابری و پیشرفت است، نه تکرارکننده تبعیض‌های گذشته. اگرچه هوش مصنوعی سرعت و کارایی تصمیم‌گیری را افزایش می‌دهد، اما بدون نظارت و ملاحظات اخلاقی، ممکن است به ابزاری برای تقویت نابرابری بدل شود. تحقق عدالت الگوریتمی نیازمند مشارکت متخصصان، فعالان اجتماعی، قانون‌گذاران و خود مردم است. در جهانی که الگوریتم‌ها نقش پررنگی در مسیر زندگی انسان‌ها ایفا می‌کنند، مسئولیت ماست که از شفافیت، انصاف و پاسخگویی در طراحی و استفاده از این سامانه‌ها اطمینان حاصل کنیم.

کدخبر: ۵۸۵۹۴۲
تاریخ خبر:
ارسال نظر