بازتولید نابرابری در عصر هوش مصنوعی

با گسترش روزافزون هوش مصنوعی در زندگی روزمره، از تصمیمگیری در امور بهداشتی گرفته تا استخدام، آموزش و امنیت، یک نگرانی بنیادین بیش از پیش برجسته شده است.
شاهرخ فتورهچی| این پدیده، بهطور پنهان اما تأثیرگذار، نابرابریهای اجتماعی و اقتصادی را بازتولید کرده و روند تحقق عدالت را مختل میسازد. تعصب الگوریتمی زمانی رخ میدهد که سامانههای خودکار یا تصمیمگیر مبتنی بر داده، نتایجی ناعادلانه به نفع یا به زیان گروههایی از مردم تولید کنند. این سوگیریها معمولاً بر پایه عواملی چون نژاد، جنسیت، طبقه اجتماعی، سن یا محل زندگی شکل میگیرند. برخلاف تصور رایج، این خطاها نتیجه نقص فنی نیستند، بلکه بازتاب دادههای ناعادلانهای هستند که الگوریتمها با آنها آموزش دیدهاند.
چرا این تعصب شکل میگیرد؟
الگوریتمهای هوش مصنوعی برای یادگیری به دادههایی متکی هستند که از جهان واقعی استخراج شدهاند. اگر این دادهها حاوی نابرابریهای تاریخی یا تبعیضهای ساختاری باشند، الگوریتمها نیز همان الگوها را تکرار میکنند. همچنین، نبود تنوع در تیمهای توسعهدهنده سامانهها باعث میشود برخی از سوگیریها اصلاً شناسایی نشوند.
پیامدهای اجتماعی و اقتصادی
تعصب در الگوریتمها تنها یک مسئله فنی نیست، بلکه تبعاتی عمیق در سطح اجتماع دارد. تصمیمات نادرست در حوزههایی چون سلامت، استخدام یا عدالت قضایی، تبعیض را تقویت کرده، فرصتهای برابر را کاهش میدهد و بیاعتمادی عمومی را گسترش میدهد.
نمونههایی از دنیای واقعی
در مطالعهای در سال ۲۰۱۹، پژوهشگران دانشگاه شیکاگو و هاروارد الگوریتمی را بررسی کردند که در سیستم سلامت ایالات متحده برای تشخیص نیاز بیماران به مراقبت طراحی شده بود. این الگوریتم بهطور ناعادلانه، بیماران سیاهپوست را در مقایسه با سفیدپوستان با نیاز کمتری به درمان شناسایی میکرد. دلیل اصلی، تکیه بر دادههای هزینههای درمانی گذشته بود؛ دادههایی که خود بازتابی از موانع ساختاری در دسترسی به خدمات سلامت برای جوامع محروم هستند. در سال ۲۰۱۵، شرکت آمازون از سامانهای خودکار برای غربالگری رزومهها استفاده کرد. این سامانه که از دادههای استخدامی پیشین یاد گرفته بود، بهطور غیرمستقیم به نفع مردان و علیه زنان سوگیری داشت. علت آن، سهم تاریخی بیشتر مردان در استخدام و الگوبرداری سامانه از آن الگوها بود. در حوزه تشخیص چهره نیز، پژوهشها نشان دادهاند سامانههایی که توسط شرکتهایی مانند IBM و Microsoft توسعه یافتهاند، در شناسایی چهره افراد با پوست تیره، بهویژه زنان، عملکرد ضعیفتری دارند. تحقیقی از MIT Media Lab در سال ۲۰۱۸ نشان داد که نرخ خطای شناسایی برای زنان با پوست تیره بیش از 35 درصد بوده است، در حالیکه این نرخ برای مردان سفیدپوست کمتر از یک درصد بود. چنین خطاهایی، بهویژه در حوزه امنیت، تبعاتی جدی و ناعادلانه به همراه دارند.
راهکارهایی برای کاهش تعصب
مقابله با تعصب الگوریتمی نیازمند تلاش هماهنگ در سطوح گوناگون است:
1- اصلاح دادهها: پاکسازی و بازنگری دادههای تاریخی بهمنظور حذف سوگیریهای موجود.
2- تنوع در تیمها: بهرهگیری از افراد با پیشینهها و دیدگاههای متنوع در فرآیند طراحی و ارزیابی سیستمها.
3- شفافسازی الگوریتمها: سادهسازی سامانهها و ارائه اطلاعات روشن درباره نحوه تصمیمگیری.
4- قوانین و نظارت عمومی: تدوین چارچوبهای حقوقی برای ارزیابی عدالت و الزام نهادها به پاسخگویی.
اهمیت عدالت در فناوری
فناوری ابزاری برای برابری و پیشرفت است، نه تکرارکننده تبعیضهای گذشته. اگرچه هوش مصنوعی سرعت و کارایی تصمیمگیری را افزایش میدهد، اما بدون نظارت و ملاحظات اخلاقی، ممکن است به ابزاری برای تقویت نابرابری بدل شود. تحقق عدالت الگوریتمی نیازمند مشارکت متخصصان، فعالان اجتماعی، قانونگذاران و خود مردم است. در جهانی که الگوریتمها نقش پررنگی در مسیر زندگی انسانها ایفا میکنند، مسئولیت ماست که از شفافیت، انصاف و پاسخگویی در طراحی و استفاده از این سامانهها اطمینان حاصل کنیم.