
هفت صبح| شاید تا همین 10سال پیش استفاده از هوش مصنوعی و نقش آن در زندگی عادی ما تنها محدود به مواردی محدود و بسیار فنی بود که جز اهل فن توانایی فهم آن را نداشتند اما حالا میتوان گفت هوش مصنوعی جزیی از زندگی عادی ما است. امروز الگوریتمهای تحلیلگر در شرکتهای بیمه ریسک ابتلای هر مشتری را به بیماری با استفاده از دادههای قبلی و سبک زندگی شخص استخراج کرده و حق بیمه سودده را برای طرف مقابل محاسبه میکنند.
ازسویی نرمافزارهای امنیتی که در خدمت نهادهای امنیتی و انتظامی هستند، امکان ارتکاب و تکرار آن از سوی افراد دارای سوء سابقه را محاسبه کرده و در صورت لزوم محل حضور آنان را به مراکز مراقبتی اطلاع میدهند. هوش مصنوعی شاید زندگی را برای بسیاری از ما سهلتر کرده باشد اما در ادامه سوالاتی جدی را به خصوص در حوزه قانونی و قضایی به وجود میآورد...
واقعیت این است که هماکنون قوانین موجود نهتنها در نظام حقوقی جهان بلکه در نظام حقوقی دنیا نیز برای برخورد با مسئله هوش مصنوعی مبهم و حتی گنگ است. به عنوان مثال فرض کنیم که هوش مصنوعی رباتها را برای اداره تمام شئونات زندگی ما هدایت کنند. آیا یک ربات این حق را دارد که در صورت نیاز به هنگام خراب شدن از حق تعمیر برخوردار باشد.
بهعنوان مثال هم اکنون بسیاری از ارتشهای جهان در حال ساخت جنگنده و یا رباتهای جنگجویی هستند که بدون کاربر و تنها با هوش مصنوعی کار کنند. آیا سپردن کنترل شلیک یک سلاح به یک برنامه رایانهای اخلاقی است. در صورتی که این سلاح به سمت یک بیمارستان و یک پناهگاه حمله و آن را تخریب کند، مسئولیت انسانی و حقوقی این کشتار بر عهده چه کسی بود؟
یا اگر یک سامانه هوش مصنوعی داخلی، با شرکت و مدیران مشخص، اقدام به ترغیب به خودکشی یا ارتکاب جرایم و ناهنجاریها کند، نحوه برخورد قانونی با آن چگونه خواهد بود؟ اینها سوالات پیچیدهای است که امروز انسان به خصوص در بهکار بردن هوش مصنوعی روبهرو است و باعث شده تا قوانین خاصی برای جرایم مرتبط با هوش مصنوعی در برخی از کشورها مانند آمریکا و انگلستان وضع شود.
مواجهه حقوقی با هوش مصنوعی در ایران
بهرام حیدری، رئیس شعبه 1053 دادگاه کیفری 2 تهران، درباره مسئله «مسئولیت حقوقی و کیفری وقوع جرم ناشی از استفاده از هوش مصنوعی» در ایران میگوید: در حوزه مسئولیت مدنی، تا حدی در قانون این مسئله پیشبینی شده بود، اما در حوزه مسئولیت کیفری با چالش مواجه بودیم تا اینکه در سال 1392، با تصویب ماده 143، مسئولیت کیفری اشخاص حقوقی بهصورت توأمان و منوط به مسئولیت کیفری مدیر آنها پذیرفته شد. با این حال، در آیین دادرسی کیفری مربوط به اشخاص حقوقی نیز با مشکلاتی مواجه بودیم.
برای پاسخ به این سوالها باید ابتدا به این مسئله پاسخ داده شود که اصولا در حوزه هوش مصنوعی در آینده باید با خود هوش مصنوعی چگونه برخورد کنیم؟ آیا مالک و بهرهبردار مسئول است؟ آیا سازنده مسئولیت دارد؟ یا باید برای خود هوش مصنوعی ـ که ممکن است خلاقیت مستقل داشته باشد ـ جایگاه خاصی در نظر گرفت؟ همچنین نقش کاربر و نوع بهرهبرداری او نیز محل بحث است.
شاید بد نباشد که بدانید در برخی کشورها گزارشهایی وجود داشته که هوش مصنوعی حتی پیشنهادهایی در زمینه خودکشی ارائه داده است. هرچند خودکشی جرمانگاری نشده، اما ترغیب به خودکشی در نظام حقوقی ما جرم محسوب میشود و خوشبختانه امکان برخورد قانونی در این زمینه وجود دارد.
در چنین شرایطی تکلیف حقوقی هوش مصنوعی چه خواهد بود؟
سوالی که حیدری در پاسخ به آن میگوید: در حال حاضر، هوش مصنوعی هنوز به مرحلهای نرسیده است که از انسان پیشی بگیرد و برای همین شخصیت حقوقی مستقل شناخته نشده است. با این حساب میتوان در چارچوب ماده 148 قانون آیین دادرسی کیفری و ماده 215 قانون مجازات اسلامی با این موضوع برخورد کرد و در صورتی که سِروِر هوش مصنوعی در داخل کشور باشد، امکان حذف آن بهعنوان وسیله ارتکاب جرم وجود دارد. اما اگر سرور در خارج از کشور قرار داشته باشد، طبیعتا با مشکلات بیشتری مواجه خواهیم بود.
وقتی که هوش مصنوعی از انسان پیشی بگیرد
با این وجود، در آینده این پرسش جدیتر خواهد شد؛ بهویژه اگر هوش مصنوعی از انسان پیشی بگیرد. برای مثال، اگر یک سامانه هوش مصنوعی داخلی، با شرکت و مدیران مشخص، اقدام به ترغیب به خودکشی یا ارتکاب جرایم و ناهنجاریها کند، نحوه برخورد قانونی با آن چگونه خواهد بود؟ در این صورت، آیا باید با شخصیت حقوقی شرکت برخورد کرد؟ و اگر چنین است، این شخصیت حقوقی دقیقا کدام است: شرکت سازنده، شرکت بهرهبردار یا هر دو؟ رئیس شعبه 1053 دادگاه کیفری 2 تهران اما پاسخهای قابل تاملی به این سوالات میدهد.
وی در این زمینه میگوید: اگر شرکت از ابتدا با هدف ارتکاب جرم تاسیس نشده باشد و اساسنامه آن فعالیت تجاری عادی را پیشبینی کرده باشد، اما در عمل به پوششی برای فعالیتهای مجرمانه تبدیل شود یا اهداف آن در ادامه تغییر کند، در این صورت هم شرکت و هم مدیران آن میتوانند مورد تعقیب قرار گیرند. البته در اینجا بحث «سوءنیت» اهمیت اساسی دارد؛ اینکه آیا نیت عامدانه برای ارتکاب جرم وجود داشته یا صرفا سوءاستفادهای از ابزار صورت گرفته است. در این چارچوب، باید میان مباشر، شریک جرم و معاونت تفکیک قائل شد.
وی با ذکر مثالی در این زمینه ادامه میدهد: به عنوان نمونه، اگر من چاقویی را در اختیار شما قرار دهم، بدون آنکه قصد ارتکاب جرم داشته باشم و شما با آن مرتکب قتل یا ضرب و جرح شوید، من معاون جرم محسوب نمیشوم؛ زیرا وحدت قصد وجود نداشته و این وحدت قصد باید پیش از ارتکاب جرم یا همزمان با آن احراز شود. در صورت عدم احراز، مسئولیتی متوجه من نخواهد بود.
اما اگر احراز شود که من نیز با علم و قصد مجرمانه اقدام کردهام، مسئولیت خواهم داشت. حیدری گفت: در مورد هوش مصنوعی نیز، اگر سازنده بدون نیت مجرمانه، این ابزار را طراحی و ارائه کرده باشد و سامانه بر اساس دادههای دریافتی از کاربران، اقدام به تشویق به رفتار مجرمانه کند، در حالی که سازنده و بهرهبردار چنین هدفی نداشتهاند، اصل بر عدم مسئولیت آنهاست. در اینجا نیز، به دلیل فقدان سوءنیت و نبود عنوان مجرمانه صرف، نمیتوان صرف «بسترسازی» را جرم تلقی کرد؛ همانگونه که در مثال چاقو، صرف آگاهی از امکان سوءاستفاده، موجب مسئولیت کیفری نمیشود.






