هفت صبح| شاید تا همین 10سال پیش استفاده از هوش مصنوعی و نقش آن در زندگی عادی ما تنها محدود به مواردی محدود و بسیار فنی بود که جز اهل فن توانایی فهم آن را نداشتند اما حالا می‌توان گفت هوش مصنوعی جزیی از زندگی عادی ما است. امروز الگوریتم‌های تحلیل‌گر در شرکت‌های بیمه ریسک ابتلای هر مشتری را به بیماری با استفاده از داده‌های قبلی و سبک زندگی شخص استخراج کرده و حق بیمه سودده را برای طرف مقابل محاسبه می‌کنند.

 

ازسویی نرم‌افزارهای امنیتی که در خدمت نهادهای امنیتی و انتظامی هستند، امکان ارتکاب و تکرار آن از سوی افراد دارای سوء سابقه را محاسبه کرده و در صورت لزوم محل حضور آنان را به مراکز مراقبتی اطلاع می‌دهند. هوش مصنوعی شاید زندگی را برای بسیاری از ما سهل‌تر کرده باشد اما در ادامه سوالاتی جدی را به خصوص در حوزه قانونی و قضایی به وجود می‌آورد...


واقعیت این است که هم‌اکنون قوانین موجود نه‌تنها در نظام حقوقی جهان بلکه در نظام حقوقی دنیا نیز برای برخورد با مسئله هوش مصنوعی مبهم و حتی گنگ است. به عنوان مثال فرض کنیم که هوش مصنوعی ربات‌ها را برای اداره تمام شئونات زندگی ما هدایت کنند. آیا یک ربات این حق را دارد که در صورت نیاز به هنگام خراب شدن از حق تعمیر برخوردار باشد. 


به‌عنوان مثال هم اکنون بسیاری از ارتش‌های جهان در حال ساخت جنگنده و یا ربات‌های جنگجویی هستند که بدون کاربر و تنها با هوش مصنوعی کار کنند. آیا سپردن کنترل شلیک یک سلاح به یک برنامه رایانه‌ای اخلاقی است. در صورتی که این سلاح به سمت یک بیمارستان و یک پناهگاه حمله و آن را تخریب کند، مسئولیت انسانی و حقوقی این کشتار بر عهده چه کسی بود؟

 

یا اگر یک سامانه هوش مصنوعی داخلی، با شرکت و مدیران مشخص، اقدام به ترغیب به خودکشی یا ارتکاب جرایم و ناهنجاری‌ها کند، نحوه برخورد قانونی با آن چگونه خواهد بود؟ این‌ها سوالات پیچیده‌ای است که امروز انسان به خصوص در به‌کار بردن هوش مصنوعی روبه‌رو است و باعث شده تا قوانین خاصی برای جرایم مرتبط با هوش مصنوعی در برخی از کشورها مانند آمریکا و انگلستان وضع شود.   


‌مواجهه حقوقی با هوش مصنوعی در ایران


بهرام حیدری، رئیس شعبه 1053 دادگاه کیفری 2 تهران، درباره مسئله «مسئولیت حقوقی و کیفری وقوع جرم ناشی از استفاده از هوش مصنوعی» در ایران می‌گوید: در حوزه مسئولیت مدنی، تا حدی در قانون این مسئله پیش‌بینی شده بود، اما در حوزه مسئولیت کیفری با چالش مواجه بودیم تا اینکه در سال 1392، با تصویب ماده 143، مسئولیت کیفری اشخاص حقوقی به‌صورت توأمان و منوط به مسئولیت کیفری مدیر آن‌ها پذیرفته شد. با این حال، در آیین دادرسی کیفری مربوط به اشخاص حقوقی نیز با مشکلاتی مواجه بودیم.


برای پاسخ به این سوال‌ها باید ابتدا به این مسئله پاسخ داده شود که اصولا در حوزه هوش مصنوعی در آینده باید با خود هوش مصنوعی چگونه برخورد کنیم؟ آیا مالک و بهره‌بردار مسئول است؟ آیا سازنده مسئولیت دارد؟ یا باید برای خود هوش مصنوعی ـ که ممکن است خلاقیت مستقل داشته باشد ـ جایگاه خاصی در نظر گرفت؟ همچنین نقش کاربر و نوع بهره‌برداری او نیز محل بحث است.

 


شاید بد نباشد که بدانید در برخی کشورها گزارش‌هایی وجود داشته که هوش مصنوعی حتی پیشنهادهایی در زمینه خودکشی ارائه داده است. هرچند خودکشی جرم‌انگاری نشده، اما ترغیب به خودکشی در نظام حقوقی ما جرم محسوب می‌شود و خوشبختانه امکان برخورد قانونی در این زمینه وجود دارد.
در چنین شرایطی تکلیف حقوقی هوش مصنوعی چه خواهد بود؟

 

سوالی که حیدری در پاسخ به آن می‌گوید: در حال حاضر، هوش مصنوعی هنوز به مرحله‌ای نرسیده است که از انسان پیشی بگیرد و برای همین شخصیت حقوقی مستقل شناخته نشده است. با این حساب  می‌توان در چارچوب ماده 148 قانون آیین دادرسی کیفری و ماده 215 قانون مجازات اسلامی با این موضوع برخورد کرد و در صورتی که سِروِر هوش مصنوعی در داخل کشور باشد، امکان حذف آن به‌عنوان وسیله ارتکاب جرم وجود دارد. اما اگر سرور در خارج از کشور قرار داشته باشد، طبیعتا با مشکلات بیشتری مواجه خواهیم بود.

 

وقتی که هوش مصنوعی از انسان پیشی بگیرد


با این وجود، در آینده این پرسش جدی‌تر خواهد شد؛ به‌ویژه اگر هوش مصنوعی از انسان پیشی بگیرد. برای مثال، اگر یک سامانه هوش مصنوعی داخلی، با شرکت و مدیران مشخص، اقدام به ترغیب به خودکشی یا ارتکاب جرایم و ناهنجاری‌ها کند، نحوه برخورد قانونی با آن چگونه خواهد بود؟ در این صورت، آیا باید با شخصیت حقوقی شرکت برخورد کرد؟ و اگر چنین است، این شخصیت حقوقی دقیقا کدام است: شرکت سازنده، شرکت بهره‌بردار یا هر دو؟ رئیس شعبه 1053 دادگاه کیفری 2 تهران اما پاسخ‌های قابل تاملی به این سوالات می‌دهد.

 

وی در این زمینه می‌گوید: اگر شرکت از ابتدا با هدف ارتکاب جرم تاسیس نشده باشد و اساسنامه آن فعالیت تجاری عادی را پیش‌بینی کرده باشد، اما در عمل به پوششی برای فعالیت‌های مجرمانه تبدیل شود یا اهداف آن در ادامه تغییر کند، در این صورت هم شرکت و هم مدیران آن می‌توانند مورد تعقیب قرار گیرند. البته در اینجا بحث «سوءنیت» اهمیت اساسی دارد؛ اینکه آیا نیت عامدانه برای ارتکاب جرم وجود داشته یا صرفا سوءاستفاده‌ای از ابزار صورت گرفته است. در این چارچوب، باید میان مباشر، شریک جرم و معاونت تفکیک قائل شد.


وی با ذکر مثالی در این زمینه ادامه می‌دهد: به عنوان نمونه، اگر من چاقویی را در اختیار شما قرار دهم، بدون آنکه قصد ارتکاب جرم داشته باشم و شما با آن مرتکب قتل یا ضرب و جرح شوید، من معاون جرم محسوب نمی‌شوم؛ زیرا وحدت قصد وجود نداشته و این وحدت قصد باید پیش از ارتکاب جرم یا هم‌زمان با آن احراز شود. در صورت عدم احراز، مسئولیتی متوجه من نخواهد بود.

 

اما اگر احراز شود که من نیز با علم و قصد مجرمانه اقدام کرده‌ام، مسئولیت خواهم داشت. حیدری گفت: در مورد هوش مصنوعی نیز، اگر سازنده بدون نیت مجرمانه، این ابزار را طراحی و ارائه کرده باشد و سامانه بر اساس داده‌های دریافتی از کاربران، اقدام به تشویق به رفتار مجرمانه کند، در حالی که سازنده و بهره‌بردار چنین هدفی نداشته‌اند، اصل بر عدم مسئولیت آن‌هاست. در اینجا نیز، به دلیل فقدان سوءنیت و نبود عنوان مجرمانه صرف، نمی‌توان صرف «بسترسازی» را جرم تلقی کرد؛ همان‌گونه که در مثال چاقو، صرف آگاهی از امکان سوءاستفاده، موجب مسئولیت کیفری نمی‌شود.