چکیده

یکی از چالش برانگیزترین حوزه های نوظهور، بحث واگذاری اختیار کشتن انسان با هوش مصنوعی در شرایط جنگی است که به مباحث حقوقی متعددی می انجامد. این نخستین بار است که دانش حقوق با پدیده ای مواجه می شود که هرچند ساخته دست بشر است، اما برعکس تمامی پیشرفت های علمی صنعتی تحقق یافته در طول تاریخ، در تفکر و تصمیم گیری مستقل از بشر است و ممکن است پس از طی مراحلی حتی سازنده و خالق سیستم نیز قادر به درک چگونگی عملکرد یا مهار آن نباشد؛ ازاین رو، نوشته حاضر، به این بحث می پردازد که در شرایطی که اسلحه هوش مصنوعی منجر به قتل غیرنظامیان و جنایت جنگی شده، دیوان کیفری بین المللی برای اعمال مسئولیت کیفری مستقیم و همچنین دکترین مسئولیت فرمانده با چه مسائلی مواجه است و برای تفوق بر این مشکلات، چه اقداماتی باید انجام شود. پژوهش حاضر، به روش اسنادی و با رویکردی توصیفی تحلیلی پیش رفته و به این نتیجه رسیده است که با توجه به ظهور مفهومی به نام شکاف در مسئولیت، که ناشی از ذات منحصربه فرد هوش مصنوعی است، مقررات فعلی اساسنامه درخصوص آن نارسایی دارد و جامعه بین المللی باید برای تطبیق با شرایط جدید، سازندگان را ملزم به ارائه شفافیت حداکثری کند؛ همچنین تولید برخی از انواع هوش مصنوعی را ممنوع کند؛ و درنهایت درباره کشتار احتمالی ناشی از به کارگیری سلاح هوش مصنوعی با قابلیت خودبهبودی پس از تولید، اساسنامه دیوان را اصلاح کند و صراحتاً و انحصاراً قواعد مسئولیت کیفری را طوری مشخص کند که وجود سلاح هوش مصنوعی منجر به بی کیفرمانی نشود.

Feasibility of AI-powered war weapons criminal liability and the challenge of impunity in the International Criminal Court

The issue of delegating the authority to kill humans to artificial intelligence in wartime is one of the most challenging emerging disciplines, as it raises numerous legal issues. This is the first time that legal knowledge has encountered a phenomenon that, despite being created by humans, is independent of humans in thinking and decision-making, and it may be possible after multiple stages that even the creator of the system cannot comprehend or control its operation. Therefore, this article discusses the obstacles that the International Criminal Court must overcome to apply direct criminal responsibility and the doctrine of commander's responsibility in cases where artificial intelligence weapons have led to the killing of civilians and war crimes, as well as the steps that should be taken to overcome these obstacles. Following a documentary approach and a descriptive-analytical analysis, this article concludes that the current provisions of the statute regarding artificial intelligence need to be revised due to the emergence of a concept called the gap in responsibility, which is caused by the unique nature of artificial intelligence. To adapt to the new conditions, the international community must require manufacturers to provide maximum transparency and prohibit producing certain types of artificial intelligence. Regarding the possible killings caused by the use of artificial intelligence weapons with the ability to self-learning after production, the court statute must explicitly and exclusively specify the rules of criminal responsibility so that the existence of AI weapons does not lead to impunity.

تبلیغات