back to top
خانهدیدگاه هااستفاده از هوش مصنوعی توسط ارتش اسرائیل قانون جنگ را زیر سوال...

استفاده از هوش مصنوعی توسط ارتش اسرائیل قانون جنگ را زیر سوال می برد

. سایت انقلاب اسلامی: روزنامه فرانسوی لوموند بتاریخ 14 دسامبر به قلم الیز ونسان Elise Vincent مقاله ای در باره استفاده هوش مصنوعی در حملات ارتش اسراویل به غزه نوشته است که ترجمه انرا در زیر می اوریم.

تعداد قربانیان و مقیاس بی‌سابقه خسارات ناشی از بمباران‌های اسرائیل در نوار غزه، بحث‌های عمومی در مورد نظارت بر هوش مصنوعی در سیستم‌های تسلیحاتی را دامن زده است.

در میان تمام وحشت‌های جنگی که بعد از 7 اکتبر بین اسرائیل و حماس در گرفت، یکی هست که به طور غیرمنتظره‌ یک بعد دیستوپیایی [پاد-آرمان‌شهر] به این درگیری اضافه کرده است: توسل ارتش اسرائیل به قدرت هوش مصنوعی (AI) برای به حداکثر رساندن درهم شکستن جنبش اسلام گرا. بعنوان یکی از ابزارهای هدف گیری برای حملات هوایی در نوار غزه، هوش مصنوعی به عنوان یکی از اجزای کلیدی به نام حبسورا (“انجیل”) ارائه شده است. دشوار است بدانیم که این افشاگری غیرمنتظره، در آغاز نوامبر، یک روز پس از آتش بس هفت روزه که اجازه آزادی 110 گروگان را داد، تا چه اندازه نتیجه یک استراتژی ارتباطی کنترل شده بود. سپس تحقیقات مطبوعاتی روحیات اعضای سابق ارتش اسرائیل را در استفاده از این نرم افزار که قادر به پیشنهاد اهداف با سرعت بی سابقه از انبوه داده های ناهمگن است، را گزارش کرد. کلمه “هوش مصنوعی” گاهی اوقات همه چیز را به خود اختصاص می دهد که بسیاری از برنامه های دیجیتال را در بر می گیرد، چه نظامی و چه غیرنظامی. با این حال، یک چیز از آن زمان برای کارشناسان آشکار شده است: میزان تخریب و تعداد بی‌سابقه قربانیان غیرنظامی در غزه – به گفته وزارت بهداشت حماس بیش از 18000 نفر – می‌تواند خطوط نظارت بر هوش مصنوعی در سیستم‌های تسلیحاتی را تغییر دهد. سال‌هاست که این موضوع مورد توافق متخصصان بوده است. جولین نوکتی، محقق وابسته در موسسه روابط بین‌الملل فرانسه (IFRI)، متخصص درگیری‌های دیجیتال، استدلال می‌کند که این جنگ می‌تواند به سرعت بخشیدن به بحث‌های ویژه کمک کند.

تسلیحات در واقع امروزه به دو دسته اصلی تقسیم می شوند: از یک طرف، سیستم های تسلیحاتی خودکار مرگبار و کاملاً خودکار که نمونه واقعی آن در بازار وجود ندارد. از سوی دیگر، سیستم‌های تسلیحاتی کشنده که  نوعی خود مختاری دارند (SALIA)، اما در اصل به انسان اجازه می‌دهند «در حلقه تصمیم گیری» باقی بماند. با این حال، اکثریت قریب به اتفاق قدرت‌های نظامی غربی – از جمله اسرائیل و حبسوره – امروز ادعا می‌کنند که نوع دوم را انتخاب کرده‌اند و بنابراین می‌توانند سوگند یاد کنند که در سمت محترم استفاده از زور قرار گرفته اند.  اما، برای لور دو روسیروچگوند-Laure  de Roucy-Rochegonde، محقق IFRIو نویسنده پایان نامه ای در مورد تنظیم سیستم های تسلیحاتی خودمختار، ویژگی های جنگ بین اسرائیل و حماس می تواند این دسته بندی های مبهم را کهنه کند و مفهومی دیگر ببخشد: مقررات، «کنترل معنادار انسانی” . تعریف سخت‌گیرانه‌تر که تاکنون توسط برخی از مدافعان حقوق بشر، از جمله یک سازمان غیردولتی به نام ماده 36، بدون موفقیت ارائه شده،  را در بردارد. خانم دو روسی-روچگوند ادامه می دهد: “معلوم نیست ارتش اسرائیل از چه نوع محاسباتی در هوش مصنوعی خود استفاده می کند و چگونه از داده استفاده می شود، اگر در پایان محاسبات تصمیمی برای زندگی یا مرگ وجود نداشته باشد، مشکلی برای حمله نخواهد بود.”

نرخ بسیار بالای حملات هوایی

حتی اگر اکثر صنایع تسلیحاتی ادعا می‌کنند که سختگیری زیادی در ادغام لایه‌های هوش مصنوعی در سیستم‌های تسلیحاتی خود نشان می‌دهند تا از خطر «جعبه‌های سیاه» جلوگیری کنند، میزان حملاتی که ارتش اسرائیل ادعا می‌کند، آگاه‌ترین‌ها را شگفت‌زده کرد: حداقل 15000 هدف در طول سی و پنج روز اول درگیری مورد اصابت قرار گرفت که تقریباً سه برابر بیشتر از پنجاه و یک روز عملیات “لبه محافظ” در سال 2014 بود، اما همه ارتش های جهان می دانند که سیستم های هدف گیری آنها می تواند خطا کنند و یا فریب طعمه ها  قرار گیرند. فراتر از مسائل اخلاقی، استفاده شدید از هوش مصنوعی مانند آنچه توسط ارتش اسرائیل استفاده می‌شود – اگرچه غیرقابل تأیید است – سؤالاتی را در مورد مسئولیت آسیب‌های جانبی ایجاد می‌کند. اگرچه از Habsora و سایر ابزارهای دیجیتالی به عنوان راهی برای محدود کردن مرگ و میر غیرنظامیان استفاده می‌کند، ارتش همچنین در اوایل دسامبر اذعان کرد که برای هر بار که یک جنگجوی حماس از بین می‌رفت، حدود دو غیرنظامی کشته می‌شدند – یعنی حدود 5000 نفر از زمان شروع جنگ. به گفته افسران مطبوعات اسرائیلی، «نسبت دو به یک» اسفناک، اما به دلیل استفاده از غیرنظامیان به عنوان «سپر انسانی» توسط حماس اجتناب‌ناپذیر است.

جولیا گریگنون، مدیر علمی موسسه تحقیقات استراتژیک دانشکده نظامی هشدار می دهد: «همه ارتش های جهان در تلاش هستند تا قانون درگیری مسلحانه را به نفع خود تفسیر کنند. اما، حتی در مورد هوش مصنوعی، قوانین حقوق بشردوستانه بین‌المللی که بر انجام خصومت‌ها حاکم است، اعمال می‌شود. فرمانده عملیات باید اطمینان حاصل کند که از وسایل قابل اعتماد استفاده می کند و اصل مسئولیت هم در مورد فرد دستور دهنده و هم برای شخص انجام دهنده اعمال می شود. در نهایت، تشخیص اینکه آیا ابزاری، هر چه که باشد، توجیه تلفات غیرنظامی در مقیاس بزرگ را ممکن کرده است یا خیر، در صورت توقیف به عهده قاضی خواهد بود. به طور خلاصه، استفاده از هوش مصنوعی نمی تواند وسیله ای برای بازنگری در اصل «تناسب» باشد که باید بر هر حمله نظامی حاکم باشد. طبق قوانین بشردوستانه بین‌المللی، مناسب است «از انجام حمله‌ای که می‌توان انتظار داشت به غیرنظامیان آسیب‌های جانبی  بیش از حد در رابطه با مزیت واقعی و مستقیم نظامی مورد انتظار وارد کند، خودداری کرد. باید دید کدام نهاد واقعاً قادر به بررسی این سؤالات خواهد بود. در جنبه‌های نظارت هنجاری، معمولاً کنوانسیون برخی سلاح‌های متعارف وابسته به سازمان ملل است که بحث‌ها را رهبری می‌کند. اما فقط دادگاه کیفری بین‌المللی می‌تواند به جنبه‌های قضایی رسیدگی کند.

 

اخبار مرتبط

دیدگاه خود را بنویسید

لطفا دیدگاه خود را وارد کنید
لطفا نام خود را اینجا وارد کنید