شنبه, 25 آذر 1402 . سایت انقلاب اسلامی: روزنامه فرانسوی لوموند بتاریخ 14 دسامبر به قلم الیز ونسان Elise Vincent مقاله ای در باره استفاده هوش مصنوعی در حملات ارتش اسراویل به غزه نوشته است که ترجمه انرا در زیر می اوریم.
تعداد قربانیان و مقیاس بیسابقه خسارات ناشی از بمبارانهای اسرائیل در نوار غزه، بحثهای عمومی در مورد نظارت بر هوش مصنوعی در سیستمهای تسلیحاتی را دامن زده است.
در میان تمام وحشتهای جنگی که بعد از 7 اکتبر بین اسرائیل و حماس در گرفت، یکی هست که به طور غیرمنتظره یک بعد دیستوپیایی [پاد-آرمانشهر] به این درگیری اضافه کرده است: توسل ارتش اسرائیل به قدرت هوش مصنوعی (AI) برای به حداکثر رساندن درهم شکستن جنبش اسلام گرا. بعنوان یکی از ابزارهای هدف گیری برای حملات هوایی در نوار غزه، هوش مصنوعی به عنوان یکی از اجزای کلیدی به نام حبسورا (“انجیل”) ارائه شده است. دشوار است بدانیم که این افشاگری غیرمنتظره، در آغاز نوامبر، یک روز پس از آتش بس هفت روزه که اجازه آزادی 110 گروگان را داد، تا چه اندازه نتیجه یک استراتژی ارتباطی کنترل شده بود. سپس تحقیقات مطبوعاتی روحیات اعضای سابق ارتش اسرائیل را در استفاده از این نرم افزار که قادر به پیشنهاد اهداف با سرعت بی سابقه از انبوه داده های ناهمگن است، را گزارش کرد. کلمه “هوش مصنوعی” گاهی اوقات همه چیز را به خود اختصاص می دهد که بسیاری از برنامه های دیجیتال را در بر می گیرد، چه نظامی و چه غیرنظامی. با این حال، یک چیز از آن زمان برای کارشناسان آشکار شده است: میزان تخریب و تعداد بیسابقه قربانیان غیرنظامی در غزه – به گفته وزارت بهداشت حماس بیش از 18000 نفر – میتواند خطوط نظارت بر هوش مصنوعی در سیستمهای تسلیحاتی را تغییر دهد. سالهاست که این موضوع مورد توافق متخصصان بوده است. جولین نوکتی، محقق وابسته در موسسه روابط بینالملل فرانسه (IFRI)، متخصص درگیریهای دیجیتال، استدلال میکند که این جنگ میتواند به سرعت بخشیدن به بحثهای ویژه کمک کند.
تسلیحات در واقع امروزه به دو دسته اصلی تقسیم می شوند: از یک طرف، سیستم های تسلیحاتی خودکار مرگبار و کاملاً خودکار که نمونه واقعی آن در بازار وجود ندارد. از سوی دیگر، سیستمهای تسلیحاتی کشنده که نوعی خود مختاری دارند (SALIA)، اما در اصل به انسان اجازه میدهند «در حلقه تصمیم گیری» باقی بماند. با این حال، اکثریت قریب به اتفاق قدرتهای نظامی غربی – از جمله اسرائیل و حبسوره – امروز ادعا میکنند که نوع دوم را انتخاب کردهاند و بنابراین میتوانند سوگند یاد کنند که در سمت محترم استفاده از زور قرار گرفته اند. اما، برای لور دو روسیروچگوند-Laure de Roucy-Rochegonde، محقق IFRIو نویسنده پایان نامه ای در مورد تنظیم سیستم های تسلیحاتی خودمختار، ویژگی های جنگ بین اسرائیل و حماس می تواند این دسته بندی های مبهم را کهنه کند و مفهومی دیگر ببخشد: مقررات، «کنترل معنادار انسانی” . تعریف سختگیرانهتر که تاکنون توسط برخی از مدافعان حقوق بشر، از جمله یک سازمان غیردولتی به نام ماده 36، بدون موفقیت ارائه شده، را در بردارد. خانم دو روسی-روچگوند ادامه می دهد: “معلوم نیست ارتش اسرائیل از چه نوع محاسباتی در هوش مصنوعی خود استفاده می کند و چگونه از داده استفاده می شود، اگر در پایان محاسبات تصمیمی برای زندگی یا مرگ وجود نداشته باشد، مشکلی برای حمله نخواهد بود.”
نرخ بسیار بالای حملات هوایی
حتی اگر اکثر صنایع تسلیحاتی ادعا میکنند که سختگیری زیادی در ادغام لایههای هوش مصنوعی در سیستمهای تسلیحاتی خود نشان میدهند تا از خطر «جعبههای سیاه» جلوگیری کنند، میزان حملاتی که ارتش اسرائیل ادعا میکند، آگاهترینها را شگفتزده کرد: حداقل 15000 هدف در طول سی و پنج روز اول درگیری مورد اصابت قرار گرفت که تقریباً سه برابر بیشتر از پنجاه و یک روز عملیات “لبه محافظ” در سال 2014 بود، اما همه ارتش های جهان می دانند که سیستم های هدف گیری آنها می تواند خطا کنند و یا فریب طعمه ها قرار گیرند. فراتر از مسائل اخلاقی، استفاده شدید از هوش مصنوعی مانند آنچه توسط ارتش اسرائیل استفاده میشود – اگرچه غیرقابل تأیید است – سؤالاتی را در مورد مسئولیت آسیبهای جانبی ایجاد میکند. اگرچه از Habsora و سایر ابزارهای دیجیتالی به عنوان راهی برای محدود کردن مرگ و میر غیرنظامیان استفاده میکند، ارتش همچنین در اوایل دسامبر اذعان کرد که برای هر بار که یک جنگجوی حماس از بین میرفت، حدود دو غیرنظامی کشته میشدند – یعنی حدود 5000 نفر از زمان شروع جنگ. به گفته افسران مطبوعات اسرائیلی، «نسبت دو به یک» اسفناک، اما به دلیل استفاده از غیرنظامیان به عنوان «سپر انسانی» توسط حماس اجتنابناپذیر است.
جولیا گریگنون، مدیر علمی موسسه تحقیقات استراتژیک دانشکده نظامی هشدار می دهد: «همه ارتش های جهان در تلاش هستند تا قانون درگیری مسلحانه را به نفع خود تفسیر کنند. اما، حتی در مورد هوش مصنوعی، قوانین حقوق بشردوستانه بینالمللی که بر انجام خصومتها حاکم است، اعمال میشود. فرمانده عملیات باید اطمینان حاصل کند که از وسایل قابل اعتماد استفاده می کند و اصل مسئولیت هم در مورد فرد دستور دهنده و هم برای شخص انجام دهنده اعمال می شود. در نهایت، تشخیص اینکه آیا ابزاری، هر چه که باشد، توجیه تلفات غیرنظامی در مقیاس بزرگ را ممکن کرده است یا خیر، در صورت توقیف به عهده قاضی خواهد بود. به طور خلاصه، استفاده از هوش مصنوعی نمی تواند وسیله ای برای بازنگری در اصل «تناسب» باشد که باید بر هر حمله نظامی حاکم باشد. طبق قوانین بشردوستانه بینالمللی، مناسب است «از انجام حملهای که میتوان انتظار داشت به غیرنظامیان آسیبهای جانبی بیش از حد در رابطه با مزیت واقعی و مستقیم نظامی مورد انتظار وارد کند، خودداری کرد. باید دید کدام نهاد واقعاً قادر به بررسی این سؤالات خواهد بود. در جنبههای نظارت هنجاری، معمولاً کنوانسیون برخی سلاحهای متعارف وابسته به سازمان ملل است که بحثها را رهبری میکند. اما فقط دادگاه کیفری بینالمللی میتواند به جنبههای قضایی رسیدگی کند.