تحقیقات مشترکی نشان میدهد که ارتش اسرائیل در حال ساخت یک مدل زبانی مبتنی بر هوش مصنوعی است که از میلیونها مکالمه رهگیریشده میان فلسطینیان تغذیه میشود. این فناوری میتواند روند متهمسازی و بازداشت را تسریع کند
نویسنده: یووال آبراهام ترجمۀ حماد شیبانی
ـ واحد ۸۲۰۰ ارتش اسرائیل در حال ساخت نوعی زبان عربی با میلیاردها کلمه برای تجسس در تمام شئون و احوالات فلسطینی هاست. متخصصان این امر در ارتش به (Chat GPT) حسادت کردند و برای تشدید نظارت بر فلسطینیها تصمیم گرفتند از “مقادیر جنون آمیزی” داده های اطلاعاتی برای ساخت ابزاری به عنوان زبانی از عربی محاورهای با لهجه های محلی استفاده کنند. کارشناسان میگویند به این ترتیب “فلسطینیها به ابژههای آزمایشگاهی تبدیل شدهاند تا هوش مصنوعی را به سلاح تبدیل کنند”.
واحد موسوم به ۸۲۰۰ در ارتش اسرائیل شروع به ساختن یک مدل هوش مصنوعی جدید و قدرتمند کرده که شبیه به (Chat GPT) است و بر اساس حجم زیادی از مکالمات محاورهای فلسطینیها در مناطق اشغالی ساخته شده است. این موضوع در تحقیقات مشترک نشریات “مکالمۀ محلی” در اسرائیل و “گاردین” روشن شده است.
“ارتش خود به هوش مصنوعی برای استفاده های جنگی نیاز داشت و “مایکروسافت” امکان آن را فراهم کرد.”
در حالی که مدلهای زبانی بزرگ در بازار غیرنظامی، مانند (Chat GPT)، بر اساس میلیاردها متن عمومی که از اینترنت برگرفته شده است، به زبانهای انگلیسی و زبانهای بسیار دیگری ساخته شده است، ابزار جدید واحد ۸۲۰۰، که به عنوان “مدل زبانی بزرگ” (LLM) تعریف شده است، از “مقادیر جنون آسائی” از داده های اطلاعاتی تغذیه میکند.
سه منبع امنیتی وآگاه به تکنیک، در مورد ابزار جدید گفته اند که هدف این مدل “پاسخ به سؤالات” مأموران اطلاعاتی، دربارۀ هر موضوعی، در مورد افرادی است که تحت نظر هستند. این وسیله به بازجوها کمک میکند تا اطلاعات را به سرعت پردازش کنند. یکی از آنها اشاره کرد که این ابزار جدید بر اساس استفادۀ صد میلیارد کلمۀ عربی محاورهای ساخته شده است.
“ما به دنبال ایجاد یک مجموعه از داده های اطلاعاتی، تا حد امکان بزرگ و وسیع، بودیم، تا بتوانیم تمام اطلاعاتی را که دولت اسرائیل تا به حال، به زبان عربی، جمعآوری کرده است یکجا ذخیره کنیم”، این توضیحی است که توسط افسر اطلاعاتی “شاکد راجر سیدوف”، که خود را به عنوان رهبر پروژه معرفی کرد، در یک سخنرانی عمومی در کنفرانس سال گذشته بیان شد.
استفاده از اطلاعات جمع آوری شده از طریق نظارت بر جمعیتی غیرنظامی که تحت حکومت نظامی زندگی میکنند، مسائل اخلاقی جدی را برمیانگیزد.
“زک کمپبل”، محقق ارشد فناوری در سازمان (Human Rights Watch ) گفت:
“ما در مورد اطلاعات بسیار شخصی صحبت میکنیم، این اطلاعات از افرادی گرفته شده که به هیچ جرمی مشکوک یا متهم نیستند، اما این داده ها بعداً میتواند به ایجاد یا اثبات سوءظن کمک کند، ما از این اطلاعات برای ساختن ابزار جدید استفاده می کنیم”.
پرسش فقط دربارۀ [نقض] حریم خصوصی نیست، بلکه دربارۀ قدرت نیز هست”، یک منبع اطلاعاتی که توسعۀ مدلهای زبانی در آمان (سازمان اطلاعات نظامی اسرائیل) را در سالهای اخیر از نزدیک دنبال کرده است، گفت: “هوش مصنوعی قدرت را افزایش می دهد. این امکان را فراهم می کند که بر اطلاعات تعداد بسیار بیشتری از افراد عمل شود و این کنترل بر جمعیت را ممکن می سازد. این فقط دربارۀ حملات تیراندازی و یا شلیک، از نوعی، نیست. من میتوانم فعالان حقوق بشر، و یا ساخت و ساز فلسطینیها در مناطق C را زیر نظر بگیرم. به این وسیله امکان بیشتری برای دانستن آنچه هر فرد در کرانۀ باختری انجام می دهد، در اختیار دارم. وقتی شما این حجم از اطلاعات را در اختیار دارید، میتوانید آن را به سوی هر هدفی که می خواهید هدایت کنید. و ارتش اسرائیل محدودیتهای بسیار کمی در این زمینه دارد.”
توسعۀ این مدل زبانی، بر اساس “میزان جنون آسای” ذخیرۀ داده های اطلاعاتی، در واقع ادامۀ نظارت گسترده بر فلسطینیها در مناطق اشغالی است که اسرائیل طی دههها انجام داده است. در سال ۲۰۱۴، سربازانی که در واحد ۸۲۰۰ خدمت کرده بودند، شهادت دادند که افراد بیگناهی را که به هیچ فعالیت نظامی علیه اسرائیل مرتبط نبودند زیر نظر گرفتهاند و در چارچوب این نظارت، اطلاعاتی جمعآوری کردهاند که میتواند برای باج گیری استفاده شود، مانند وضعیت اقتصادی بد، گرایشهای جنسی یا بیماری شدید خود آنها یا یکی از اعضای خانواده شان. همچنین، آنها شهادت دادند که فعالان سیاسی را نیز زیر نظر گرفتهاند.
امروز، حتی قبل از تلاش برای توسعۀ یک مدل شبیه به (Chat GPT) برای زبان عربی محاورهای، واحد ۸۲۰۰ از مدلهای زبانی کوچکتری استفاده میکند که امکان طبقه بندی اطلاعات، رونویسی مکالمات و جستجوی کلیدواژهها را بطور مؤثر فراهم میکند. منابع اطلاعاتی گفتند که نظارت گسترده و استفاده از این مدلها به حد قابل توجهی تعداد دستگیریهای فلسطینیها در مناطق اشغالی را افزایش داده و کنترل بر جمعیت را عمیقتر کرده است. یک منبع اطلاعاتی ادعا می کند که: “با گسترش پوشش و گسترش دادهها، تعداد زیادی از مظنونین وجود دارند که ارتباط آنها با موارد مشکوک، ضعیف است و حتی گاهی اوقات اشتباه فهمیده می شود، اما نامشان درلیست افراد مظنون هست و اطلاعاتی دربارۀ آنها وجود دارد. اگر کسی بخواهد آنها را دستگیر کند، بهانه ای خواهد داشت”.
تفاوت اساسی بین مدلهای کوچکتری که در حال حاضر استفاده میشود و مدل بزرگ در حال توسعه، اینست که مدل جدید از مکالمات روزمره بدون ارزش اطلاعاتی نیز استفاده می کند. یک منبع امنیتی می گوید: مثلاً، “کسی با کسی تماس میگیرد و میگوید بیرون بیاید چون منتظر او در بیرون از مدرسه است، این یک مکالمۀ عادی است، جالب نیست. اما از نظر چنین مدلی، این طلاست، چون دادههای بیشتری دارم که میتوانم مدل را روی آن بنا کنم”.
واحد ۸۲۰۰ ارتش اسرائیل به میلیونها مکالمه دسترسی دارد و این برای توسعۀ مدل ضروری است. همین منبع توضیح می دهد که “عربی محاورهای دادهای است که [تقریباً] در اینترنت وجود ندارد، رونوشتهایی از مکالمات یا چتهای واتساپ در اینترنت وجود ندارد. یعنی به مقدار لازم برای ساخت چنین مدلی وجود ندارد.
“واحد ۸۲۰۰ به یک دستگاه متخصص حرفه ای در این زمینه تبدیل شده است“
به گفتۀ “سیدوف”، کار بر روی این پروژه از نوامبر ۲۰۲۲ آغاز شد. مدل زبانی (Chat GPT) برای اولین بار در دسترس عموم قرار گرفت و در سازمان اطلاعات، یک تیم اختصاصی تشکیل شد تا بررسی کند چگونه می توان از این فناوری تولیدی برای اهداف اطلاعاتی و نظامی استفاده کرد. او در سخنرانی خود گفت: “ما گفتیم وای… مثل (Chat GPT)، حالا همۀ عوامل اطلاعاتی (جاسوسان) را با ابزارهای هوش مصنوعی جایگزین می کنیم، و هر پنج دقیقه این ابزارهای تجسسی تمام اطلاعات دخیره شده در اسرائیل را می خوانند و می گویند تروریست بعدی چه کسی خواهد بود”.
اما این واحد نتوانست آنطور که می خواست پیشرفت کند. شرکت (OpenAI ) درخواست واحد ۸۲۰۰ برای دسترسی مستقیم به موتور زبانی و وارد کردن آن به سیستم داخلی و قطع شده از اینترنت این واحد را رد کرد، و مدلهای موجود شرکتهای دیگر فقط توانستند اطلاعات را به عربی رسمی و نه محاورهای پردازش کنند.
نقطۀ عطف با شروع جنگ اتفاق افتاد. منابع گفتند که پس از ۷ اکتبر، متخصصان “درجه یک” اسرائیلی در مدلهای زبانی، که از جمله از شرکتهای متا، گوگل و مایکروسافت آمده بودند، به خدمت ذخیره در واحد ۸۲۰۰ فراخوانده شدند و در پروژۀ توسعه یک مدل زبانی بزرگ و مستقل مشارکت کردند. یک منبع امنیتی که در این پروژه کار می کرد گفت که جنگ باعث شد افراد کاردانی از این صنعت، با دانشی که “قبلاً به هیچوجه در دسترس نبود، و فراتر از یک گروه بسیار محدود از شرکتها در جهان”، به واحد ۸۲۰۰ بیایند. به لطف متخصصانی که از بازار غیرنظامی آمدند، واحد یادشده ۸۲۰۰ به متخصص حرفه ای در این زمینه تبدیل شد و با هزینۀ دهها میلیون دلار مزرعۀ سِروِرهای پیشرفته ای برای ساخت مدل زبانی خریداری کرد.
(شرح عکس: متخصصان اسرائیلی از جمله از متا، گوگل و مایکروسافت به خدمت ذخیره در واحد ۸۲۰۰ فراخوانده شدند و در پروژه مشارکت کردند. دفتر مایکروسافت در هرتزلیا (عکس: گیل یاری / فلش۹۰)
“اوری گوشن”، مدیرعامل شرکت (۲۱AI ) که در مدلهای زبانی تخصص دارد، به “مکالمۀ محلی” و “گاردین” گفت که کارمندان شرکتش در این پروژه مشارکت داشته اند: “یک سازمان امنیتی، از نظر قانونی ظاهراً نمیتواند با سرویسی مانند (Chat GPT) کار کند، بنابرین نیاز به برنامه ریزی دربارۀ چگونگی اجرای هوش مصنوعی در یک سیستم اختصاصی و ایزوله وجود دارد”.
او گفت که مدلهای زبانی بزرگ مانند این میتوانند به سازمانهای اطلاعاتی کمک کنند تا لیست افراد مظنون را درست کنند، اطلاعات را پردازش کنند و به پاسخهایی که بین چندین منبع اطلاعاتی پراکنده است، به سرعت دست یابند. اما قدرت اصلی آنها توانایی یافتن اطلاعات نه از طریق “ابزارهای جستجوی ابتدایی”، بلکه صرفاً “پرسیدن و پاسخ گرفتن” است. گوشن توضیح داد که میتوان از یک ربات اطلاعاتی پرسید آیا دو نفر هرگز با هم ملاقات کرده اند یا با یک کلیک فهمید که آیا فردی هرگز کار خاصی انجام داده است.
“کمپبل” گفت مدلهای زبانی بزرگ مثل “ماشینهای حدس بزن” است و اشتباهات آنها ذاتی سیستم است. “این حدسها میتواند برای متهم کردن افراد بکار رود”.
“استفادۀ غیرقابل قبول“
واحد ۸۲۰۰ یگانه ارگان یا سازمانی نیست که تلاش می کند ابزارهای هوش مصنوعی تولیدی را توسعه دهد. CIA آمریکا ابزاری شبیه به (Chat GPT) توسعه داده است تا اطلاعات موجود در اینترنت را تحلیل کند، و سازمانهای اطلاعاتی بریتانیا نیز در حال توسعۀ مدلهای زبانی بزرگ برای خود هستند. اما مقامات سابق امنیتی بریتانیا و آمریکا گفتند که جامعۀ اطلاعاتی اسرائیل ریسکهای بزرگتری نسبت به آمریکا یا بریتانیا در مورد ادغام سیستمهای هوش مصنوعی در تحلیل اطلاعاتی میپذیرد.
یک مدیر سابق در یک سازمان اطلاعاتی غربی گفت که جمع آوری گستردۀ محتوای ارتباطی فلسطینیها، به سازمان اطلاعات نظامی اسرائیل اجازه می دهد تا از هوش مصنوعی به روشی “غیرقابل قبول” برای سازمانهای اطلاعاتی برخی کشورهای دیگر استفاده کند، منظور کشورهایی است که نظارت دقیقتری بر استفاده از ابزارهای نظارتی و مدیریت داده های حساس افراد دارند.
“بریانا رزن”، مقام سابق امنیتی در کاخ سفید واشنگتن و اکنون محقق در امور ارتش و امنیت در دانشگاه آکسفورد، گفت: یک محقق اطلاعاتی که از ابزاری مانند (Chat GPT) استفاده می کند میتواند “خطراتی را شناسایی کند که انسانها ممکن است قبل از وقوع نتوانند آن را حدس بزنند، اما آن محقق چگونه میداند که [ابزارش] یک ارتباط را اشتباه پیدا کرده یا به نتیجۀ نادرست رسیده است؟” به گفتۀ او، مهم است که سازمانهای اطلاعاتی بر این فناوری نظارت قابل توجهی داشته باشند و منطق پشت تصمیمات آن را درک کنند.
مکالمۀ محلی ـ ۵ مارس ۲۰۲۵
https://www.972mag.com/israeli-intelligence-chatgpt-8200-surveillance-ai/
یووال آبراهام یک روزنامه نگار و فیلمساز ساکن اورشلیم است.