back to top
خانهدیدگاه هابرای تشدید نظارت بر مردم فلسطین، اسرائیل در حال توسعه ابزاری شبیه...

برای تشدید نظارت بر مردم فلسطین، اسرائیل در حال توسعه ابزاری شبیه به (ChatGPT) است.

تحقیقات مشترکی نشان می‌دهد که ارتش اسرائیل در حال ساخت یک مدل زبانی مبتنی بر هوش مصنوعی است که از میلیون‌ها مکالمه رهگیری‌شده میان فلسطینیان تغذیه می‌شود. این فناوری می‌تواند روند متهم‌سازی و بازداشت را تسریع کند

نویسنده: یووال آبراهام ترجمۀ حماد شیبانی

ـ واحد ۸۲۰۰ ارتش اسرائیل در حال ساخت نوعی زبان عربی با میلیاردها کلمه برای تجسس در تمام شئون و احوالات فلسطینی هاست. متخصصان این امر در ارتش به (Chat GPT) حسادت کردند و برای تشدید نظارت بر فلسطینی‌ها تصمیم گرفتند از “مقادیر جنون آمیزی” داده های اطلاعاتی برای ساخت ابزاری به عنوان زبانی از عربی محاوره‌ای با لهجه های محلی استفاده کنند. کارشناسان می‌گویند به این ترتیب “فلسطینی‌ها به ابژه‌های آزمایشگاهی تبدیل شده‌اند تا هوش مصنوعی را به سلاح تبدیل کنند”.

واحد موسوم به ۸۲۰۰ در ارتش اسرائیل شروع به ساختن یک مدل هوش مصنوعی جدید و قدرتمند کرده که شبیه به (Chat GPT) است و بر اساس حجم زیادی از مکالمات محاوره‌ای فلسطینی‌ها در مناطق اشغالی ساخته شده است. این موضوع  در تحقیقات مشترک نشریات “مکالمۀ محلی” در اسرائیل  و “گاردین” روشن شده است.

“ارتش خود به هوش مصنوعی برای استفاده های جنگی نیاز داشت و “مایکروسافت” امکان آن را فراهم کرد.”

در حالی که مدل‌های زبانی بزرگ در بازار غیرنظامی، مانند  (Chat GPT)، بر اساس میلیاردها متن عمومی که از اینترنت برگرفته شده است، به زبانهای انگلیسی و زبانهای بسیار دیگری ساخته شده‌ است، ابزار جدید واحد ۸۲۰۰، که به عنوان “مدل زبانی بزرگ” (LLM)  تعریف شده است، از “مقادیر جنون آسائی” از داده های اطلاعاتی تغذیه می‌کند.

سه منبع امنیتی وآگاه به تکنیک،  در مورد ابزار جدید گفته اند که هدف این مدل “پاسخ به سؤالات” مأموران اطلاعاتی، دربارۀ هر موضوعی، در مورد افرادی است که تحت نظر هستند. این وسیله به بازجوها کمک می‌کند تا اطلاعات را به سرعت پردازش کنند. یکی از آنها اشاره کرد که این ابزار جدید بر اساس استفادۀ صد میلیارد کلمۀ عربی محاوره‌ای ساخته شده است.

“ما به دنبال ایجاد یک مجموعه از داده های اطلاعاتی، تا حد امکان بزرگ و وسیع، بودیم، تا بتوانیم تمام اطلاعاتی را که دولت اسرائیل تا به حال، به زبان عربی، جمع‌آوری کرده است یکجا ذخیره کنیم”، این توضیحی است که توسط افسر اطلاعاتی “شاکد راجر سیدوف”، که خود را به عنوان رهبر پروژه معرفی کرد، در یک سخنرانی عمومی در کنفرانس سال گذشته بیان شد.

استفاده از اطلاعات جمع آوری شده از طریق نظارت بر جمعیتی غیرنظامی که تحت حکومت نظامی زندگی می‌کنند، مسائل اخلاقی جدی را برمی‌انگیزد.

“زک کمپبل”، محقق ارشد فناوری در سازمان  (Human Rights Watch ) گفت:

“ما در مورد اطلاعات بسیار شخصی صحبت می‌کنیم، این اطلاعات از افرادی گرفته شده‌  که به هیچ جرمی مشکوک یا متهم نیستند، اما این داده ها بعداً می‌تواند به ایجاد یا اثبات سوءظن کمک کند، ما از این اطلاعات برای ساختن ابزار جدید استفاده می کنیم”.

پرسش فقط دربارۀ [نقض] حریم خصوصی نیست، بلکه دربارۀ قدرت نیز هست”، یک منبع اطلاعاتی که توسعۀ مدلهای زبانی در آمان (سازمان اطلاعات نظامی اسرائیل) را در سالهای اخیر از نزدیک دنبال کرده است، گفت: “هوش مصنوعی قدرت را افزایش می ‌دهد. این امکان را فراهم می‌ کند که بر اطلاعات تعداد بسیار بیشتری از افراد عمل شود و این کنترل بر جمعیت را ممکن می ‌سازد. این فقط دربارۀ حملات تیراندازی و یا شلیک، از نوعی، نیست. من می‌توانم فعالان حقوق بشر، و یا ساخت ‌و ساز فلسطینی‌ها در مناطق C را زیر نظر بگیرم. به این وسیله امکان بیشتری برای دانستن آنچه هر فرد در کرانۀ باختری انجام می ‌دهد، در اختیار دارم. وقتی شما این حجم از اطلاعات را در اختیار دارید، می‌توانید آن را به سوی هر هدفی که می‌ خواهید هدایت کنید. و ارتش اسرائیل محدودیتهای بسیار کمی در این زمینه دارد.”

توسعۀ این مدل زبانی، بر اساس “میزان جنون آسای” ذخیرۀ داده های اطلاعاتی، در واقع ادامۀ نظارت گسترده بر فلسطینی‌ها در مناطق اشغالی است که اسرائیل طی دهه‌ها انجام داده است. در سال ۲۰۱۴، سربازانی که در واحد ۸۲۰۰ خدمت کرده‌ بودند، شهادت دادند که افراد بیگناهی را که به هیچ فعالیت نظامی علیه اسرائیل مرتبط نبودند زیر نظر گرفته‌اند و در چارچوب این نظارت، اطلاعاتی جمع‌آوری کرده‌اند که می‌تواند برای باج‌ گیری استفاده شود، مانند وضعیت اقتصادی بد، گرایشهای جنسی یا بیماری شدید خود آنها یا یکی از اعضای خانواده ‌شان. همچنین، آنها شهادت دادند که فعالان سیاسی را نیز زیر نظر گرفته‌اند.

امروز، حتی قبل از تلاش برای توسعۀ یک مدل شبیه به (Chat GPT) برای زبان عربی محاوره‌ای، واحد ۸۲۰۰ از مدلهای زبانی کوچکتری استفاده می‌کند که امکان طبقه ‌بندی اطلاعات، رونویسی مکالمات و جستجوی کلیدواژه‌ها را بطور مؤثر فراهم می‌کند. منابع اطلاعاتی گفتند که نظارت گسترده و استفاده از این مدلها به حد قابل توجهی تعداد دستگیریهای فلسطینی‌ها در مناطق اشغالی را افزایش داده و کنترل بر جمعیت را عمیقتر کرده است. یک منبع اطلاعاتی ادعا می کند که: “با گسترش پوشش و گسترش داده‌ها، تعداد زیادی از مظنونین وجود دارند که ارتباط آنها با موارد مشکوک، ضعیف است و حتی گاهی اوقات اشتباه فهمیده می شود، اما نامشان درلیست افراد مظنون هست و اطلاعاتی دربارۀ آنها وجود دارد. اگر کسی بخواهد آنها را دستگیر کند، بهانه ‌ای خواهد داشت”.

تفاوت اساسی بین مدلهای کوچکتری که در حال حاضر استفاده می‌شود و مدل بزرگ در حال توسعه، اینست که مدل جدید از مکالمات روزمره بدون ارزش اطلاعاتی نیز استفاده می‌ کند. یک منبع امنیتی می گوید: مثلاً، “کسی با کسی تماس می‌گیرد و می‌گوید بیرون بیاید چون منتظر او در بیرون از مدرسه است، این یک مکالمۀ عادی است، جالب نیست. اما از نظر چنین مدلی، این طلاست، چون داده‌های بیشتری دارم که می‌توانم مدل را روی آن بنا کنم”.

واحد ۸۲۰۰ ارتش اسرائیل به میلیونها مکالمه دسترسی دارد و این برای توسعۀ مدل ضروری است. همین منبع توضیح می دهد که “عربی محاوره‌ای داده‌ای است که [تقریباً] در اینترنت وجود ندارد، رونوشتهایی از مکالمات یا چتهای واتس‌اپ در اینترنت وجود ندارد. یعنی  به مقدار لازم برای ساخت چنین مدلی وجود ندارد.

 

واحد ۸۲۰۰ به یک دستگاه متخصص  حرفه ای در این زمینه تبدیل شده است

به گفتۀ “سیدوف”، کار بر روی این پروژه از نوامبر ۲۰۲۲ آغاز شد. مدل زبانی  (Chat GPT) برای اولین بار در دسترس عموم قرار گرفت و در سازمان اطلاعات، یک تیم اختصاصی تشکیل شد تا بررسی کند چگونه می ‌توان از این فناوری تولیدی برای اهداف اطلاعاتی و نظامی استفاده کرد. او در سخنرانی خود گفت: “ما گفتیم وای… مثل (Chat GPT)، حالا همۀ عوامل اطلاعاتی (جاسوسان) را با ابزارهای هوش مصنوعی جایگزین می ‌کنیم، و هر پنج دقیقه این ابزارهای تجسسی تمام اطلاعات دخیره شده در اسرائیل را می‌ خوانند و می‌ گویند تروریست بعدی چه کسی خواهد بود”.

اما این واحد نتوانست آنطور که می‌ خواست پیشرفت کند. شرکت (OpenAI ) درخواست واحد ۸۲۰۰ برای دسترسی مستقیم به موتور زبانی و وارد کردن آن به سیستم داخلی و قطع‌ شده از اینترنت این واحد را رد کرد، و مدلهای موجود شرکتهای دیگر فقط توانستند اطلاعات را به عربی رسمی و نه محاوره‌ای پردازش کنند.

نقطۀ عطف با شروع جنگ اتفاق افتاد. منابع گفتند که پس از ۷ اکتبر، متخصصان “درجه یک” اسرائیلی در مدلهای زبانی، که از جمله از شرکتهای متا، گوگل و مایکروسافت آمده بودند، به خدمت ذخیره در واحد ۸۲۰۰ فراخوانده شدند و در پروژۀ توسعه یک مدل زبانی بزرگ و مستقل مشارکت کردند. یک منبع امنیتی که در این پروژه کار می ‌کرد گفت که جنگ باعث شد افراد کاردانی از این صنعت، با دانشی که “قبلاً به هیچوجه در دسترس نبود، و فراتر از یک گروه بسیار محدود از شرکتها در جهان”، به واحد ۸۲۰۰ بیایند. به لطف متخصصانی که از بازار غیرنظامی آمدند، واحد یادشده ۸۲۰۰ به متخصص حرفه ای در این زمینه تبدیل شد و با هزینۀ ده‌ها میلیون دلار مزرعۀ سِروِرهای پیشرفته‌ ای برای ساخت مدل زبانی خریداری کرد.

(شرح عکس: متخصصان اسرائیلی از جمله از متا، گوگل و مایکروسافت به خدمت ذخیره در واحد ۸۲۰۰ فراخوانده شدند و در پروژه مشارکت کردند. دفتر مایکروسافت در هرتزلیا (عکس: گیل یاری / فلش۹۰)

“اوری گوشن”، مدیرعامل شرکت (۲۱AI  ) که در مدلهای زبانی تخصص دارد، به “مکالمۀ محلی” و “گاردین” گفت که کارمندان شرکتش در این پروژه مشارکت داشته ‌اند: “یک سازمان امنیتی، از نظر قانونی ظاهراً نمی‌تواند با سرویسی مانند (Chat GPT)  کار کند، بنابرین نیاز به برنامه ریزی دربارۀ چگونگی اجرای هوش مصنوعی در یک سیستم اختصاصی و ایزوله وجود دارد”.

او گفت که مدلهای زبانی بزرگ مانند این‌ می‌توانند به سازمانهای اطلاعاتی کمک کنند تا لیست افراد مظنون را درست کنند، اطلاعات را پردازش کنند و به پاسخهایی که بین چندین منبع اطلاعاتی پراکنده‌ است، به سرعت دست یابند. اما قدرت اصلی آنها توانایی یافتن اطلاعات نه از طریق “ابزارهای جستجوی ابتدایی”، بلکه صرفاً “پرسیدن و پاسخ گرفتن” است. گوشن توضیح داد که می‌توان از یک ربات اطلاعاتی پرسید آیا دو نفر هرگز با هم ملاقات کرده‌ اند یا با یک کلیک فهمید که آیا فردی هرگز کار خاصی انجام داده است.

“کمپبل” گفت مدلهای زبانی بزرگ مثل “ماشینهای حدس‌ بزن” است و اشتباهات آنها ذاتی سیستم است. “این حدسها می‌تواند برای متهم کردن افراد بکار رود”.

 

استفادۀ غیرقابل قبول

واحد ۸۲۰۰ یگانه ارگان یا سازمانی نیست که تلاش می ‌کند ابزارهای هوش مصنوعی تولیدی را توسعه دهد.  CIA  آمریکا ابزاری شبیه به (Chat GPT) توسعه داده است تا اطلاعات موجود در اینترنت را تحلیل کند، و سازمانهای اطلاعاتی بریتانیا نیز در حال توسعۀ مدلهای زبانی بزرگ برای خود هستند. اما مقامات سابق امنیتی بریتانیا و آمریکا گفتند که جامعۀ اطلاعاتی اسرائیل ریسکهای بزرگتری نسبت به آمریکا یا بریتانیا در مورد ادغام سیستمهای هوش مصنوعی در تحلیل اطلاعاتی می‌پذیرد.

یک مدیر سابق در یک سازمان اطلاعاتی غربی گفت که جمع‌ آوری گستردۀ محتوای ارتباطی فلسطینی‌ها، به سازمان اطلاعات نظامی اسرائیل اجازه می ‌دهد تا از هوش مصنوعی به روشی “غیرقابل قبول” برای سازمانهای اطلاعاتی برخی کشورهای دیگر استفاده کند، منظور کشورهایی است که نظارت دقیقتری بر استفاده از ابزارهای نظارتی و مدیریت داده‌ های حساس افراد دارند.

“بریانا رزن”، مقام سابق امنیتی در کاخ سفید واشنگتن و اکنون محقق در امور ارتش و امنیت در دانشگاه آکسفورد، گفت: یک محقق اطلاعاتی که از ابزاری مانند (Chat GPT) استفاده می ‌کند می‌تواند “خطراتی را شناسایی کند که انسانها ممکن است قبل از وقوع نتوانند آن را حدس بزنند، اما آن محقق چگونه می‌داند که [ابزارش] یک ارتباط را اشتباه پیدا کرده یا به نتیجۀ نادرست رسیده است؟” به گفتۀ او، مهم است که سازمانهای اطلاعاتی بر این فناوری نظارت قابل توجهی داشته باشند و منطق پشت تصمیمات آن را درک کنند.

مکالمۀ محلی ـ ۵ مارس ۲۰۲۵

https://www.972mag.com/israeli-intelligence-chatgpt-8200-surveillance-ai/

یووال آبراهام یک روزنامه نگار و فیلمساز ساکن اورشلیم است.

اخبار مرتبط

دیدگاه خود را بنویسید

لطفا دیدگاه خود را وارد کنید
لطفا نام خود را اینجا وارد کنید