به گزارش اخبار جهان به نقل از باشگاه خبرنگاران جوان، تحولات پنج سال اخیر در ارتش اسرائیل، که توسط جرزالم پست “انقلاب دیجیتال در جنگ” توصیف شده است، فراتر از یک تغییر تکنولوژیکی صرف بوده و نمایانگر روندی خطرناک در به کارگیری هوش مصنوعی و دادههای بزرگ برای مشروعیتبخشی به خشونت سازمانیافته علیه ملتهای تحت اشغال است. روایت رسمی، ارتش اسرائیل را به عنوان یک “ماشین جنگی شبکهمحور” معرفی میکند که قادر به انجام عملیات همزمان در خشکی، دریا، هوا و فضای سایبری است؛ سیستمی که میتواند اهداف را در عرض چند ساعت شناسایی و با سرعتی بیسابقه به آنها حمله کند. اما در لایههای عمیقتر این تحولات، مسئله اصلی نه نوآوری فناورانه، بلکه دیجیتالی شدن آپارتاید و سیستماتیک شدن کشتار است.
جرزالم پست، روایت خود را با ستایش از ژنرال بازنشسته آویو کوچاوی آغاز میکند؛ فردی که ارتش اسرائیل را از سیستمهای قدیمی و منسوخ به سمت میدان جنگ دیجیتال رهبری کرد. امروزه، صدها متخصص مشغول طراحی مدلهای هوش مصنوعی هستند تا جریان دادهها را از پهپادها، سیستمهای شنود و نظارت به مراکز فرماندهی منتقل کنند. بر اساس این گزارش، بدون این تحول، حداقل ۵۰۰۰ سرباز اسرائیلی بیشتر کشته میشدند و هزاران نیروی مقاومت نیز جان خود را از دست میدادند. این گزارش، به ظاهر فنی، در واقع بازتابی از منطق برتریطلبانه صهیونیستی است: ارزش جان یک سرباز اسرائیلی به مراتب بیشتر از جان یک فلسطینی تلقی میشود. بنابراین، فناوری باید به گونهای به کار گرفته شود که تلفات اشغالگران به حداقل برسد، حتی اگر این به معنای کشتار گسترده غیرنظامیان در غزه یا لبنان باشد. پرسش کلیدی اینجاست که در این “نجات” ۵۰۰۰ سرباز، چه تعداد کودک، زن و غیرنظامی جان خود را از دست دادهاند؟
در سال ۲۰۰۹، ارتش اسرائیل سالانه حدود ۵۰ تا ۱۰۰ هدف جدید شناسایی میکرد. اما امروزه، طبق ادعای جرزالم پست، این عدد به ۴۰۰ هدف در روز افزایش یافته است. این جهش شگفتآور، حاصل ترکیب هوش مصنوعی با کلاندادهها است: الگوریتمها دادههای شنود، تصاویر ماهوارهای، ویدئوهای پهپاد و حتی اطلاعات تلفنهای همراه را تحلیل کرده و به سرعت “اهداف بالقوه” را شناسایی میکنند. اما پشت این زبان سرد و فنی، واقعیتی خونین پنهان است: هر “هدف” میتواند یک خانه مسکونی، مدرسهای در غزه یا کلینیکی در لبنان باشد. با توجه به ادعای اسرائیل مبنی بر اینکه ۸۰ درصد از حملات اخیر با استفاده از هوش مصنوعی انجام شدهاند، میتوان نتیجه گرفت که هزاران انسان قربانی الگوریتمهایی شدهاند که هیچ ارزشی برای جان فلسطینیان قائل نیستند. اسرائیل ادعا میکند که این الگوریتمها “غیرنظامیان را از مبارزان تفکیک میکنند”، اما گزارشهای مستقل بارها نشان دادهاند که این سیستمها مرتکب خطاهای فاجعهباری شدهاند؛ بمباران بیمارستانها، مدارس و پناهگاهها نمونههایی از این خطاها هستند. این خطاها تصادفی نیستند؛ بلکه جزئی از ساختار سیستماتیک یک جنگ نابرابر هستند که تحت پوشش “هوش مصنوعی اخلاقی” توجیه میشوند.
ارتش اسرائیل ادعا میکند که “انسانها همیشه در حلقه تصمیمگیری حضور دارند” تا حملات مطابق با قوانین بینالمللی باشد. اما این توجیه بیشتر به یک ترفند تبلیغاتی میماند تا واقعیت عملی. هنگامی که سیستمها صدها هدف را در روز شناسایی میکنند و فرماندهان تحت فشار سرعت و حجم بالای دادهها قرار دارند، امکان بررسی انسانی واقعی به شدت کاهش مییابد. به عبارت دیگر، حضور انسان در حلقه تصمیمگیری بیشتر نمادین است؛ ماشینی که میچرخد و فرماندهای که صرفاً مهر تأیید میزند. از سوی دیگر، قوانین بینالمللی خود در جهان سیاست به صورت دوگانه تفسیر میشوند. اسرائیل و حامیان غربی آن بارها نشان دادهاند که تعریف آنها از “اهداف مشروع” بسیار گسترده است و شامل ایستگاههای برق، دفاتر رسانهای، خانههای مسکونی و حتی کاروانهای امدادی میشود. در چنین شرایطی، چه فرقی میکند که الگوریتم هدف را انتخاب کند یا یک افسر؟ نتیجه یکی است: تخریب زیرساختهای حیاتی و قتل غیرنظامیان.
اخبار جهان به نقل از جرزالم پست به “چالش فرهنگی” در ارتش اسرائیل اشاره میکند: افسران ارشد در برابر دیجیتالی شدن مقاومت میکردند، اما در نهایت با آن کنار آمدند. این رسانه اسرائیلی این مقاومت را به عبور از “دریای سرخ” تشبیه میکند، گویی یک مانع الهی بر سر راه “پیشرفت” برداشته شده است. اما واقعیت آن است که این “چالش فرهنگی” چیزی جز تردید اخلاقی اولیه نسبت به سپردن مرگ و زندگی به دست الگوریتمها نبود. با گذشت زمان، هنگامی که کشتار دیجیتالی نهادینه شد و مقاومت درونی افسران شکست خورد، طبیعیسازی خشونت الگوریتمیک آغاز شد. از این پس، قتل با هوش مصنوعی نه تنها غیرعادی نیست، بلکه به عنوان “پیشرفت نظامی” جشن گرفته میشود.
حمله حماس در ۷ اکتبر ۲۰۲۳ نکته مهمی را آشکار کرد: اتکای مطلق به فناوری بدون دانش انسانی کافی کافی نیست. اسرائیل، علیرغم میلیاردها دلار سرمایهگذاری در هوش مصنوعی و دادههای بزرگ، نتوانست حملهای را که در برابر چشمانش آماده میشد، پیشبینی کند. این شکست بیانگر تناقض بنیادین است: هوش مصنوعی شاید بتواند دادهها را پردازش کند، اما قادر به درک زمینه اجتماعی و انسانی مقاومت نیست. فناوری نمیتواند توضیح دهد که چرا مردمی که دههها تحت محاصره و اشغال زندگی کردهاند، مقاومت میکنند. الگوریتمها شاید تونلها و راکتها را شناسایی کنند، اما روح مبارزه انسانی را نمیتوانند بسنجند. این همان چیزی است که اسرائیل حتی با پیشرفتهترین فناوریها هم قادر به مهار آن نخواهد بود.
امروزه، اسرائیل خود را پیشگام “اولین جنگ هوش مصنوعی” مینامد. این روایت، اگرچه برای حامیان تلآویو نشانهای از برتری فناورانه است، اما برای منطقه و جهان هشداری جدی به شمار میرود. اگر کشتار الگوریتمیک به عنوان “جنگ اخلاقی” معرفی و پذیرفته شود، آنگاه در آینده شاهد موجی از جنگهای مشابه خواهیم بود؛ جنگهایی که در آنها انسانیت بیش از پیش حذف میشود و تصمیم به مرگ و زندگی به دست کدها و مدلهای آماری سپرده میشود. از این منظر، میراث ارتش اسرائیل چیزی جز خطر جهانی شدن خشونت دیجیتال نیست. همانطور که تسلیحات هستهای با بمباران هیروشیما و ناکازاکی مشروعیت یافتند و سپس به مسابقه تسلیحاتی بدل شدند، هوش مصنوعی نظامی اسرائیل نیز میتواند الگویی خطرناک برای دیگر کشورها شود. نتیجه چیزی جز مسابقهای تازه برای تولید ماشینهای کشتار دقیقتر و سریعتر نخواهد بود.
ادعای اسرائیل مبنی بر اینکه هوش مصنوعی جنگ را “اخلاقیتر” میکند، چیزی جز یک فانتزی تبلیغاتی نیست. واقعیت میدانی در غزه، لبنان و دیگر جبههها چیز دیگری میگوید: هزاران غیرنظامی کشته شدهاند، زیرساختهای حیاتی نابود شده و نسلهای تازهای از آوارگان شکل گرفتهاند. دیجیتالی کردن کشتار، خشونت را اخلاقیتر نمیکند؛ بلکه آن را پنهانتر و سردتر میسازد. پشت هر “هدف” یک انسان است، یک خانواده، یک زندگی. هوش مصنوعی شاید بتواند دادهها را پردازش کند، اما نمیتواند ارزش جان انسانها را درک کند. به همین دلیل، هرچند ارتش اسرائیل میکوشد خود را بهعنوان پیشگام جنگهای آینده معرفی کند، اما در حقیقت تنها کاری که انجام داده، تبدیل آپارتاید و اشغالگری به یک پروژه فناورانه پر زرق و برق است. آیندهای که آنها وعده میدهند نه آینده امنیت و اخلاق، بلکه آیندهای است که در آن جنگ به یک صنعت دیجیتال بیپایان بدل میشود.
منبع: باشگاه خبرنگاران جوان



























