تاریخ : دوشنبه, ۲۶ آبان , ۱۴۰۴ Monday, 17 November , 2025

هوش مصنوعی در خدمت اشغالگری؛ ارتش اسرائیل و فانتزی «جنگ اخلاقی»

  • کد خبر : 64611
  • ۲۶ شهریور ۱۴۰۴ - ۷:۲۰
هوش مصنوعی در خدمت اشغالگری؛ ارتش اسرائیل و فانتزی «جنگ اخلاقی»

به گزارش اخبار جهان به نقل از باشگاه خبرنگاران جوان، تحولات پنج سال اخیر در ارتش اسرائیل، که توسط جرزالم پست “انقلاب دیجیتال در جنگ” توصیف شده است، فراتر از یک تغییر تکنولوژیکی صرف بوده و نمایانگر روندی خطرناک در به کارگیری هوش مصنوعی و داده‌های بزرگ برای مشروعیت‌بخشی به خشونت سازمان‌یافته علیه ملت‌های تحت […]

به گزارش اخبار جهان به نقل از باشگاه خبرنگاران جوان، تحولات پنج سال اخیر در ارتش اسرائیل، که توسط جرزالم پست “انقلاب دیجیتال در جنگ” توصیف شده است، فراتر از یک تغییر تکنولوژیکی صرف بوده و نمایانگر روندی خطرناک در به کارگیری هوش مصنوعی و داده‌های بزرگ برای مشروعیت‌بخشی به خشونت سازمان‌یافته علیه ملت‌های تحت اشغال است. روایت رسمی، ارتش اسرائیل را به عنوان یک “ماشین جنگی شبکه‌محور” معرفی می‌کند که قادر به انجام عملیات همزمان در خشکی، دریا، هوا و فضای سایبری است؛ سیستمی که می‌تواند اهداف را در عرض چند ساعت شناسایی و با سرعتی بی‌سابقه به آن‌ها حمله کند. اما در لایه‌های عمیق‌تر این تحولات، مسئله اصلی نه نوآوری فناورانه، بلکه دیجیتالی شدن آپارتاید و سیستماتیک شدن کشتار است.

جرزالم پست، روایت خود را با ستایش از ژنرال بازنشسته آویو کوچاوی آغاز می‌کند؛ فردی که ارتش اسرائیل را از سیستم‌های قدیمی و منسوخ به سمت میدان جنگ دیجیتال رهبری کرد. امروزه، صدها متخصص مشغول طراحی مدل‌های هوش مصنوعی هستند تا جریان داده‌ها را از پهپادها، سیستم‌های شنود و نظارت به مراکز فرماندهی منتقل کنند. بر اساس این گزارش، بدون این تحول، حداقل ۵۰۰۰ سرباز اسرائیلی بیشتر کشته می‌شدند و هزاران نیروی مقاومت نیز جان خود را از دست می‌دادند. این گزارش، به ظاهر فنی، در واقع بازتابی از منطق برتری‌طلبانه صهیونیستی است: ارزش جان یک سرباز اسرائیلی به مراتب بیشتر از جان یک فلسطینی تلقی می‌شود. بنابراین، فناوری باید به گونه‌ای به کار گرفته شود که تلفات اشغالگران به حداقل برسد، حتی اگر این به معنای کشتار گسترده غیرنظامیان در غزه یا لبنان باشد. پرسش کلیدی اینجاست که در این “نجات” ۵۰۰۰ سرباز، چه تعداد کودک، زن و غیرنظامی جان خود را از دست داده‌اند؟

در سال ۲۰۰۹، ارتش اسرائیل سالانه حدود ۵۰ تا ۱۰۰ هدف جدید شناسایی می‌کرد. اما امروزه، طبق ادعای جرزالم پست، این عدد به ۴۰۰ هدف در روز افزایش یافته است. این جهش شگفت‌آور، حاصل ترکیب هوش مصنوعی با کلان‌داده‌ها است: الگوریتم‌ها داده‌های شنود، تصاویر ماهواره‌ای، ویدئوهای پهپاد و حتی اطلاعات تلفن‌های همراه را تحلیل کرده و به سرعت “اهداف بالقوه” را شناسایی می‌کنند. اما پشت این زبان سرد و فنی، واقعیتی خونین پنهان است: هر “هدف” می‌تواند یک خانه مسکونی، مدرسه‌ای در غزه یا کلینیکی در لبنان باشد. با توجه به ادعای اسرائیل مبنی بر اینکه ۸۰ درصد از حملات اخیر با استفاده از هوش مصنوعی انجام شده‌اند، می‌توان نتیجه گرفت که هزاران انسان قربانی الگوریتم‌هایی شده‌اند که هیچ ارزشی برای جان فلسطینیان قائل نیستند. اسرائیل ادعا می‌کند که این الگوریتم‌ها “غیرنظامیان را از مبارزان تفکیک می‌کنند”، اما گزارش‌های مستقل بارها نشان داده‌اند که این سیستم‌ها مرتکب خطاهای فاجعه‌باری شده‌اند؛ بمباران بیمارستان‌ها، مدارس و پناهگاه‌ها نمونه‌هایی از این خطاها هستند. این خطاها تصادفی نیستند؛ بلکه جزئی از ساختار سیستماتیک یک جنگ نابرابر هستند که تحت پوشش “هوش مصنوعی اخلاقی” توجیه می‌شوند.

ارتش اسرائیل ادعا می‌کند که “انسان‌ها همیشه در حلقه تصمیم‌گیری حضور دارند” تا حملات مطابق با قوانین بین‌المللی باشد. اما این توجیه بیشتر به یک ترفند تبلیغاتی می‌ماند تا واقعیت عملی. هنگامی که سیستم‌ها صدها هدف را در روز شناسایی می‌کنند و فرماندهان تحت فشار سرعت و حجم بالای داده‌ها قرار دارند، امکان بررسی انسانی واقعی به شدت کاهش می‌یابد. به عبارت دیگر، حضور انسان در حلقه تصمیم‌گیری بیشتر نمادین است؛ ماشینی که می‌چرخد و فرمانده‌ای که صرفاً مهر تأیید می‌زند. از سوی دیگر، قوانین بین‌المللی خود در جهان سیاست به صورت دوگانه تفسیر می‌شوند. اسرائیل و حامیان غربی آن بارها نشان داده‌اند که تعریف آن‌ها از “اهداف مشروع” بسیار گسترده است و شامل ایستگاه‌های برق، دفاتر رسانه‌ای، خانه‌های مسکونی و حتی کاروان‌های امدادی می‌شود. در چنین شرایطی، چه فرقی می‌کند که الگوریتم هدف را انتخاب کند یا یک افسر؟ نتیجه یکی است: تخریب زیرساخت‌های حیاتی و قتل غیرنظامیان.

اخبار جهان به نقل از جرزالم پست به “چالش فرهنگی” در ارتش اسرائیل اشاره می‌کند: افسران ارشد در برابر دیجیتالی شدن مقاومت می‌کردند، اما در نهایت با آن کنار آمدند. این رسانه اسرائیلی این مقاومت را به عبور از “دریای سرخ” تشبیه می‌کند، گویی یک مانع الهی بر سر راه “پیشرفت” برداشته شده است. اما واقعیت آن است که این “چالش فرهنگی” چیزی جز تردید اخلاقی اولیه نسبت به سپردن مرگ و زندگی به دست الگوریتم‌ها نبود. با گذشت زمان، هنگامی که کشتار دیجیتالی نهادینه شد و مقاومت درونی افسران شکست خورد، طبیعی‌سازی خشونت الگوریتمیک آغاز شد. از این پس، قتل با هوش مصنوعی نه تنها غیرعادی نیست، بلکه به عنوان “پیشرفت نظامی” جشن گرفته می‌شود.

حمله حماس در ۷ اکتبر ۲۰۲۳ نکته مهمی را آشکار کرد: اتکای مطلق به فناوری بدون دانش انسانی کافی کافی نیست. اسرائیل، علی‌رغم میلیاردها دلار سرمایه‌گذاری در هوش مصنوعی و داده‌های بزرگ، نتوانست حمله‌ای را که در برابر چشمانش آماده می‌شد، پیش‌بینی کند. این شکست بیانگر تناقض بنیادین است: هوش مصنوعی شاید بتواند داده‌ها را پردازش کند، اما قادر به درک زمینه اجتماعی و انسانی مقاومت نیست. فناوری نمی‌تواند توضیح دهد که چرا مردمی که دهه‌ها تحت محاصره و اشغال زندگی کرده‌اند، مقاومت می‌کنند. الگوریتم‌ها شاید تونل‌ها و راکت‌ها را شناسایی کنند، اما روح مبارزه انسانی را نمی‌توانند بسنجند. این همان چیزی است که اسرائیل حتی با پیشرفته‌ترین فناوری‌ها هم قادر به مهار آن نخواهد بود.

امروزه، اسرائیل خود را پیشگام “اولین جنگ هوش مصنوعی” می‌نامد. این روایت، اگرچه برای حامیان تل‌آویو نشانه‌ای از برتری فناورانه است، اما برای منطقه و جهان هشداری جدی به شمار می‌رود. اگر کشتار الگوریتمیک به عنوان “جنگ اخلاقی” معرفی و پذیرفته شود، آنگاه در آینده شاهد موجی از جنگ‌های مشابه خواهیم بود؛ جنگ‌هایی که در آن‌ها انسانیت بیش از پیش حذف می‌شود و تصمیم به مرگ و زندگی به دست کدها و مدل‌های آماری سپرده می‌شود. از این منظر، میراث ارتش اسرائیل چیزی جز خطر جهانی شدن خشونت دیجیتال نیست. همان‌طور که تسلیحات هسته‌ای با بمباران هیروشیما و ناکازاکی مشروعیت یافتند و سپس به مسابقه تسلیحاتی بدل شدند، هوش مصنوعی نظامی اسرائیل نیز می‌تواند الگویی خطرناک برای دیگر کشورها شود. نتیجه چیزی جز مسابقه‌ای تازه برای تولید ماشین‌های کشتار دقیق‌تر و سریع‌تر نخواهد بود.

ادعای اسرائیل مبنی بر اینکه هوش مصنوعی جنگ را “اخلاقی‌تر” می‌کند، چیزی جز یک فانتزی تبلیغاتی نیست. واقعیت میدانی در غزه، لبنان و دیگر جبهه‌ها چیز دیگری می‌گوید: هزاران غیرنظامی کشته شده‌اند، زیرساخت‌های حیاتی نابود شده و نسل‌های تازه‌ای از آوارگان شکل گرفته‌اند. دیجیتالی کردن کشتار، خشونت را اخلاقی‌تر نمی‌کند؛ بلکه آن را پنهان‌تر و سردتر می‌سازد. پشت هر “هدف” یک انسان است، یک خانواده، یک زندگی. هوش مصنوعی شاید بتواند داده‌ها را پردازش کند، اما نمی‌تواند ارزش جان انسان‌ها را درک کند. به همین دلیل، هرچند ارتش اسرائیل می‌کوشد خود را به‌عنوان پیشگام جنگ‌های آینده معرفی کند، اما در حقیقت تنها کاری که انجام داده، تبدیل آپارتاید و اشغالگری به یک پروژه فناورانه پر زرق و برق است. آینده‌ای که آنها وعده می‌دهند نه آینده امنیت و اخلاق، بلکه آینده‌ای است که در آن جنگ به یک صنعت دیجیتال بی‌پایان بدل می‌شود.

منبع: باشگاه خبرنگاران جوان

لینک کوتاه : https://akhbarjahan.news/?p=64611
 

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.