
لم تعد الحروب الحديثة تُدار فقط عبر الطائرات والصواريخ وغرف العمليات التقليدية، بل باتت الخوارزميات جزءاً متقدماً من مسار اتخاذ القرار العسكري. ففي الحرب مع إيران، نفذت الولايات المتحدة وإسرائيل خلال فترة قصيرة عدداً كبيراً من الهجمات على أهداف عسكرية وشخصيات بارزة في النظام الإيراني. ويرى خبراء، وفق تقرير نشره موقع “تاغسشاو”(Tagesschau) التابع للقناة الألمانية الأولى العمومية ARD، أن السرعة اللافتة في تحديد الأهداق وتنسيق الضربات تعود جزئياً إلى الاستخدام المتزايد للذكاء الاصطناعي في تحليل المعلومات وتخطيط العمليات.
خوارزميات في قلب غرفة العمليات
يشير التقرير إلى أن نظاماً يعرف باسم Maven Smart System، وتطوره شركة “بالانتير” (Palantir) الأمريكية، يعد من أبرز الأدوات التي يجري الحديث عنها في هذا السياق. وتقوم هذه المنصة بجمع بيانات من مصادر متعددة، مثل أقمار الاستطلاع والطائرات المسيّرة وأنظمة الرادار، ثم تحليلها بمساعدة الذكاء الاصطناعي وتحويلها إلى صورة عملياتية موحدة أمام القادة العسكريين.
ويساعد الذكاء الاصطناعي في تقليص الوقت اللازم لاتخاذ هذا القرار عبر تحليل كميات ضخمة من البيانات بسرعة كبيرة.
وذكرت صحيفة “واشنطن بوست” أن نموذج الذكاء الاصطناعي التوليدي”كلود” الذي تطوره شركة أنثروبيك دُمج مع نظام “مافن” لتعزيز قدراته في الرصد والمحاكاة. غير أن الشركتين لم تقدما تعليقاً رسمياً بشأن هذه التقارير.
وكان كاميرون ستانلي، كبير مسؤولي التحول الرقمي والذكاء الاصطناعي في وزارة الدفاع الأمريكية، قد عرض النظام في آذار/ مارس خلال مؤتمر لشركة شركة “بالانتير” (Palantir)، موضحاً أن المنصة تجمع مخرجات “ثمانية أو تسعة” أنظمة منفردة في أداة عرض واحدة. وبذلك لا يحتاج المخططون العسكريون إلى الانتقال بين برامج متعددة، بل يرون المعطيات الأساسية في واجهة موحدة، بما يساعد على تسريع التحليل والتخطيط.
ولا يعني ذلك أن النظام يضغط على الزناد بنفسه. فبحسب ما ورد في تقرير تاغسشاو الألماني، تقوم المنصة بتمييز مركبات أو منشآت أو مخازن أسلحة بوصفها أهدافاً محتملة، وتقترح صوراً للموقف وخيارات للتحرك، لكنها لا تتخذ القرار القاتل بصورة مستقلة.
هل أتمت الذكاء الاصطناعي “سلسلة القتل”؟
هنا تظهر النقطة الأكثر حساسية: إلى أي مدى بات الذكاء الاصطناعي يتحكم بما يعرف عسكرياً باسم “Kill Chain”، أي سلسلة الخطوات التي تبدأ بتحديد الهدف وتنتهي بتقييم نتائج الضربة؟
هيكو بورشرت، الخبير في جامعة هيلموت شميت في هامبورغ، وهي جامعة تتبع للجيش الألماني، يحذر من إعطاء انطباع مبالغ فيه مفاده أن الذكاء الاصطناعي سيطر تماماً على هذه السلسلة وأن الإنسان خرج من المعادلة. لكنه يؤكد في الوقت نفسه أن الذكاء الاصطناعي يلعب حالياً دوراً مهماً في تطوير الأهداف وترتيب أولوياتها والمساعدة في تخطيط المهام.
وبحسب هيكو بورشرت، تتكون هذه السلسلة في عقيدة الحرب الجوية الأمريكية من ست مراحل، تبدأ بتحديد الهدف السياسي، مروراً بإعداد قائمة الأهداف واختيار السلاح وتخطيط المهمة، وصولاً إلى تقييم النتائج بعد استخدام القوة. وفي هذه العملية، لا تزال بعض القرارات بشرية بحتة، خصوصاً القرار النهائي باستخدام السلاح. لذلك يقول بورشرت بوضوح إن “سلسلة القتل ليست مؤتمتة”.
وتؤكد وزارة الدفاع الأمريكية بدورها أن نظام Maven Smart System يبقي القرار النهائي بشأن الهجمات بيد البشر. كما تقول شركة “بالانتير”Palantir، وفق ما نقلته تقارير إعلامية، إن برنامجها لا يتخذ قرارات قاتلة، بل يساعد فقط في التحليل والتخطيط.
سرعة قاتلة وأخطاء محتملة
لكن المشكلة لا تكمن فقط في من يتخذ القرار، بل في السرعة التي تدفع الجميع إلى اتخاذه. فكلما قدمت الأنظمة الرقمية “حزم أهداف” بسرعة أكبر، ضاق الوقت المتاح أمام الإنسان للمراجعة والتدقيق والتساؤل.
ويورد تقرير موقع “تاغسشاو”(Tagesschau)، التابع للقناة الألمانية الأولى العمومية ARD، مثالاً على خطورة ذلك من خلال هجوم أصاب، في اليوم الأول من الحرب، مدرسة للبنات كانت في محيط توجد فيه منشآت عسكرية. وتشير التحقيقات الأولية، بحسب النص، إلى احتمال أن تكون صور قديمة قد لعبت دوراً في الخطأ. ولا يوجد دليل قاطع على وجود صلة مباشرة بين الهجوم ونظام ذكاء اصطناعي محدد، لكن الواقعة تكشف مشكلة أساسية: جودة نتائج الذكاء الاصطناعي تعتمد على جودة البيانات التي يتغامل معها. فإذا كانت الصور أو المعلومات قديمة أو ناقصة، قد يصل النظام إلى استنتاجات خاطئة تكون نتائجها مميتة للمدنيين.
مسؤولية أخلاقية
وتحذر إلكه شفارتس، أستاذة العلوم السياسية والباحثة في أخلاقيات الذكاء الاصطناعي العسكري للموقع الألماني من ظاهرة تعرف باسم “Automation Bias”، أي ميل الإنسان، تحت ضغط الوقت، إلى الوثوق باقتراحات الآلة أكثر مما ينبغي. وتقول إن البشر يميلون نفسياً إلى منح الآلة ثقة أكبر مما تستحق أحياناً.
السؤال الأهم هنا ليس تقنياً فقط، بل هو أخلاقي وقانوني أيضاً: إذا اقترحت الخوارزمية هدفاً، ووافق الإنسان بسرعة تحت ضغط العمليات، فمن يتحمل المسؤولية عن الخطأ؟
ترى شفارتس أن الخطر يكمن في الانزلاق التدريجي نحو آلية شبه تلقائية في الحرب. صحيح أن الإنسان يبقى رسمياً داخل دائرة القرار، لكنه يضطر إلى مجاراة سرعة النظام، ما يترك له وقتاً محدوداً للتحقق والتفكير قبل تنفيذ الضربة.
في المقابل، يركز هيكو بورشرت، الخبير في جامعة هيلموت شميت في هامبورغ، وهي جامعة تتبع للجيش الألماني، على مسؤولية القيادة السياسية والغسكرية. فالمشكلة، برأيه، لا تكمن فقط في التكنولوجيا، بل في القرار البشري الذي يسمح باستخدامها بهذا الشكل أو ذاك. وبعبارة أخرى، الخوارزمية قد تسرّع الحرب، لكنها لا تعفي البشر من مسؤولية السماح بالعنف أو منعه.
ويرى خبراء عسكريون أن أهمية الذكاء الاصطناعي تكمن في قدرته على معالجة كم هائل من المعلومات في وقت قصير، فيما تحذر منظمات حقوقية منذ سنوات من خطر فصل القوة العسكريةعن الرقابة البشرية الفعلية. فكلما زادت آلية اختيار الأهداف، صار من الأصعب التحقق من احترام مبادئ القانون الدولي الإنساني، خصوصاً مبدأ التمييز بين المقاتلين والمدنيين ومبدأ التناسب في استخدام القوة.
ويشير موقع تاغسشاو الألماني إلى أن النقاس الدولي حول وضع ضوابط لاستخدام الذكاء الاصطناعي في الحرب مستمر، خصوصاً داخل أطر الأمم المتحدة المعنية بما يعرف باسم “الأسلحة الفتاكة ذاتية التشغيل”. لكن حتى الآن لا يوجد حطر دولي ملزم على الأنظمة القتالية المستقلة بالكامل.
Source link



