اللجنة القانونية

الروبوتات القاتلة… اين المجتمع الدولي من حماية البشرية؟؟

الروبوتات القاتلة… اين المجتمع الدولي من حماية البشرية؟؟

بقلم.. أثير هلال الدليمي

باحث في القانون الدولي

متخصص في مكافحة الجرائم السيبرانية

عضو المنتدى العراقي للنخب والكفاءات ، اللجنة القانونية

الروبوتات القاتلة هي أنظمة رقمية مستقلة مزودة بأسلحة فتاكة ذكية يمكنها القتال والعمل بشكل مستقل عن سيطرة الإنسان وتعد من اخطر الاسلحة على سلامة البشرية بل واخطر من الاسلحة النووية

ان الاسئلة التي يقع عاتق الدول الرافضة لتبني اي مشروع يحظر تصنيعها او تطويرها او المتاجرة بها الاجابة عليها وهي. 

* كيف نمنع روبوت مبرمج مسبقًا للقتال من ارتكاب جرائم إبادة جماعية أو جرائم دمار شامل؟ 

* كيف سنتمكن من تطبيق قوانين الحرب الدولية على الروبوتات لوقف جرائم الحرب والانتهاكات التي تطال الاعلانات العالمية والقانون الدولي لحقوق الانسان وكذلك القانون الدولي الانساني؟ 

* كيف يمكننا ان نضمن أن أنظمة الأسلحة الروبوتية لن تخرج عن سيطرة الإنسان وربما تنهي حياة من برمجها؟ 

ان الواقع العملي والفني البرمجي لأنظمة الأسلحة الروبوتية المقاتلة يشير إلى ان اهدافها المختارة تحدد مسبقا وتتم مهاجمتها دون أن يكون لمبرمجها اي دور في تسيير قراراتها سوى البرمجة وكتابة الخوارزميات التي تتعلق بالتعامل مع اهدافها مسبقا، وتجدر الاشارة الى ان الطائرات بدون طيار المسلحة هي أحدى ابسط الأمثلة على الروبوتات القاتلة ولكن ربما يكون لمن يتعامل معها نوع من السيطرة الجزئية عليها والتعامل معها. 

ووفقًا لتقرير مجلس الأمن وهو احد الاجهزة الرئيسية التابعة للأمم المتحدة بشأن الحرب الأهلية الليبية فقد أشار الى ان الروبوتات القاتلة استخدمت مؤخرا بشكل لا انساني وقد استهدفت عدد لا يستهان به من السكان الابرياء في حربها الاهلية، كما وان هذا النوع من الاسلحة قد استخدم في اوقات سابقة من قبل القوات الامريكية عند احتلالها للعراق وارتكابها من خلال هذه الاسلحة جرائم انسانية مخالفة لكل الاعراف والقوانين الدولية.

ان العديد من الدول الصناعية الكبرى في مجال الصناعات العسكرية وفي مقدمتها الولايات المتحدة الامريكية وروسيا يسعيان الى افشال اي مشروع لقانون دولي يحظر استخدام هذا النوع من الاسلحة، ناهيك عن ان باقي الدول تتسابق فيما بينها وبقوة في البحوث والتصنيع والتطوير لهذه الاسلحة الذكية القاتلة. 

وللحد من انتشار هذا النوع الاسلحة التي تهدد السلم والامن الدوليين، بادرت العديد من منظمات حقوق الإنسان، والمنظمات الإنسانية رفضها واستنكارها واستهجانها لهذا النوع من الاسلحة ومطالباتها الشديدة للمجتمع الدولي على تبني وضع قوانين ولوائح تحظر الصناعة والتطوير والمتاجرة والاستخدام غير الشرعي لهذه الأسلحة الفتاكة كما تطالب بتجريم وتحديد المسؤولية التقصيرية الدولية عن اخطائها لمن يتسبب فيها، اذ بدون مثل هذه القوانين واللوائح، فإن الروبوتات القاتلة ستهدد الاستراتيجيات النووية الحالية وستزيد من مخاطر الهجمات العسكرية وستكون مصدر لتهديد الامن والسلم الدوليين والبشرية برمتها.

ولا يفوتني ايضا ذكر بعض الاخطاء التكنولوجية التي يمكن ان ترتكبها الروبوتات القاتلة والتي من شأنها ان تتسبب في ارتكابها جرائم حرب وجرائم ضد الانسانية وربما جرائم الابادة جماعية. 

* قلة المشاعر والوعي هما عائقان مهمان أمام الروبوتات المقاتلة في الامتثال لمبادئ الإنسانية. 

*  الخطأ في التحديد الرقمي والقياسي والمنطقي عند اختيار الهدف، كونها لا تميز بين الجنود الحاملين للأسلحة التقليدية وبين الأطفال الذين يحملون الاسلحة كألعاب مسلية لهم. 

* ليس لها القدرة على التمييز بين المدنيين الفارين او الهاربين من مواقع الصراع والنزاعات المسلحة وبين المتمردين والمسلحين الذين يقومون بتراجع تكتيكي. 

* من المستحيل برمجة القدرة الفطرية لهذه الروبوتات على التمييز بين ما هو صواب وما هو خطأ ومن المستحيل إنشاء خوارزمية تمنح جميع سيناريوهات الحياة الصحيحة والخاطئة.

* إن الحاجة الفطرية لكسب المكافأة وتجنب العقاب تحفز السلوك البشري وتدفع البشر إلى الاهتمام ببعضهم البعض وتجنب إيذاء الآخرين وهذا لا يمكن برمجته في هذه الروبوتات القاتلة. 

من خلال هذه الامثلة البسيطة، سيكون الخطأ الرقمي لهذه الاسلحة أكثر خطورة من الخطأ البشري كون ان تشغيل عدد كبير من الروبوتات القاتلة بنفس الخوارزمية الخاطئة من شان ذلك ان يتسبب في ارتكاب جريمة ابادة جماعية، ناهيك عن ان حجم ونطاق وسرعة أنظمة الروبوتات القاتلة في تنفيذ عملياتها الذي سيحول أي خطأ إلى مجزرة بشرية. 

ان صمت المجتمع الدولي عن تجريم وحظر هذا النوع من الاسلحة وعدم اتخاذ  اية اجراءات وقائية رادعة ومقننة، من شانه ان يتسبب في استحالة احتوائها وحصر انتشارها وتداولها، وبالتالي فأن المنظمات الارهابية والعصابات الاجرامية يمكنها الوصول اليها واستخدامها والتعامل بأنظمتها بمباركة ممن يسيطر  على صنعها بكل تفاصيلها ولاسيما الرافضة لأي تشريع من شأنه أن يحظرها ليساعد في تحقيق مصالحها في تقويض وغياب السلم والامن الدوليين والسيطرة بدافع الحماية لمن يفقدها واستباحة للإجرام بكافة اشكاله. 

وفي الختام فأن إعطاء سلطة اتخاذ القرار للروبوتات الرقمية القاتلة في الحروب والنزاعات المسلحة والعمليات الارهابية والنشاطات الاجرامية يجعل مستقبل الحياة مخيفًا ومرعبا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى