الذكاء الصناعي في خدمة التسليح
هل الأسلحة ذاتية التحكم أمرٌ حتمي أمْ إنّه بإمكاننا إيقافها قبل أن تستعبد البشر؟
تعمل العديد من حكومات الدول مثل الصين والولايات المتّحدة وروسيا على استغلال التطوّر الحاصل في الذكاء الصناعي من أجل تشغيل ترسانتها من الأسلحة آليَا وجعلها أكثر فتكًا وأقلّ اعتمادًا على التحكّم البشري.
يشبّه بعض العلماء التطوّر الذي تشهده صناعة الأسلحة ذاتيّة التحكّم باختراع البارود أو باختراع الأسلحة النوويّة التي غيّرت فنّ الحرب وشكل العالَم إلى الأبد.
لم تعد شخصيّة المحارب الآلي (تيرميناتور) التي شاهدناها في الأفلام محض خيال، فبفضل تطوّر الذكاء الصناعي قد نرى هذا الأمر قريبًا،
واليوم تعدّ الولايات المتّحدة الأمريكية مفهوم التحكّم الذاتي مقوّم أساسي من مقوّمات تحديث قوّاتها المسلّحة،
كما أنّ روسيا تبنّت عقيدة عسكريّة تقضي بإبعاد رجالها عن مناطق المواجهة المباشرة، وتنوي تحويل ثلث أسلحتها إلى روبوتات بحلول عام 2025.
وقد وصل عدد أنظمة الأسلحة التي تتعرّف على الهدف دون تدخّل بشري إلى 154 نظام في العالَم، ويملك ثلث هذا العدد الصلاحيّة لإطلاق النار دون الرجوع للبشر، وهذه بعض الأمثلة العملية:
1- قناص الغواصات ذاتي التحكم (Sea Hunter)
سفينة أمريكية مسيّرة طولها 40 مترًا ما زالت في طور التجربة، ستتجوّل في المحيطات لمدّة شهرين دون أن يكون على متنها أي أحد،
وسيكون الإشراف عليها من البرّ، وهدفها التعرّف على البصمة الصوتية للغواّصات المعادية ومهاجمتها عند الضرورة.
2- الحارس S G R A 1 إس جي أر إي ون
خورازميّة مزوّدة برشاش منصوبة على الحدود بين الكوريتين، مهمّتها التعرّف على التصرّفات العدائية للدخلاء.
3- الطائرة F-16
ركّب الجيش الأمريكي ذكاءً اصطناعيًا على طائراته طراز F-16 بحيث تستطيع التفاعل عن ظهور تهديدات أو أحداث غير متوقّعة بما في ذلك انقطاع اتّصالها عن مراكز التحكّم على الأرض.
الاعتراضات العالمية على الأسلحة الذكيّة
بدأت الاعتراضات منذ أربع سنوات عبر جمعيات سلام، وفي الصيف الماضي أصدرت مجموعة من 2400 باحث في الذكاء الصناعي و100 مختبر في علم الحاسوب تعهدًا بعدم المشاركة في تطوير أو صناعة أسلحة فتاكة ذاتية التحكم.
كما أنّ الاحتجاجات الشعبية بدأت تندلع عند اكتشاف أدنى مشروع مشبوه، كما حدث حين كُشِف النقاب عن مشروع تعاون بين المعهد الكوري المتقدم للعلوم والتكنولوجيا KAIST في دايجيون، وشركة Hanwha Systems الرائدة في صناعة الأسلحة.
يُذكر أنّ 88 وفدًا وطنيًا من مختلف دول العالم يجتمعون كلّ عام في جنيف لدراسة هذه الإشكالية ولم تتوصّل تلك الوفود حتى الآن إلى الاتّفاق حول معاهدة لحظر تصميم الآليات الحربية ذاتية التحكم أو استخدامها.
وبسبب الضغوط الكبرى من المنظّمات غير الحكومية، قد يصل الخبراء إلى اتفاق جزئي بمثابة ترضية يقضي بتحديد مسؤول ما من البشر في حال وقوع جرائم حرب.
اقرأ أيضًا تقنيات جديدة في الذكاء الاصطناعي قد تهدد الوجود البشري
ما هي الفوائد التي تجنيها المؤسسات العسكرية من مكننة الأسلحة؟
1- تجنيب الجنود الموت، حيث تُعدّ الكلفة البشرية هي الكلفة الأعلى للحروب خاصّة في الدول المتقدّمة.
2- الأسلحة ذاتية التحكّم ستكون أسرع بكثير من البشر وأكثر دقّة.
3- كلفة صيانة الأسلحة الذاتية أقلّ بكثير مقارنة بكلفة علاج الجنود الجرحى.
4- الآلات لا تعرف الغضب أو الخوف أو الإحباط، وهذه عوامل تزيد من حدوث التجاوزات.
5- يمكن للأسلحة ذاتية التحكم الدخول لمناطق شديدة التحصين والتشويش لا تستطيع حتى الطائرات دون طيار الدخول إليها، وذلك بفضل قدرتها على اتّخاذ القرارات دون الاتصال بالقاعدة.
العسكريّون يستغلّون الاكتشافات المدنية
إنّ الأتمتة الوحيدة التي يستخدمها العسكريون اليوم بشكلٍ مؤكّد هي ملاحة الروبوتات وتعرّفها على الأهداف الكبيرة الواضحة مثل الدبابات والطائرات والصواريخ،
مع ذلك فإنّ هذه الآلات لا تطلق النار من تلقاء نفسها، بل تخضع لتحكم بشري، إلا في حالة واحدة هي عندما تجد نفسها أمام سيلٍ من القذائف، حيث تدخل هذه الآلات بوضعية “النزاع” فتصبح آلية تمامًا.
لكن هذا لا يعني أنّ العسكريين قد اكتفوا بهذا، لأنّ البحث العلمي المدني قد حقق خطوات كبيرة في مجال الشبكات العصبية العميقة القادرة على التفوّق على الإنسان في التعرّف على آلاف الأنماط من الأشياء بدءًا من أنواع الكلاب وصولًا لأكثر أنواع الورم السرطاني ندرة،
كما صار بمقدورها التعرّف على مختلف السلوكيات والانفعالات الإنسانية، وهذه مجالات تغري العسكريين باستغلالها في تطوير آلاتهم.
ضبابية الحروب بالنسبة للآلات المقاتلة
يمكن اعتبار مسألة مهاجمة البشر من قبل الآلة أعقد المهام التي يجب مراعاتها أثناء برمجة الخوارزميات،
فمن المفروض أن تراعي هذه الخوارزميات القانون الإنساني الدولي ككلّ جندي نزيه في الجيوش النظامية،
وهذا يتطلّب القدرة على التمييز بين المقاتلين والمدنيين، وهذه المهمة تصبح صعبة جدًا في حالة حرب العصابات.
كذلك فإنّ الأمر يتطلّب أيضًا القدرة على التعرف على المقاتل الجريح أو المقاتل الذي يعبّر عن نيّته في الاستسلام.
والحقيقة إنّ هذه الظروف والمتغيّرات كثيرة التعقيد لم تحظَ بالقدر الكافي من الدراسة والاهتمام كما حظيت مسائل مدنية مشابهة كالسيارات ذاتية القيادة التي نالت قسطًا واسعًا من الدراسات والنقاشات للتوصّل إلى قوانين تحكم أخلاقيّات القيادة الذاتية للمركبات.
عدا عن ذلك فإنّ هذه الخوارزميات تبدع في ظروف المختبر شديدة الضبط، لكن يكفي حدوث تغيير بسيط في الطقس حتى تُصاب باضطراب.
لماذا يدقّ المعلوماتيّون نواقيس الخطر؟
في أيلول سبتمبر عام 1983 شاهد الضابط السوفييتي ستانيسلاف بيتروف على شاشاته خمسة صواريخ نووية أمريكية قادمة نحوه، فاستنتج أنّ الأمر مجرّد خطأ تقني ولم يعطي أمرًا أو تقريرًا كان سيؤدّي بالتأكيد لكارثة عالمية.
بينما لو كان الأمر منوطًا بالآلات التي لا تمتلك ضميرًا أو ذكاءً اجتماعيًا ولا عاطفيًا ولا عقلًا ولا أخلاقًا فإنّها قد تتسبّب في حدوث مجازر.
فالأخلاق شيء يتجاوز الرياضيّات بكثير فالقرار البشري يعتمد على العلاقات الاجتماعية والتعاطف والانفعالات.
يردّ المدافعون عن أتمتة الآلات العسكرية بأنّه من الممكن تزويد الروبوتات بالتزامات ومحظورات، كما يمكن تزويدها بسلوكيات انفعالية مثل الشعور بالذنب للمساعدة على التخفيف من احتمال أن يُتّخذ قرار مؤسف.
وإذا سلّمنا بهذا الادّعاء فذلك لا يعني أننا سنتمكن من القضاء على جميع الأخطار لأنّ هذه الأنظمة يكتسيها في الوقت الحالي شيء من الغموض، حيث يجد الخبراء صعوبات في فهم الأسباب التي تجعل شبكة الخلايا العصبية العميقة تتخذ هذا القرار أو ذاك، ولن يتحقق ذلك إلا إن اخترعنا ذكاءً صناعيًا يستطيع أن يفسر لنا بلغة مفهومة مسار تفكيره.
الأمر الآخر الذي يحذّر الخبراء منه هو أنّ شبكات الخلايا العصبية يسهل قرصنتها، وفي ميدان الحرب ستكون عرضةً لأعداء يحاولون خداعها، وقد ترى الجيوش روبوتاتها تنقلب عليها.
الأسلحة ذاتية التحكم أمرٌ حتمي في النهاية!
رغم كلّ المخاوف بشأن هذه الأسلحة، والتي يعتقد بعض الباحثون أنّها ستشجّع على القيام بهجوم أكثر من ذي قبل بسبب سرعتها الهائلة في اتّخاذ القرارات وتحديد الأهداف والتصدّي لها، رغم ذلك فإنّ هذه الأسلحة سترى النور عاجلًا أم آجلًا حيث يعكف التقنيون على حلّ المشاكل آنفة الذكر مستفيدين من التقدّم الهائل الحاصل في مجال الذكاء الصناعي والشبكات العصبية العميقة وتطوّر المعالِجات.
وبكلّ الأحوال فإنّ قواعد الحرب المستقبليّة سوف تتغيّر عندما يدخل الذكاء الصناعي للميدان، حيث سينخفض عدد القتلى من البشر،
لكن ستكون أخطار الحروب أكبر بكثير مما اعتدنا عليه بسبب السرعة العالية والكفاءة الكبيرة للروبوتات، وربّما لن يجد البشر وقتًا كافيًا حتى للتدخّل في مسار الحرب أو إيقافها.