أسلحة الذكاء الاصطناعي وسباق تسلح جديد
قد تتخلى الإدارة الأمريكية برئاسة جو بايدن عن الحظر العالمي على “أسلحة الذكاء الاصطناعي” التي تمثل الثورة الثالثة في صناعة الحرب، بعد أن كان اختراع البارود الثورة الأولى في الحروب، واكتشاف القنبلة النووية الثورة الثانية.
والمقصود بأسلحة الذكاء الاصطناعي هو أنظمة التسليح التي يمكنها التعرف على الهدف وتحديده واتخاذ قرار الاشتباك معه دون تدخل بشري يذكر، وهذه الأنظمة تختلف عن أنظمة التسليح نصف الآلية المستخدمة بالفعل حالياً لدى معظم جيوش العالم. إذ تعتمد بعض أنظمة التسليح الحالية على الذكاء الاصطناعي في جمع البيانات عن الأهداف وطرح خيارات للاشتباك معها من خلال أجهزة الاتصال التي يتحكم فيها البشر، ومن يتخذ القرار بالاشتباك من عدمه هو العنصر البشري وليس آلات القتل نفسها.
دعوات لحظر عالمي لأسلحة الذكاء الاصطناعي
هنالك دعوات قائمة منذ عقود تطالب بفرض حظر عالمي على أنظمة التسليح التي تعمل بالذكاء الاصطناعي بشكل كامل، لكن بعد تولي جو بايدن رئاسة الولايات المتحدة الأمريكية تم رفع تقرير رسمي للإدارة ولأعضاء الكونغرس يطالب واشنطن وحلفاءها برفض تلك الدعوات، على أساس نقطتين أساسيتين: الأولى هي أن استخدام الذكاء الاصطناعي “يقلص الوقت المستهلك في اتخاذ القرارات ويسمح بردود عسكرية لا يمكن للبشر القيام بها بمفردهم”، والنقطة الثانية التي استند إليها التقريرهي أن الصين وروسيا على الأرجح لن تلتزما بالحظر العالمي إذا تم إقراره فعلاً.
التقرير والتوصيات الصادرة عنه أعدته اللجنة الأمنية الوطنية للذكاء الإصطناعي، وهي هيئة أمريكية يترأسها المدير السابق لشركة غوغل إريك شميت ونائب وزير الدفاع السابق في إدارتي أوباما وترامب روبرت ورك، وتضم في عضويتها المدير التنفيذي الجديد لشركة أمازون أندي جاسي ومديري شؤون الذكاء الاصطناعي في غوغل وشركة مايكروسوفت د. أندرو مور ود. أريك هورفيتز ومديرة شركة أوراكل سافرا كاتز، بحسب تقرير لهيئة الإذاعة البريطانية BBC .
كانت اللجنة قد بدأت أعمالها في مارس/آذار 2019، ويقول تقريرها النهائي إن التحذيرات التي صدرت سابقاً حول التهديدات التي تواجه الأمن الوطني الأمريكي التي تشكلها أنظمة الذكاء الاصطناعي قد تم تجاهلها، ولكن ما زال هناك “حيّز” لإتمام التغييرات المقترحة إذا اتخذ الرئيس بايدن وغيره من الساسة الخطوات السريعة المطلوبة.
ولا يحصر التقرير مقترحاته بالجانب العسكري فقط، فقد دعا إلى مضاعفة إنفاق الولايات المتحدة في مجالات الذكاء الاصطناعي غير العسكرية بحيث يصل إلى 32 مليار دولار بحلول عام 2026. إذ اقترح التقرير أيضاً تشكيل هيئة جديدة تساعد رئيس الجمهورية في توجيه سياسات الذكاء الاصطناعي الأوسع مجالاً.
ومن التوصيات أيضاً تخفيف قيود الهجرة للمساعدة في استقطاب المواهب من الدول الأخرى، بما في ذلك بذل جهود من أجل زيادة “نزيف الأدمغة” من الصين، وتأسيس جامعة جديدة تكون مهمتها إعداد وتدريب موظفين حكوميين يتمتعون بقدرات رقمية، وتسريع اعتماد التقنيات الحديثة في أجهزة الاستخبارات الأمريكية.
ما مدى خطورة أسلحة الذكاء الاصطناعي؟
يحذر الرافضون لتوظيف الذكاء الاصطناعي في الحروب وأنظمة التسليح من أن غياب العنصر البشري في التحكم في تلك الأسلحة الفتاكة على الأرجح سيحولها إلى أسلحة دمار شامل، فبمجرد نشر السلاح لتدمير هدف ما لن يكون هناك مجال لاستدعائه أو أمره بوقف الهجوم إذا ما ظهر ما يفيد أن المعلومات الأولية التي بني عليها قرار الهجوم كانت خاطئة أو منقوصة.
والنقطة الأخرى هي أن المعارضين يقولون إن المقترحات التي تضمنها التقرير الأمريكي قد تؤدي إلى اندلاع سباق تسلح “غير مسؤول”.
وقال نول شاركي، الناطق باسم حملة إيقاف الروبوتات القاتلة، للبي بي سي: “هذا تقرير مرعب ومخيف قد يؤدي إلى انتشار الأسلحة التي تعمل بالذكاء الاصطناعي التي تصدر بمفردها قرارات حول من ينبغي أن يُقتل”. وأضاف: “حذّرهم أهم العلماء في مجال الذكاء الاصطناعي من عواقب هذا القرار، ولكنهم قرروا المضيّ قدماً به. سيؤدي هذا إلى انتهاكات خطيرة للقانون الدولي”.
وعلى عكس أي نظام تسليح اخترعته البشرية حتى الآن، ومهما كان قاتلاً ومدمراً كالأسلحة النووية، يقول المعارضون إن اختراع أسلحة كدبابات أو طائرات مسيرة أو أنظمة إطلاق صواريخ تعمل بالذكاء الاصطناعي يسمح لتلك الأنظمة باستهداف مجموعة بشرية معينة على أساس محددات مثل السن أو الجنس أو العرقية أو الميول السياسية إذا ما توفرت مثل تلك المعلومات.
والنقطة الأخرى هنا تتعلق بالتكلفة المنخفضة (سواء مادية أو بشرية) المرتبطة باستخدام أنظمة التسليح التي تعمل بالذكاء الاصطناعي، إذ يمكن أن يشجع ذلك على قيام مجموعات صغيرة تمتلك تلك الأنظمة من إيقاع دمار هائل ما يجعلها أقرب لأسلحة الدمار، وتاريخ استخدام الدرونات أو الطائرات بدون طيار يعتبر مثالاً يستخدمه الرافضون لتوظيف الذكاء الاصطناعي في أنظمة التسليح.
منافسة صينية أمريكية
يقود أكثر من 4500 باحث وعالم في الذكاء الاصطناعي والروبوتات و250 منظمة في نفس المجال و30 دولة والأمين العام للأمم المتحدة جهوداً لفرض حظر عالمي ملزم على تطوير أنظمة تسليح تعمل بالذكاء الاصطناعي، لكن هذه الجهود تلقى مقاومة من الدول التي تتطور بالفعل تلك الأسلحة ومنها الولايات المتحدة والصين وروسيا.
وفي هذا السياق يركز جزء كبير من التقرير الأمريكي المقدم لإدارة بايدن على كيفية مواجهة طموح الصين لأن تصبح رائدة العالم في مجال الذكاء الاصطناعي بحلول عام 2030. إذ يقول التقرير إن كبار القادة العسكريين حذروا من أن الولايات المتحدة “قد تخسر تفوقها العسكري والتكنولوجي في السنوات المقبلة” إذا سبقتها الصين في استخدام أنظمة التسلح التي تعمل بالذكاء الاصطناعي، على سبيل المثال عن طريق استخدام أسراب من الطائرات المسيرة لمهاجمة البحرية الأمريكية.
“تحاول وزارة الدفاع، التي طالما ركزت على المعدات العسكرية التقليدية كالسفن الحربية والطائرات والدبابات، التحول إلى الأنظمة التي تعتمد على برامج الكمبيوتر بشكل كبير. إذا لم تجهز قواتنا بأنظمة تعمل بالذكاء الاصطناعي بناءً على أفكار جديدة متفوقة على أفكار أعدائها، فستخسر تفوقها وتكون مشلولة في تعقيدات ميادين المعارك”.
ويتنبأ التقرير بأن الذكاء الاصطناعي سيحدث تحولاً جذرياً في “كل أوجه الشؤون العسكرية”، ويتطرق إلى برمجيات متنافسة تواجه بعضها البعض في المستقبل. وبينما يحذر التقرير من أن أنظمة الذكاء الاصطناعي المصممة بشكل سيئ قد تزيد من مخاطر اندلاع الحروب، لكنه يضيف أن “مواجهة قوى معادية مزودة بقدرات الذكاء الاصطناعي دون التمتع بهذه القدرات هو طريق يؤدي إلى كوارث”.
ويحذر كثير من المراقبين من أن التنافس بين الولايات المتحدة الأمريكية والصين على الأرجح سيفتح مجالاً جديداً وخطيراً في سباق التسلح بآلات قتل تعتمد على الذكاء الاصطناعي، وهو ما يفتح الباب أمام فصل جديد من فصول الرعب رغم أن الرعب الذي تسببه الأسلحة النووية لا يزال قائماً بالفعل.