كيف يمكن للذكاء الاصطناعي تغيير الحرب؟ خبراء الدفاع الأمريكيون يحذرون من التكنولوجيا الجديدة

عندما أعلن الرئيس بايدن قيودًا صارمة على مبيعات رقائق الكمبيوتر الأكثر تقدمًا إلى الصين في أكتوبر ، باعها جزئيًا كوسيلة لمنح الصناعة الأمريكية فرصة لاستعادة قدرتها التنافسية.

لكن في البنتاغون ومجلس الأمن القومي ، كانت هناك أجندة أخرى: الحد من التسلح.

تقول النظرية إنه إذا لم يتمكن الجيش الصيني من الحصول على الرقائق ، فقد يؤدي ذلك إلى إبطاء جهوده لتطوير أسلحة مدعومة بالذكاء الاصطناعي. من شأن ذلك أن يمنح البيت الأبيض والعالم وقتًا لاكتشاف بعض القواعد لاستخدام الذكاء الاصطناعي في أجهزة الاستشعار والصواريخ والأسلحة الإلكترونية ، وفي النهاية للحماية من بعض الكوابيس التي تستحضرها هوليوود – الروبوتات القاتلة المستقلة وأجهزة الكمبيوتر التي تقفل من خالقيهم من البشر.

الآن ، أدى ضباب الخوف المحيط ببرنامج الدردشة ChatGPT الشهير وبرامج الذكاء الاصطناعي الأخرى إلى جعل تقييد الرقائق على بكين يبدو وكأنه مجرد حل مؤقت. بينما مر السيد بايدن اجتماعًا بالبيت الأبيض يوم الخميس مع قادة التكنولوجيا الذين يكافحون لاحتواء مخاطر التكنولوجيا ، كان تعليقه الأول “ما تفعله ينطوي على إمكانات هائلة وخطر هائل”.

يقول مساعدوه في مجال الأمن القومي إن هذا كان انعكاسًا للإيجازات السرية الأخيرة حول إمكانية التكنولوجيا الجديدة لتعويض الحرب والصراع السيبراني – وفي الحالة القصوى – اتخاذ القرار بشأن استخدام الأسلحة النووية.

ولكن حتى عندما أصدر السيد بايدن تحذيره ، قال مسؤولو البنتاغون ، الذين تحدثوا في منتديات التكنولوجيا ، إنهم يعتقدون أن فكرة التوقف لمدة ستة أشهر في تطوير الأجيال القادمة من ChatGPT والبرامج المماثلة كانت فكرة سيئة: لقد فاز الصينيون لن ننتظر ولا الروس كذلك.

“إذا توقفنا ، فاحزر من لن يتوقف: أعداء محتملون في الخارج” ، كبير مسؤولي المعلومات في البنتاغون ، جون شيرمان ، قال الأربعاء. “علينا أن نستمر في التحرك.”

وأكد بيانه الصريح التوتر الذي يشعر به مجتمع الدفاع اليوم. لا أحد يعرف حقًا قدرة هذه التقنيات الجديدة عندما يتعلق الأمر بتطوير الأسلحة والسيطرة عليها ، وليس لديهم أي فكرة عن نوع نظام تحديد الأسلحة ، إن وجد ، الذي قد ينجح.

التوقعات غامضة ، لكنها مقلقة للغاية. هل يمكن لـ ChatGPT تمكين الجهات الفاعلة السيئة الذين لم يكن لديهم في السابق وصول سهل إلى التكنولوجيا المدمرة؟ هل يمكن أن تسرع المواجهات بين القوى العظمى وتترك بعض الوقت للدبلوماسية والمفاوضات؟

قال إريك شميدت ، رئيس Google السابق الذي شغل منصب الرئيس الافتتاحي لمجلس ابتكار الدفاع الاستشاري من 2016 إلى 2020: “الصناعة ليست غبية هنا ، وأنت ترى بالفعل جهودًا لتنظيم نفسها”.

قال السيد شميت ، الذي كتب مع وزير الخارجية السابق هنري كيسنجر ، “لذلك هناك عدد من المحادثات غير الرسمية التي تجري الآن في الصناعة – وكلها غير رسمية – حول الشكل الذي تبدو عليه قواعد أمن الذكاء الاصطناعي” ، عدد من المقالات والكتب على إمكانات الذكاء الاصطناعي للارتقاء بالجغرافيا السياسية.

إن الجهد المبدئي لوضع حراس تلقائي في النظام واضح لأي شخص اختبر التكرارات الأولية لـ ChatGPT. لن تجيب الروبوتات على أسئلة حول كيفية إيذاء شخص ما على سبيل المثال. شراب من المخدرات ، أو كيفية تفجير سد أو تدمير أجهزة الطرد المركزي النووية ، وجميع العمليات التي شاركت فيها الولايات المتحدة ودول أخرى دون الاستفادة من أدوات الذكاء الاصطناعي.

لكن هذه القوائم السوداء من الإجراءات لن تؤدي إلا إلى الحد من إساءة استخدام هذه الأنظمة ؛ قلة يعتقدون أن بإمكانهم إيقاف هذه الجهود تمامًا. هناك دائمًا اختراق للالتفاف على حدود الأمان ، حيث يمكن لأي شخص حاول إيقاف تشغيل أصوات التنبيه العاجلة على نظام تحذير حزام الأمان في السيارة أن يشهد.

في حين أن البرنامج الجديد قد أشاع هذه المشكلة ، إلا أنها ليست جديدة على البنتاغون. تم نشر القواعد الأولى لتطوير الأسلحة المستقلة قبل عشر سنوات. تم إنشاء مركز الذكاء الاصطناعي المشترك التابع للبنتاغون قبل خمس سنوات لاستكشاف استخدام الذكاء الاصطناعي في القتال.

بعض الأسلحة تعمل بالفعل على الطيار الآلي. لطالما كانت صواريخ باتريوت ، التي تطلق الصواريخ أو تدخل الطائرات في المجال الجوي المحمي ، في وضع “تلقائي”. يمكّنهم هذا من إطلاق النار دون تدخل بشري عندما تطغى عليهم الأهداف الواردة أسرع مما يمكن أن يتفاعل الإنسان. لكن من المفترض أن يتم مراقبتها من قبل البشر الذين يمكنهم مقاطعة الهجمات إذا لزم الأمر.

تم تنفيذ اغتيال محسن فخري زاده ، أكبر عالم نووي إيراني ، من قبل الموساد الإسرائيلي باستخدام مدفع رشاش مستقل بمساعدة الذكاء الاصطناعي ، على الرغم من وجود درجة عالية من التحكم عن بعد. قالت روسيا مؤخرًا إنها بدأت تصنيع طوربيد نووي من غواصة بوسيدون – لكنها لم تنشره بعد. إذا كان يرقى إلى مستوى الضجيج الروسي ، فسيكون قادرًا على السفر عبر المحيط بشكل مستقل ، والتهرب من الدفاعات الصاروخية الحالية ، لإيصال سلاح نووي بعد أيام من إطلاقه.

حتى الآن ، لا توجد معاهدات أو اتفاقيات دولية تتعامل مع مثل هذه الأسلحة المستقلة. في الوقت الذي يتم فيه التخلي عن اتفاقيات الحد من الأسلحة بشكل أسرع مما يتم التفاوض عليها ، هناك احتمال ضئيل لمثل هذا الاتفاق. لكن أنواع التحديات التي تثيرها ChatGPT وأمثالها مختلفة وفي بعض النواحي أكثر تعقيدًا.

في الجيش ، يمكن للأنظمة المزروعة بالذكاء الاصطناعي تسريع وتيرة صنع القرار في ساحة المعركة إلى حد أنها تخلق مخاطر جديدة تمامًا للهجمات غير المقصودة أو القرارات المتخذة بشأن التحذيرات المضللة أو الكاذبة المتعمدة من الهجمات القادمة.

قال السيد شميت: “المشكلة الأساسية في الذكاء الاصطناعي في الجيش والأمن القومي هي كيفية الدفاع ضد الهجمات التي تكون أسرع من صنع القرار البشري ، وأعتقد أن هذا السؤال لم يتم حله”. “بعبارة أخرى ، يدخل الصاروخ بسرعة بحيث يجب أن يكون هناك رد فعل تلقائي. ماذا يحدث إذا كانت إشارة خاطئة؟ “

كانت الحرب الباردة مليئة بقصص الإنذارات الكاذبة – مرة واحدة لأن شريط تدريب ، كان مخصصًا لاستخدامه في ممارسة الاستجابة النووية ، تم إدخاله بطريقة ما في النظام الخطأ وأطلق تحذيرًا من هجوم سوفييتي قادم. (أدى الحكم الجيد إلى تنحي الجميع.) أشار بول شار ، من مركز الأمن الأمريكي الجديد ، في كتابه لعام 2018 “جيش لا شيء” إلى أنه كان هناك “على الأقل 13 حادثًا نوويًا وشيك الاستخدام من عام 1962 إلى عام 2002”. وهو ما “يعطي مصداقية للرأي القائل بأن الحوادث الوشيكة هي ظروف طبيعية ، وإن كانت مخيفة ، للأسلحة النووية”.

لهذا السبب ، عندما كانت التوترات بين القوى العظمى أقل بكثير مما هي عليه اليوم ، حاولت سلسلة من الرؤساء التفاوض على مزيد من الوقت لصنع القرار النووي من جميع الأطراف حتى لا يندفع أحد إلى الصراع. لكن الذكاء الاصطناعي التوليدي يهدد بدفع البلدان في الاتجاه الآخر ، نحو اتخاذ قرارات أسرع.

النبأ السار هو أن القوى الكبرى من المرجح أن تكون حذرة – لأنها تعرف كيف سيكون رد فعل الخصم. لكن حتى الآن لا توجد قواعد متفق عليها.

كتبت آنيا مانويل ، المسؤولة السابقة في وزارة الخارجية والمديرة الآن للمجموعة الاستشارية رايس وهادلي وجيتس ومانويل ، أنه في حين أن الصين وروسيا ليستا مستعدين لمحادثات الحد من التسلح بشأن الذكاء الاصطناعي ، فإن الاجتماعات حول هذا الموضوع ستؤدي إلى مناقشات حول ما يستخدم الذكاء الاصطناعي الذي يُنظر إليه على أنه “ما وراء الشحوب”.

بالطبع ، سيقلق البنتاغون أيضًا بشأن قبول قيود كثيرة.

قال داني هيليس ، عالم الكمبيوتر الذي كان رائدًا في مجال الحوسبة الموازية التي استخدمت في الذكاء الاصطناعي: “لقد ناضلت بشدة للحصول على سياسة مفادها أنه إذا كان لديك عناصر مستقلة من الأسلحة ، فأنت بحاجة إلى طريقة لإيقاف تشغيلها”. السيد. وقال هيليس ، الذي خدم أيضًا في مجلس الابتكار الدفاعي ، إن مسؤولي البنتاغون ردوا ، قائلين: “إذا تمكنا من إيقافهم ، يمكن للعدو أن يوقفهم.”

قد تأتي المخاطر الأكبر من الجهات الفاعلة الفردية أو الإرهابيين أو مجموعات برامج الفدية أو الدول الأصغر ذات المهارات الإلكترونية المتقدمة – مثل كوريا الشمالية – التي تتعلم استنساخ نسخة أصغر وأقل تقييدًا من ChatGPT. وقد يجدون أن برنامج الذكاء الاصطناعي التوليدي مثالي لتسريع الهجمات الإلكترونية واستهداف المعلومات المضللة.

قال توم بيرت ، الذي يرأس عمليات الثقة والأمن في Microsoft ، التي تتجه لاستخدام التكنولوجيا الجديدة لتجديد محركات البحث الخاصة بها ، في منتدى حديث في جامعة جورج واشنطن إنه يعتقد أن أنظمة الذكاء الاصطناعي ستساعد المدافعين على اكتشاف السلوك غير الطبيعي بشكل أسرع مما هم عليه. من شأنه أن يساعد المهاجمين. يختلف خبراء آخرون. لكنه قال إنه يخشى أن يؤدي الذكاء الاصطناعي إلى زيادة انتشار المعلومات المضللة المستهدفة.

كل هذا يبشر بعصر جديد من السيطرة على السلاح.

يقول بعض الخبراء أنه نظرًا لأنه سيكون من المستحيل إيقاف انتشار ChatGPT والبرامج المماثلة ، فإن أفضل أمل هو الحد من الرقائق الخاصة وقوة الحوسبة الأخرى اللازمة لتطوير التكنولوجيا. ستكون بلا شك واحدة من العديد من خطط الحد من التسلح المختلفة التي تم طرحها في السنوات القليلة المقبلة ، في وقت تبدو فيه القوى النووية الكبرى على الأقل غير مهتمة بالتفاوض على الأسلحة القديمة ، ناهيك عن الأسلحة الجديدة.