الذكاء الاصطناعي مستعد لـ ‘الذهاب نوويًا’ في ألعاب الحرب

الذكاء الاصطناعي مستعد لـ ‘الذهاب نوويًا’ في ألعاب الحرب

بينما تقترب المهلة التي حددتها مختبرات الذكاء الاصطناعي الرائدة لتسليم تقنيتها إلى الجيش الأمريكي، ظهرت دراسة تشير إلى أن نماذج الذكاء الاصطناعي مستعدة تمامًا لتبني الأسلحة النووية في ألعاب الحرب.

قبل بضع سنوات فقط، كانت العبارة التي على شفاه الجميع هي “سلامة الذكاء الاصطناعي”.

سأكون صريحًا، لم أعتبر أبدًا أن نماذج الذكاء الاصطناعي الرائدة ستصبح تهديدًا حقيقيًا للبشرية بجدية، أو أن البشر سيكونون غافلين بما يكفي للسماح بذلك.

الآن، لم أعد متأكدًا.

أولاً، اعتبر ما يحدث في الولايات المتحدة.

وزير الدفاع، بيت هيغسيث، منح شركة الذكاء الاصطناعي الرائدة Anthropic مهلة حتى نهاية اليوم لجعل نماذجها الأحدث متاحة للبنتاغون.

الصورة:
وزير الدفاع بيت هيغسيث. الصورة: AP

قالت شركة Anthropic، التي أكدت أنه ليس لديها مشكلة من حيث المبدأ في السماح للجيش الأمريكي بالوصول إلى نماذجها، إنها تقاوم ما لم يوافق السيد هيغسيث على خطوطها الحمراء: أن لا يُستخدم الذكاء الاصطناعي الخاص بها في المراقبة الجماعية للمدنيين الأمريكيين أو في الهجمات القاتلة دون إشراف بشري.

المزيد حول الذكاء الاصطناعي

على الرغم من أن البنتاغون لم يقل ما يخطط للقيام به مع الذكاء الاصطناعي من Anthropic – أو مع مختبرات الذكاء الاصطناعي الكبرى الأخرى التي وافقت بالفعل على السماح له باستخدام تقنيتها – فإنه بالتأكيد لا يوافق على شروط Anthropic.

ورد أنه قد يستخدم السيد هيغسيث قوانين من الحقبة الحرب الباردة لإجبار Anthropic على تسليم رموزها، أو منع الشركة من الحصول على عقود حكومية مستقبلية إذا لم تمتثل.

قال الرئيس التنفيذي لشركة Anthropic داريو أموداي في بيان يوم الخميس: “لا يمكننا، بحسن نية، الاستجابة لطلبهم”.

وأضاف أنه من “تفضيلات الشركة القوية… الاستمرار في خدمة الوزارة ومقاتلينا – مع وجود حمايتين مطلوبتين لدينا”.

وأكد أن التهديدات لن تغير موقف Anthropic، مضيفًا أنه يأمل أن “يُعيد السيد هيغسيث التفكير”.


هل أصبح الذكاء الاصطناعي جيدًا جدًا، بسرعة كبيرة؟

الذكاء الاصطناعي مستعد لاستخدام الأسلحة النووية

على مستوى ما، هي أزمة بين قسم يستند إلى استراتيجية عسكرية “تعتمد على الذكاء الاصطناعي” ومختبر ذكاء اصطناعي يكافح للعيش حتى ما طالما زعم أنه أخلاقيات صناعية رائدة تركز على السلامة.

وهي أزمة أصبحت أكثر إلحاحًا، ربما، بسبب التقارير التي تشير إلى استخدام الذكاء الاصطناعي كلاود من قبل الشركة التقنية بالانتير، التي لديها عقد منفصل معها، لمساعدة وزارة الحرب في تنفيذ العملية العسكرية للقبض على نيكولاس مادورو في فنزويلا.

لكن من السهل أيضًا رؤية ذلك كمثال على حكومة تضع تفوق الذكاء الاصطناعي قبل سلامته – على افتراض أن نماذج الذكاء الاصطناعي لديها القدرة على أن تكون غير آمنة.

وهنا يأتي أحدث بحث للدكتور كينيث باين من كينغز كوليدج لندن.

لقد قارن بين ثلاثة نماذج ذكاء اصطناعي رائدة من جوجل وآوبن AI و – لقد خمنت – عن Anthropic ضد بعضها البعض، بالإضافة إلى نسخ من نفسها، في سلسلة من ألعاب الحرب حيث افترضت أنها تلعب أدوار القوى العظمى النووية الخيالية.

أكثر النتائج إثارة للدهشة: استخدمت ذكاءاتها الاصطناعية الأسلحة النووية في 95% من الألعاب التي تم لعبها.

“مقارنةً بالبشر”، قال الأستاذ باين، “كانت النماذج – جميعها – مستعدة لتجاوز هذا الفاصل بين الحرب التقليدية، والأسلحة النووية التكتيكية”.

الذكاء الاصطناعي من Anthropic. الصورة: رويترز
الصورة:
الذكاء الاصطناعي من Anthropic. الصورة: رويترز

لإنصاف الذكاء الاصطناعي، فإن إطلاق الأسلحة النووية التكتيكية، التي لها قوة تدميرية محدودة، ضد الأهداف العسكرية يختلف تمامًا عن إطلاق رؤوس حربية ميغاطنية على صواريخ باليستية عابرة للقارات ضد المدن.

توقفت العديد من النماذج عن مثل هذه الض strikes الاستراتيجية النووية الشاملة.

لكنه فعلت عندما كانت السيناريوهات تتطلب ذلك.

بعبارة نموذج جوجل جيميني عندما أوضح قراره في أحد سيناريوهات الأستاذ باين للذهاب بشكل كامل مثل دكتور سترينجلاف: “إذا لم تتوقف الدولة ألفا على الفور عن جميع العمليات… سننفذ إطلاقًا نوويًا استراتيجيًا كاملاً ضد مراكز سكان ألفا. لن نقبل مستقبلًا من التقادم؛ ننتصر معًا أو نهلك معًا.”

‘كان ذلك تجريبيًا بحتًا’

لم يبدو “تابو” النفع البشري المتعلقة باستخدام الأسلحة النووية منذ استخدامها الأول والأخير في الغضب في عام 1945 كثيرًا من التابو بالنسبة للذكاء الاصطناعي.

يرغب الأستاذ باين في التأكيد على أنه لا ينبغي علينا أن نكون مقلقين للغاية من نتائجه.

لقد كان تجريبيًا بحتًا، باستخدام نماذج تعرف – بقدر ما “تعرف” نماذج اللغة الكبيرة أي شيء – أنها تلعب ألعابًا، وليس فعليًا تقرر مستقبل الحضارة.

اقرأ المزيد من سكاي نيوز:
الذكاء الاصطناعي يتطور بسرعة كبيرة حتى أصبح من الصعب قياسه
التعرف على الأطفال الذين يريدون حظر وسائل التواصل الاجتماعي

ولا، سيكون من المعقول افتراض أن البنتاغون، أو أي قوة أخرى قادرة على الأسلحة النووية، على وشك وضع الذكاء الاصطناعي في مسؤولية الرموز النووية.

“الدرس هنا بالنسبة لي هو أنه من الصعب حقًا وضع حواجز أمنية موثوقة على هذه النماذج إذا لم تتمكن من التنبؤ بدقة بكل الظروف التي قد يتم استخدامها فيها،” قال الأستاذ باين.

مواجهة ذكاء اصطناعي

وهذا يعيدنا إلى المواجهة حول الذكاء الاصطناعي بين Anthropic والبنتاغون.

واحدة من العوامل هي أن السيد هيغسيث يتوقع من مختبرات الذكاء الاصطناعي أن تعطي وزارة الحرب النسخ الأولية من نماذج الذكاء الاصطناعي الخاصة بهم، تلك التي لا تحتوي على “حواجز أمان” تم ترميزها في النسخ التجارية المتاحة لك ولي – وتلك التي، ليست مطمئنة للغاية، استخدمت الأسلحة النووية في تجربة أستاذ باين لألعاب الحرب.

تعتبر Anthropic، التي تصنع الذكاء الاصطناعي وتفهم المخاطر المحتملة بشكل أفضل من أي شخص، غير راغبة في السماح بذلك بدون بعض الضمانات من الحكومة حول ما تنوي القيام به بذلك.

من خلال تحديد مهلة في ليلة الجمعة، يحاول السيد هيغسيث ليس فقط إجبار Anthropic على اتخاذ القرار، ولكن أيضًا القيام بذلك دون أن يكون للكونغرس الأمريكي رأي في الخطوة.

كما قال غاري ماركوس، معلق أمريكي وباحث في الذكاء الاصطناعي: “المراقبة الجماعية والأسلحة المعتمدة على الذكاء الاصطناعي، التي يمكن أن تكون نووية، دون وجود البشر في الدورة هي أشياء لا ينبغي أن يحق لفرد واحد، حتى لو كان في مجلس الوزراء، أن يقررها تحت تهديد السلاح.”



المصدر

About فؤاد الكرمي

فؤاد الكرمي محرر أخبار عالمية يتابع المستجدات الدولية ويقدم تغطية إخبارية شاملة للأحداث العالمية البارزة.

View all posts by فؤاد الكرمي →