
في أكثر خطوة سياسية واضحة وملموسة حتى الآن بشأن سلامة الذكاء الاصطناعي، أعلنت إدارة ترامب أنها ستضع مختبرًا رائدًا في مجال الذكاء الاصطناعي في قائمة سوداء بسبب رفضه السماح بالوصول غير المقيد إلى تقنيته لأغراض عسكرية.
إنها مواجهة شديدة بين الرئيس ووزير حربه، بيت هيغسث، بسبب رفض أنثروبيك السماح للبنتاغون باستخدام ذكاءه الاصطناعي لـ “أي غرض قانوني”.
معتبرًا أنثروبيك شركة راديكالية وهي من اليسار المتطرف، قال الرئيس الأمريكي على منصته “Truth Social” إن “المجانين من اليسار في أنثروبيك ارتكبوا خطأً كارثيًا في محاولة لإجبار وزارة الحرب” مضيفًا أن تصرفات الشركة تعرض حياة الأمريكيين والأمن القومي للخطر.
حتى الآن، كانت أنثروبيك تفعل أكثر من أي مختبر ذكاء اصطناعي آخر لدعم البنتاغون.
ذكاء أنثروبيك “كلود” هو النموذج الوحيد المستخدم بشكل واسع في التخطيط والعمليات العسكرية الحساسة.
تم الإبلاغ على نطاق واسع أن “كلود” تم استخدامه كجزء من نظام البنتاغون “Maven Smart System” للتخطيط وتنفيذ العمليات العسكرية للقبض على الرئيس الفنزويلي نيكولاس مادورو في يناير.
لم تكن جذور النزاع تدور حول التزام أنثروبيك تجاه الجيش الأمريكي؛ بل كانت تتعلق بإصرارها على “الخطوط الحمراء” فيما يتعلق باستخدام تقنية الذكاء الاصطناعي.
طلب الرئيس التنفيذي لأنثروبيك، داريوا أموداي، ضمانات بعدم استخدامه للمراقبة الجماعية للمدنيين أو الهجمات الآلية الفتاكة دون إشراف بشري.
في بيان يوم الأربعاء، قال أموداي إن بعض استخدامات الذكاء الاصطناعي “تتجاوز ببساطة حدود ما يمكن للتقنية اليوم القيام به بأمان وموثوقية”.
في منشور على منصة “X”، التي كانت غاضبة تمامًا مثل الرئيس، أعلن الوزير هيغسث أنه بالإضافة إلى إدراجها في القائمة السوداء، سيتم تحديد أنثروبيك كخطر في سلسلة الإمداد – وهو تدخل قانوني كان محجوزًا سابقًا للشركات التكنولوجية الأجنبية التي تعتبر تهديدًا مباشرًا للأمن القومي الأمريكي.
اقرأ المزيد:
تطور الذكاء الاصطناعي سريعاً لدرجة أنه أصبح من الصعب قياسه‘
فقاعة الذكاء الاصطناعي لا تزال سليمة الآن
نظرًا للمخاوف المتزايدة بشأن سلامة الذكاء الاصطناعي، فإنها خطوة صدمت نشطاء سلامة الذكاء الاصطناعي، لكنها أيضًا تثير أسئلة جدية حول جدوى استراتيجية “الذكاء الاصطناعي أولاً” للبنتاغون في المستقبل.
لقد منح الوزير هيغسث أنثروبيك ستة أشهر لإزالة ذكائها الاصطناعي من أنظمة البنتاغون. لكن هناك الآن تساؤلات حول ما قد يقوم باستبداله به.
لأول مرة في التاريخ القصير للذكاء الاصطناعي الفائق، يبدو أن النزاع قد وحد صناعة الذكاء الاصطناعي.
في مذكرة للموظفين يوم الخميس، أعلن سام ألتمان، الرئيس التنفيذي لـ OpenAI، الذي كان أيضًا في محادثات مع البنتاغون، أنه يتشارك نفس “الخطوط الحمراء” مع أنثروبيك.
على صعيد آخر، وقع أكثر من 400 موظف في غوغل وOpenAI رسالة مفتوحة تدعو صناعتهم إلى الوقوف معًا ضد موقف وزارة الحرب.
في نسخة من مذكرة OpenAI التي اطلعت عليها سكاي نيوز، يخبر ألتمان الموظفين: “بغض النظر عن كيفية وصولنا إلى هنا، هذه لم تعد مجرد قضية بين أنثروبيك ووزارة الحرب؛ هذه قضية لجميع الصناعة ومن المهم توضيح موقفنا.”
تبدو خطوة إدارة ترامب، إذن، تتعلق بالسلطة بقدر ما تتعلق بسلامة الذكاء الاصطناعي.
قال البنتاغون بالفعل إنه لن يستخدم الذكاء الاصطناعي للمراقبة الجماعية للسكان الأمريكيين، ولا للأسلحة الذاتية المستقلة بدون إشراف.
تبدو استجابتها الغاضبة لأنثروبيك أكثر استجابة لتكنولوجيات كبيرة تحاول فرض الشروط على الحكومة، بدلاً من النظر في ما هي تلك الشروط فعليًا.
عند المواجهة مع وادي السيليكون، الذي يُعتبر فيه استثمار الذكاء الاصطناعي جزءًا كبيرًا من النمو الاقتصادي الحالي في الولايات المتحدة، أعلنت الإدارة حربًا على خصم قوي.


