
واشنطن — يخطط وزير الدفاع بيت هيجسيث للاجتماع يوم الثلاثاء مع الرئيس التنفيذي لشركة أنثروبيك، حيث أن الشركة المصنعة للذكاء الاصطناعي هي الوحيدة من بين أقرانها التي لم تزود تقنيتها شبكة داخلية جديدة للجيش الأمريكي.
رفضت شركة أنثروبيك، المصنعة للدردشة الآلية كلود، التعليق على الاجتماع لكن الرئيس التنفيذي داريو أمودي قد أوضح مخاوفه الأخلاقية بشأن الاستخدام غير المنضبط للذكاء الاصطناعي من قبل الحكومة، بما في ذلك مخاطر الطائرات المسيرة المسلحة المستقلة بالكامل ومراقبة الجماهير المعتمدة على الذكاء الاصطناعي التي يمكن أن تتابع المعارضة.
تم التأكيد على الاجتماع بين هيجسيث وأمودي من قبل مسؤول دفاعي لم يكن مصرح له بالتعليق علنًا وتحدث بشرط عدم الكشف عن هويته.
يسلط الضوء على النقاش حول دور الذكاء الاصطناعي في الأمن القومي والمخاوف بشأن كيفية استخدام التكنولوجيا في المواقف عالية المخاطر التي تتضمن القوة القاتلة أو المعلومات الحساسة أو مراقبة الحكومة. كما يأتي ذلك بينما تعهد هيجسيث بـ استئصال ما يسميه “ثقافة اليقظة” في القوات المسلحة.
“يمكن أن يقيم الذكاء الاصطناعي القوي عبر مليارات المحادثات من ملايين الناس الشعور العام، ويكتشف جيوب عدم الولاء تتشكل، ويقضي عليها قبل أن تنمو،” كتب أمودي في مقال الشهر الماضي.
أعلنت البنتاغون الصيف الماضي أنها ستمنح عقود دفاعية لأربع شركات ذكاء اصطناعي – أنثروبيك، وجوجل، وأوبن أي، وشركة إيلون ماسك xAI. كل عقد قيمته تصل إلى 200 مليون دولار.
كانت أنثروبيك أول شركة ذكاء اصطناعي تحصل على موافقة لشبكات عسكرية سرية، حيث تعمل مع شركاء مثل بالانتير. أما الشركات الثلاث الأخرى، فهي تعمل حاليًا فقط في بيئات غير سرية.
بحلول أوائل هذا العام، كان هيجسيث يبرز فقط اثنين منها: xAI وجوجل.
قال وزير الدفاع في خطاب له في يناير في شركة خدمة الفضاء الخاصة بماسك، سبيس إكس، في جنوب تكساس إنه يتجاهل أي نماذج ذكاء اصطناعي “لن تسمح لك بمحاربة الحروب.”
قال هيجسيث إن رؤيته لأنظمة الذكاء الاصطناعي العسكرية تعني أنها تعمل “بدون قيود أيديولوجية تحد من التطبيقات العسكرية القانونية”، مضيفًا أن “الذكاء الاصطناعي في البنتاغون لن يكون يقظًا.”
في يناير، قال هيجسيث إن روبوت الدردشة الذكية من ماسك غروك سينضم إلى شبكة البنتاغون، المسماة GenAI.mil. جاء الإعلان بعد أيام من وصول غروك – الذي تم دمجه في X، شبكة التواصل الاجتماعي المملوكة لمسك – التي أثارت اهتمامًا عالميًا بسبب توليد صور عميقة تحمل صبغة جنسية عالية لأشخاص دون موافقتهم.
أعلنت أوبن أي في أوائل فبراير أيضًا أنها ستنضم إلى منصة الذكاء الاصطناعي الآمنة الخاصة بالجيش، مما يتيح لأعضاء الخدمة استخدام إصدار مخصص من ChatGPT للمهام غير السرية.
لقد قدمت أنثروبيك نفسها لفترة طويلة على أنها أكثر الشركات الناشطة في الذكاء الاصطناعي مسؤولية وتركيزًا على السلامة، منذ أن استقال مؤسسوها من أوبن أي لتشكيل الشركة الناشئة في عام 2021.
تضع عدم اليقين مع البنتاغون تلك النوايا على المحك، وفقًا لأوين دانيلز، المدير المساعد للتحليل وزميل في مركز جورج تاون للأمن والتكنولوجيا الناشئة.
قراءات شائعة
“أقران أنثروبيك، بما في ذلك ميتا، وجوجل، وxAI، كانوا على استعداد للامتثال لسياسة الوزارة بشأن استخدام النماذج لجميع التطبيقات القانونية،” قال أوينز. “لذا فإن القوة التفاوضية للشركة هنا محدودة، وتخاطر بفقدان النفوذ في دفع الوزارة لتبني الذكاء الاصطناعي.”
في جنون الذكاء الاصطناعي الذي تلا إصدار ChatGPT، كانت أنثروبيك مرتبطة ارتباطًا وثيقًا بإدارة الرئيس جو بايدن في التطوع للخضوع لأنظمة الذكاء الاصطناعي الخاصة بها للتدقيق من جهة خارجية لحماية الأمن القومي.
حذر أمودي، الرئيس التنفيذي، من مخاطر الذكاء الاصطناعي المحتملة الكارثية بينما رفض التصنيف الذي يقول إنه “متشائم” بالنسبة للذكاء الاصطناعي. جادل في المقال الذي كتب في يناير بأن “نحن أقرب بكثير إلى خطر حقيقي في عام 2026 مما كنا عليه في عام 2023” لكن يجب إدارة تلك المخاطر بطريقة “واقعية وعملية.”
لن تكون هذه هي المرة الأولى التي تتعارض فيها تأييدات أنثروبيك لفرض قيود أكثر صرامة على الذكاء الاصطناعي مع إدارة ترامب. فقد انتقدت أنثروبيك مصنع الرقائق إنفيديا علنًا، مشددة على اقتراحات ترامب لتخفيف ضوابط التصدير لتمكين بعض شرائح الكمبيوتر الذكية الاصطناعية ليتم بيعها في الصين. ومع ذلك، لا تزال شركة الذكاء الاصطناعي شريكًا قريبًا مع إنفيديا.
كانت إدارة ترامب وأنثروبيك أيضًا على طرفي نقيض من حملة ضغط لتنظيم الذكاء الاصطناعي في الولايات المتحدة.
اتهم مستشار ترامب الأعلى للذكاء الاصطناعي، ديفيد ساكس، أنثروبيك في أكتوبر بـ “تشغيل استراتيجية متطورة لأسر التنظيم تعتمد على نشر الخوف.”
أدلى ساكس بهذه التصريحات على X ردًا على المدير المشارك في أنثروبيك، جاك كلارك، الذي كتب عن محاولته تحقيق توازن بين التفاؤل التكنولوجي و”الخوف المناسب” بشأن المسيرة المستمرة نحو أنظمة ذكاء اصطناعي أكثر قدرة.
قامت أنثروبيك بتوظيف عدد من المسؤولين السابقين في إدارة بايدن بعد عودة ترامب إلى البيت الأبيض، لكنها حاولت أيضًا إشارة نهج ثنائي الحزب. وأضافت الشركة مؤخرًا كريس ليدل، وهو مسؤول سابق في البيت الأبيض من فترة ترامب الأولى، إلى مجلس إدارتها.
إن نقاش البنتاغون – أنثروبيك يذكرنا باضطراب حدث قبل عدة سنوات عندما اعترض بعض موظفي التكنولوجيا على مشاركة شركاتهم في مشروع مافن، وهو برنامج مراقبة طائرات مسيرة للبنتاغون. بينما استقال بعض العمال بسبب المشروع وأوقفت جوجل نفسها، فقد زادت اعتماد البنتاغون على مراقبة الطائرات المسيرة فقط.
بالمثل، قال أوينز: “إن استخدام الذكاء الاصطناعي في السياقات العسكرية هو بالفعل واقع ولن يختفي”.
“بعض السياقات تحمل مخاطر أقل، بما في ذلك للأعمال المكتبية، لكن نشر الذكاء الاصطناعي في ساحة المعركة ينطوي على مخاطر مختلفة أعلى”، مشيرًا إلى استخدام القوة القاتلة أو الأسلحة مثل الأسلحة النووية. “المستخدمون العسكريون على دراية بهذه المخاطر وقد كانوا يفكرون في التخفيف منها منذ ما يقرب من عقد.”
___
أوبراين أبلغ من بروفيدنس، رود آيلاند.
