الذكاء الإصطناعي

تشهد العلاقات بين United States Department of Defense (البنتاغون) وشركة Anthropic توترًا متزايدًا على خلفية الخلاف حول حدود استخدام نموذج الذكاء الاصطناعي «كلود».
وترى وزارة الدفاع الأميركية أن تقنيات الذكاء الاصطناعي تمثل أداة استراتيجية في مجالات متعددة، من تطوير الأنظمة الدفاعية إلى تحليل البيانات والاستخدامات الميدانية. لذلك تضغط على كبرى شركات الذكاء الاصطناعي، بما في ذلك OpenAI وGoogle وxAI، من أجل السماح باستخدام تقنياتها في جميع الأغراض القانونية، حتى الحساسة منها.
في المقابل، تتمسك أنثروبيك بالقيود التي تفرضها على نموذج «كلود». وتؤكد أنها لا تسمح باستخدام تقنيتها في تطوير أسلحة ذاتية التشغيل أو في أنظمة المراقبة الجماعية. ويعتبر مسؤولو البنتاغون هذا الموقف غير عملي، في ظل احتياجاتهم التشغيلية المتزايدة.
وتشير تقارير صحفية أميركية إلى أن وزارة الدفاع تدرس إعادة تقييم شراكتها مع الشركة. وقد تلجأ إلى إلغاء عقد تبلغ قيمته نحو 200 مليون دولار إذا لم يتوصل الطرفان إلى صيغة تفاهم تتيح مرونة أكبر في استخدام النموذج.
ويأتي هذا الجدل في وقت تتوسع فيه تطبيقات الذكاء الاصطناعي داخل المؤسسات العسكرية الأميركية. ولم تصدر أنثروبيك حتى الآن بيانًا رسميًا يوضح تفاصيل موقفها من المفاوضات الجارية، بينما يواصل البنتاغون مساعيه لتوسيع نطاق توظيف هذه التقنيات في مهامه الدفاعية.



