في 25 فبراير، أعلنت شركة Anthropic عن تعديل سياستها الأمنية المتعلقة بالذكاء الاصطناعي، حيث أزالت الالتزام السابق بعدم تدريب أنظمة الذكاء الاصطناعي المتقدمة قبل اكتمال تدابير الأمان بشكل كامل. هذا التغيير يمنح Anthropic مرونة أكبر في المنافسة مع OpenAI وGoogle وxAI، وأثار أيضًا نقاشًا في الصناعة حول التوازن بين التطور السريع للذكاء الاصطناعي وضمان الأمان.
قال Jared Kaplan، كبير العلماء في Anthropic، إن التوقف عن التدريب لا يحل فعليًا مشكلات الأمان، وأن التوقف الأحادي الجانب عن التطوير في ظل التقدم السريع للمنافسين ليس حكيمًا. وأكدت الشركة أنها ستعزز الشفافية من خلال إصدار خارطة طريق للأمان المتقدم وتقارير مخاطر منتظمة، وستؤجل التطوير عند اكتشاف مخاطر كارثية كبيرة.
وأشار Edward Geist، الباحث في السياسات في معهد RAND، إلى أن مفهوم أمان الذكاء الاصطناعي المبكر نشأ من قلق مجموعة معينة حول قوة الذكاء الاصطناعي، وأن النماذج اللغوية الكبيرة (LLMs) الحالية أعادت تعريف هذا المفهوم. وتُرسل تغييرات السياسات إشارة للمستثمرين وصانعي السياسات بأن الشركات تسعى للحفاظ على القدرة التنافسية الاقتصادية مع إدارة المخاطر.
كما قامت OpenAI في عام 2024 بتعديل بيان مهمتها، حيث أزالت كلمة “الأمان” وصاغت الهدف على أنه “ضمان أن يعود الذكاء الاصطناعي العام بالنفع على البشرية”. تظهر هذه التعديلات أن قادة الصناعة يتجهون نحو استراتيجيات أكثر مرونة وقابلية للتوسع.
وفي الوقت نفسه، أكملت Anthropic جولة تمويل بقيمة 30 مليار دولار، بقيمة تقديرية تبلغ حوالي 380 مليار دولار؛ وOpenAI تجمع أيضًا ما يصل إلى 100 مليار دولار. في ظل هذه الظروف، تواجه شركات الذكاء الاصطناعي منافسة جيوسياسية واعتبارات العقود الحكومية. ولم يتحدد بعد ما إذا كانت وزارة الدفاع الأمريكية ستستمر في التعاون مع Anthropic، مما يعكس تحول السياسات نحو الحذر والاستراتيجية.
بشكل عام، تشير تعديلات سياسات Anthropic وOpenAI إلى أن صناعة الذكاء الاصطناعي تدخل مرحلة جديدة من التوازن بين التطور السريع والتنظيم الأمني، كما تعكس مرونة الشركات في ظل الضغوط الرأسمالية والسياسية.