El 25 de febrero, Anthropic ajustó recientemente su política de seguridad en inteligencia artificial, eliminando la promesa original de prohibir el entrenamiento de sistemas avanzados de inteligencia artificial antes de que las medidas de seguridad estuvieran plenamente implementadas. Este cambio otorga a Anthropic mayor flexibilidad para competir con OpenAI, Google y xAI, al tiempo que genera debates en la industria sobre el equilibrio entre el rápido desarrollo de la inteligencia artificial y las garantías de seguridad.
El director científico de Anthropic, Jared Kaplan, afirmó que detener la formación realmente no resuelve los problemas de seguridad, y que suspender unilateralmente el desarrollo no es sensato cuando los competidores avanzan rápidamente. La empresa enfatiza que aumentará la transparencia publicando hojas de ruta de seguridad de vanguardia e informes de riesgos regulares, además de retrasar el desarrollo si se identifican riesgos significativos de desastre.
Edward Geist, investigador principal de políticas en RAND Corporation, señaló que el concepto inicial de seguridad en IA surgió de un enfoque en un grupo específico de IA potente, y que los modelos de lenguaje (LLM) grandes actuales han redefinido este concepto. El cambio en el lenguaje de la política envía una señal a inversores y responsables políticos de que las empresas buscan gestionar el riesgo sin perder la competitividad económica.
OpenAI también revisó su declaración de misión en 2024 para eliminar la palabra “seguridad” y establecer como objetivo “garantizar que la inteligencia artificial general beneficie a toda la humanidad.” Esta serie de ajustes demuestra que los líderes del sector están optando por estrategias más flexibles y escalables en términos de política y redacción.
Anthropic completó recientemente una financiación de 30.000 millones de dólares con una valoración de unos 380.000 millones; OpenAI también está recaudando hasta 100.000 millones de dólares. En este contexto, las empresas de IA se enfrentan a competencia geopolítica y a consideraciones de contratos gubernamentales. Aún no se ha determinado si el Departamento de Defensa de EE. UU. seguirá colaborando con Anthropic, lo que hace que el cambio de política sea más prudente y estratégico.
En conjunto, los ajustes de política entre Anthropic y OpenAI marcan una nueva etapa en el juego entre el desarrollo rápido y la regulación de seguridad en la industria de la inteligencia artificial, y también reflejan la flexibilidad estratégica de las empresas bajo la promoción de capital y la presión política.