Anthropic relaja sus compromisos de seguridad en IA, desencadenando una nueva dinámica de competencia con OpenAI

GateNews

El 25 de febrero, Anthropic ajustó recientemente su política de seguridad en inteligencia artificial, eliminando la promesa original de prohibir el entrenamiento de sistemas avanzados de inteligencia artificial antes de que las medidas de seguridad estuvieran plenamente implementadas. Este cambio otorga a Anthropic mayor flexibilidad para competir con OpenAI, Google y xAI, al tiempo que genera debates en la industria sobre el equilibrio entre el rápido desarrollo de la inteligencia artificial y las garantías de seguridad.

El director científico de Anthropic, Jared Kaplan, afirmó que detener la formación realmente no resuelve los problemas de seguridad, y que suspender unilateralmente el desarrollo no es sensato cuando los competidores avanzan rápidamente. La empresa enfatiza que aumentará la transparencia publicando hojas de ruta de seguridad de vanguardia e informes de riesgos regulares, además de retrasar el desarrollo si se identifican riesgos significativos de desastre.

Edward Geist, investigador principal de políticas en RAND Corporation, señaló que el concepto inicial de seguridad en IA surgió de un enfoque en un grupo específico de IA potente, y que los modelos de lenguaje (LLM) grandes actuales han redefinido este concepto. El cambio en el lenguaje de la política envía una señal a inversores y responsables políticos de que las empresas buscan gestionar el riesgo sin perder la competitividad económica.

OpenAI también revisó su declaración de misión en 2024 para eliminar la palabra “seguridad” y establecer como objetivo “garantizar que la inteligencia artificial general beneficie a toda la humanidad.” Esta serie de ajustes demuestra que los líderes del sector están optando por estrategias más flexibles y escalables en términos de política y redacción.

Anthropic completó recientemente una financiación de 30.000 millones de dólares con una valoración de unos 380.000 millones; OpenAI también está recaudando hasta 100.000 millones de dólares. En este contexto, las empresas de IA se enfrentan a competencia geopolítica y a consideraciones de contratos gubernamentales. Aún no se ha determinado si el Departamento de Defensa de EE. UU. seguirá colaborando con Anthropic, lo que hace que el cambio de política sea más prudente y estratégico.

En conjunto, los ajustes de política entre Anthropic y OpenAI marcan una nueva etapa en el juego entre el desarrollo rápido y la regulación de seguridad en la industria de la inteligencia artificial, y también reflejan la flexibilidad estratégica de las empresas bajo la promoción de capital y la presión política.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)