Anthropic assouplit ses engagements en matière de sécurité de l'IA, déclenchant un nouveau contexte de compétition avec OpenAI

GateNews

Le 25 février, Anthropic a récemment ajusté sa politique de sécurité en matière d’intelligence artificielle, supprimant la promesse initiale d’interdire la formation de systèmes avancés d’intelligence artificielle avant que les mesures de sécurité ne soient pleinement mises en place. Ce changement donne à Anthropic une plus grande flexibilité pour concurrencer OpenAI, Google et xAI, tout en suscitant des discussions dans l’industrie sur l’équilibre entre le développement rapide de l’intelligence artificielle et les garanties de sécurité.

Le directeur scientifique d’Anthropic, Jared Kaplan, a déclaré que l’arrêt de la formation ne résout pas vraiment les problèmes de sécurité, et que suspendre unilatéralement le développement n’est pas judicieux lorsque les concurrents progressent rapidement. L’entreprise souligne qu’elle augmentera la transparence en publiant des feuilles de route de sécurité de pointe et des rapports réguliers sur les risques, tout en retardant le développement si des risques de catastrophe importants sont identifiés.

Edward Geist, chercheur principal en politiques publiques à la RAND Corporation, a souligné que le concept initial de sécurité de l’IA provenait d’une focalisation sur un groupe spécifique d’IA puissante, et que les grands modèles de langage (LLM) actuels ont redéfini ce concept. Le changement de langage de la politique envoie un signal aux investisseurs et aux décideurs que les entreprises cherchent à gérer les risques tout en restant économiquement compétitives.

OpenAI a également révisé sa déclaration de mission en 2024 pour supprimer le mot « sécurité » et déclarer comme objectif « garantir que l’intelligence artificielle générale profite à toute l’humanité ». Cette série d’ajustements montre que les dirigeants du secteur s’orientent vers des stratégies plus flexibles et évolutives en termes de politique et de formulation.

Anthropic a récemment finalisé un financement de 30 milliards de dollars avec une valorisation d’environ 380 milliards ; OpenAI collecte également jusqu’à 100 milliards de dollars. Dans ce contexte, les entreprises d’IA font face à une concurrence géopolitique et à des considérations de contrats gouvernementaux. On n’a pas encore déterminé si le département de la Défense américain continuera à collaborer avec Anthropic, rendant ce changement de politique plus prudent et stratégique.

Pris ensemble, les ajustements de politique entre Anthropic et OpenAI marquent une nouvelle étape dans le jeu entre le développement rapide et la régulation de la sécurité dans l’industrie de l’intelligence artificielle, et reflètent également la flexibilité stratégique des entreprises sous la promotion des capitaux et la pression politique.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)