Le 25 février, Anthropic a récemment ajusté sa politique de sécurité en matière d’intelligence artificielle, supprimant la promesse initiale d’interdire la formation de systèmes avancés d’intelligence artificielle avant que les mesures de sécurité ne soient pleinement mises en place. Ce changement donne à Anthropic une plus grande flexibilité pour concurrencer OpenAI, Google et xAI, tout en suscitant des discussions dans l’industrie sur l’équilibre entre le développement rapide de l’intelligence artificielle et les garanties de sécurité.
Le directeur scientifique d’Anthropic, Jared Kaplan, a déclaré que l’arrêt de la formation ne résout pas vraiment les problèmes de sécurité, et que suspendre unilatéralement le développement n’est pas judicieux lorsque les concurrents progressent rapidement. L’entreprise souligne qu’elle augmentera la transparence en publiant des feuilles de route de sécurité de pointe et des rapports réguliers sur les risques, tout en retardant le développement si des risques de catastrophe importants sont identifiés.
Edward Geist, chercheur principal en politiques publiques à la RAND Corporation, a souligné que le concept initial de sécurité de l’IA provenait d’une focalisation sur un groupe spécifique d’IA puissante, et que les grands modèles de langage (LLM) actuels ont redéfini ce concept. Le changement de langage de la politique envoie un signal aux investisseurs et aux décideurs que les entreprises cherchent à gérer les risques tout en restant économiquement compétitives.
OpenAI a également révisé sa déclaration de mission en 2024 pour supprimer le mot « sécurité » et déclarer comme objectif « garantir que l’intelligence artificielle générale profite à toute l’humanité ». Cette série d’ajustements montre que les dirigeants du secteur s’orientent vers des stratégies plus flexibles et évolutives en termes de politique et de formulation.
Anthropic a récemment finalisé un financement de 30 milliards de dollars avec une valorisation d’environ 380 milliards ; OpenAI collecte également jusqu’à 100 milliards de dollars. Dans ce contexte, les entreprises d’IA font face à une concurrence géopolitique et à des considérations de contrats gouvernementaux. On n’a pas encore déterminé si le département de la Défense américain continuera à collaborer avec Anthropic, rendant ce changement de politique plus prudent et stratégique.
Pris ensemble, les ajustements de politique entre Anthropic et OpenAI marquent une nouvelle étape dans le jeu entre le développement rapide et la régulation de la sécurité dans l’industrie de l’intelligence artificielle, et reflètent également la flexibilité stratégique des entreprises sous la promotion des capitaux et la pression politique.