Odaily星球日报讯 Anthropic a retiré une promesse de sécurité essentielle de sa politique d’expansion responsable, ne s’engageant plus à suspendre la formation si les mesures d’atténuation des risques ne sont pas entièrement en place. Jared Kaplan, directeur scientifique d’Anthropic, a déclaré à TIME qu’avec le développement rapide de l’IA, si les concurrents continuent à avancer, faire une promesse unilatérale de suspendre la formation n’a pas de sens pratique.
OpenAI a également modifié sa déclaration de mission, en supprimant le mot « safely » dans le document IRS de 2024, qui décrivait auparavant la construction d’une IA générale « benefiting humanity safely », et la remplaçant par « ensuring that general AI benefits all humanity ».
Edward Geist, chercheur principal à la RAND Corporation, a indiqué que la différence essentielle entre l’IA avancée imaginée par les premiers défenseurs de la sécurité de l’IA et les modèles de langage actuels est fondamentale, et que le changement de terminologie reflète également la volonté des entreprises d’envoyer un signal aux investisseurs et aux décideurs politiques qu’elles ne reculeront pas dans la compétition économique par souci de sécurité.
Anthropic a récemment levé 30 milliards de dollars, avec une valorisation d’environ 380 milliards de dollars ; OpenAI poursuit une levée de fonds pouvant atteindre 100 milliards de dollars, soutenue par Amazon, Microsoft et Nvidia. Par ailleurs, Anthropic a rencontré une divergence publique avec le secrétaire à la Défense américain Pete Hegseth, en refusant d’accorder un accès complet à Claude au Pentagone, ce qui met en péril ses contrats de défense. (Decrypt)