#TrumpordersfederalbanonAnthropicAI


Trump Ordena Proibição Federal de IA Anthropic em Escalada de Confronto com o Pentágono

Presidente ordena que todas as agências cessem o uso da tecnologia Claude, acusa a empresa de colocar a segurança nacional em risco

WASHINGTON — O presidente Donald Trump ordenou que todas as agências federais parem imediatamente de usar a tecnologia de inteligência artificial desenvolvida pela Anthropic, escalando uma disputa acirrada entre a administração Trump e a empresa de IA com sede em São Francisco sobre o acesso do militar aos seus poderosos sistemas de chatbot.

Em uma publicação incendiária nas redes sociais na Truth Social na sexta-feira, Trump anunciou que estava a ordenar "CADA Agência Federal no Governo dos Estados Unidos a PARAR IMEDIATAMENTE todo uso da tecnologia da Anthropic", acrescentando: "Não precisamos dela, não a queremos, e não faremos negócios com eles novamente!".

A ordem do presidente inclui um período de transição de seis meses para o Departamento de Defesa e outras agências que já integraram a IA Claude da Anthropic nas suas operações, permitindo tempo para eliminar gradualmente a tecnologia.

Disputa pelo Acesso Militar Provoca Confronto

A ação sem precedentes contra uma empresa de IA doméstica decorre de um conflito de semanas entre a Anthropic e o Pentágono sobre os termos do contrato que regulam como a tecnologia da empresa pode ser usada em aplicações militares.

O Secretário de Defesa Pete Hegseth estabeleceu um prazo para sexta-feira exigindo que a Anthropic permitisse o uso militar irrestrito das suas ferramentas de IA para "qualquer propósito legal". O Pentágono ameaçou simultaneamente classificar a empresa como um "risco na cadeia de abastecimento" — uma etiqueta normalmente reservada para adversários estrangeiros — e invocou a possibilidade de usar a Lei de Produção de Defesa da Guerra Fria para obrigar a conformidade.

O CEO da Anthropic, Dario Amodei, recusou-se a atender às exigências, citando preocupações de que a tecnologia da empresa pudesse ser usada para vigilância em massa de cidadãos americanos ou em sistemas de armas totalmente autônomas.

"Não podemos, de boa consciência, atender às exigências do Departamento de Defesa", afirmou Amodei numa declaração na quinta-feira. "Essas ameaças não vão alterar a nossa posição."

Após o anúncio de Trump, Hegseth confirmou a classificação de risco na cadeia de abastecimento, declarando que a Anthropic estava oficialmente restrita de trabalhar como contratante de defesa — marcando a primeira vez que o governo dos EUA aplicou tal etiqueta a uma empresa doméstica.

Retórica Ardente de Trump Aponta para Liderança da Empresa

O anúncio do presidente incluiu ataques pessoais severos à liderança da Anthropic, que ele caracterizou como desconectada das imperativas de segurança nacional.

"Os lunáticos de esquerda da Anthropic cometeram um erro catastrófico", escreveu Trump, segundo traduções de suas declarações. "Eles tentam forçar o Departamento de Guerra a cumprir seus termos de serviço em vez da nossa Constituição."

Trump alertou para consequências severas caso a empresa não cooperasse durante o período de transição, afirmando que usaria "todo o poder da presidência para obrigá-los a cumprir, com sérias consequências civis e criminais."

O presidente especificamente invocou o "Departamento de Guerra" — sua designação alternativa preferida para o Departamento de Defesa — enquadrando o conflito como uma questão de autoridade militar versus excesso de poder corporativo.

Indústria Apoia Anthropic

A postura firme da administração recebeu amplo apoio à Anthropic de todo o setor de tecnologia, incluindo dos concorrentes mais ferozes da empresa.

O CEO da OpenAI, Sam Altman, cujo empresa compete diretamente com a Anthropic no mercado de IA comercial, manifestou-se publicamente ao lado do seu rival num memorando interno para a equipa. Altman enfatizou que a OpenAI partilhava as mesmas "linhas vermelhas" relativas às aplicações militares, rejeitando usos envolvendo vigilância doméstica ou armas ofensivas autônomas.

"Dois dos nossos princípios de segurança mais importantes são a proibição de vigilância em massa doméstica e a responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomas", afirmou Altman. "O Departamento de Defesa concorda com esses princípios, refletindo-os na lei e na política, e nós os incorporamos no nosso acordo."

O apoio estendeu-se além das salas executivas. Mais de 550 engenheiros de IA assinaram uma carta aberta apoiando a posição da Anthropic, enquanto sindicatos que representam aproximadamente 700.000 trabalhadores na Amazon, Google e Microsoft instaram os seus empregadores a "recusar-se a cumprir" as exigências do Pentágono.

"Os trabalhadores de tecnologia estão unidos na nossa posição de que os nossos empregadores não devem estar no negócio de guerra", afirmou a Diretoria Executiva eleita do Sindicato dos Trabalhadores do Alphabet numa declaração.

Até o general aposentado da Força Aérea Jack Shanahan, que liderou a iniciativa de IA Project Maven do Pentágono durante o primeiro mandato de Trump, expressou simpatia pela posição da Anthropic. "Eles não estão a tentar ser bonitinhos aqui", escreveu Shanahan nas redes sociais, observando que as linhas vermelhas de segurança do Claude pareciam "razoáveis".

Ameaças Duais do Pentágono São Contraditórias

Amodei destacou publicamente o que caracterizou como inconsistências lógicas na abordagem do Pentágono, observando que as ameaças simultâneas de classificar a Anthropic como um risco de segurança e como um ativo essencial para a segurança nacional eram fundamentalmente contraditórias.

Um antigo funcionário do Departamento de Defesa, que falou anonimamente à BBC, caracterizou a posição legal do Pentágono como "extremamente frágil" e sugeriu que a Anthropic parecia ter a vantagem na confrontação.

"A base legal para ameaçar a Anthropic com invocar a Lei de Produção de Defesa ou ser rotulada como risco na cadeia de abastecimento era extremamente fraca", afirmou o antigo funcionário, acrescentando que a empresa poderia potencialmente recorrer a ações legais se essas ameaças fossem concretizadas.

Implicações Financeiras e Impacto no Mercado

O conflito tem implicações financeiras significativas para ambas as partes. A Anthropic detém um contrato com o Pentágono no valor de aproximadamente $200 milhões, e a sua tecnologia — incluindo uma versão especializada "Claude Gov" — tinha sido amplamente implantada na comunidade de inteligência e nas forças armadas.

A empresa estava numa posição única como o único sistema de IA previamente autorizado a operar nos ambientes de nuvem mais classificados do Pentágono.

Apesar do valor do contrato, o impacto financeiro na Anthropic pode ser limitado. A avaliação mais recente da empresa atingiu aproximadamente $380 bilhões com base nas receitas atuais e nos lucros futuros projetados — tornando o contrato com o Pentágono relativamente modesto em comparação.

"O antigo funcionário acrescentou que a Anthropic parecia ter a vantagem na luta. 'Esta é uma excelente publicidade para eles e simplesmente não precisam do dinheiro'", relatou a BBC.

Concorrentes Prontos a Preencher o Vazio

A ação da administração contra a Anthropic parece provável de beneficiar empresas concorrentes de IA, incluindo a xAI de Elon Musk, que já garantiu acesso às redes militares classificadas para o seu chatbot Grok.

A OpenAI e o Google, ambos com contratos de defesa existentes, estão a negociar ativamente com o Pentágono para expandir as suas parcerias militares, enquanto procuram manter algumas salvaguardas em torno das suas tecnologias.

A OpenAI confirmou que chegou a um acordo com o Pentágono sobre termos que respeitam as linhas vermelhas de ambas as empresas. "O Departamento de Defesa concorda com esses princípios, refletindo-os na lei e na política, e nós os incorporamos no nosso acordo", afirmou Altman.

Contexto Histórico: Reabrindo Feridas do Project Maven

A atual confrontação ecoa tensões que surgiram em 2018, quando milhares de funcionários do Google protestaram contra a participação da empresa no Project Maven — uma iniciativa do Pentágono que usa IA para analisar imagens de drones para fins de ataque.

Essa revolta dos funcionários levou o Google a recusar a renovação do contrato e a adotar princípios públicos contra o uso de IA em sistemas de armas. A disputa atual reabriu essas feridas, com trabalhadores de tecnologia mobilizando-se novamente contra aplicações militares das tecnologias das suas empresas.

"O conflito é a última erupção numa saga que remonta pelo menos a 2018", observou a Reuters, notando que "robôs assassinos teóricos" continuam a ser uma preocupação de ativistas de direitos humanos e tecnologia, mesmo enquanto a Ucrânia e Gaza se tornaram "teatros de sistemas cada vez mais automatizados no campo de batalha."

Reações Políticas Dividem-se por Linhas Partidárias

A ação do presidente recebeu críticas severas de legisladores democratas, que questionaram se as decisões de segurança nacional estavam a ser impulsionadas por considerações políticas em vez de análises cuidadosas.

O senador Mark Warner, da Virgínia, vice-presidente democrata do Comitê de Inteligência, expressou sérias preocupações sobre a diretiva. "A diretiva do presidente para parar o uso de uma das principais empresas de IA americana em todo o governo federal, combinada com uma retórica inflamatória contra essa empresa, levanta sérias dúvidas sobre se as decisões de segurança nacional estão a ser tomadas com base em análises cuidadosas ou considerações políticas", afirmou Warner.

Implementação e Próximos Passos

As agências federais agora devem enfrentar os desafios práticos de substituir a tecnologia de IA que se tornou profundamente integrada nas operações governamentais. O período de transição de seis meses visa minimizar as perturbações enquanto permite uma mudança ordenada para fornecedores alternativos.

A ordem de Trump não chegou a invocar o Lei de Produção de Defesa, que teria obrigado a Anthropic a continuar a fornecer serviços independentemente de objeções contratuais. No entanto, o presidente avisou explicitamente sobre consequências crescentes se a empresa não cooperasse no processo de eliminação.

A Anthropic indicou que trabalhará para garantir uma transição suave para outros fornecedores, com Amodei afirmando que a empresa "trabalhará para facilitar uma transição suave para outro fornecedor" se o Pentágono prosseguir com a rescisão do relacionamento.

A empresa não comentou publicamente sobre a classificação de risco na cadeia de abastecimento nem indicou se poderá recorrer a ações legais contra as ações da administração.

Implicações Mais Amplas para a Indústria de IA

O confronto estabelece precedentes potencialmente importantes para as relações entre empresas de IA e o governo dos EUA. As empresas de tecnologia enfrentam uma pressão crescente para equilibrar os seus princípios éticos declarados com as exigências dos clientes de segurança nacional e os contratos substanciais que oferecem.

Analistas sugerem que o desfecho pode influenciar como outras empresas de IA abordam parcerias militares e se conseguem manter salvaguardas significativas uma vez que as suas tecnologias sejam implantadas em contextos de defesa.

A disputa também destaca questões fundamentais sobre quem determina os limites das aplicações militares aceitáveis de IA — os desenvolvedores de tecnologia que constroem os sistemas ou os órgãos governamentais que os implantam.

Como observou um antigo funcionário do Departamento de Defesa, a confrontação reflete, em última análise, tensões não resolvidas sobre "o papel da IA na segurança nacional e preocupações sobre como máquinas cada vez mais capazes podem ser usadas em situações de alto risco envolvendo força letal, informações sensíveis ou vigilância governamental.".

Por agora, a Anthropic parece preparada para aceitar as consequências de sua postura de princípio. "Espero que o Pentágono reconsidere, dado o valor do Claude para o militar", afirmou Amodei na quinta-feira. "Mas, se não, trabalharemos para facilitar uma transição suave para outro fornecedor.".
Ver original
post-image
post-image
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 1
  • Repostar
  • Compartilhar
Comentário
0/400
HighAmbitionvip
· 1h atrás
Obrigado pela atualização
Ver originalResponder0
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)