A rivalidade entre a Anthropic e a OpenAI e a sua disputa com o Pentágono expõem um problema mais profundo com a segurança da IA

Bem-vindo ao Eye on AI, com a repórter de IA Sharon Goldman. Nesta edição: Trump enfrenta um problema com centros de dados de IA antes das eleições de meio de mandato… Não confie na IA para preencher os seus impostos… A ferramenta de IA Claude, da Anthropic, é central na campanha dos EUA no Irã, em meio a uma amarga disputa.

Vídeo Recomendado


O debate sobre segurança em IA muitas vezes foca na própria tecnologia — quão poderosos os modelos podem se tornar ou quais riscos podem representar. Mas o conflito desta semana envolvendo Anthropic, OpenAI e o Pentágono aponta para um problema mais profundo: quanta influência sobre o futuro da IA está concentrada nas mãos de poucos líderes corporativos e funcionários do governo que decidem como esses sistemas são construídos, implantados e utilizados.

Durante anos, críticos da indústria alertaram sobre o risco de “captura industrial” — um futuro em que o desenvolvimento de sistemas de IA poderosos fica concentrado entre algumas empresas que trabalham de perto com governos, deixando a segurança desses sistemas dependente dos incentivos e rivalidades das pessoas que os controlam. Em 2023, por exemplo, o pesquisador Yoshua Bengio afirmou que o potencial de controle do setor de IA por poucas empresas era o “segundo maior problema” atrás dos riscos existenciais trazidos pela tecnologia.

Portanto, não é particularmente tranquilizador ler ontem sobre o desprezo que o CEO da Anthropic, Dario Amodei, expressou em relação ao CEO da OpenAI, Sam Altman, em um memorando vazado que Amodei escreveu para os funcionários na sexta-feira. A mensagem irritada de Amodei, que aparentemente foi enviada pelo Slack da Anthropic a todos os seus funcionários, veio após a OpenAI anunciar um acordo para fornecer IA ao Pentágono e o Secretário de Guerra, Pete Hegseth, declarar a Anthropic como um “risco na cadeia de suprimentos” por não ter fechado um acordo semelhante com seu departamento.

Amodei chamou a comunicação da OpenAI de “mentirosa”, “teatro de segurança” e “um exemplo de quem eles realmente são”, enquanto descrevia muitos comentários de Altman como “mentiras descaradas” e “gaslighting”.

Altman também fez críticas públicas à Anthropic. Recentemente, chamou uma das campanhas da empresa no Super Bowl de “claramente desonesta” e a acusou de “duplipensar”. A rivalidade também se manifestou de forma mais simbólica: em uma cúpula recente, Altman e Amodei viralizaram ao se recusarem a segurar as mãos para uma foto de grupo com o Primeiro-Ministro Narendra Modi.

Com o governo dos EUA tomando pouca ação para regular a IA — e os esforços internacionais em segurança de IA praticamente parados — o mundo tem dependido efetivamente da autorregulação da indústria. Tanto a OpenAI quanto a Anthropic apoiaram publicamente esse paradigma e assinaram compromissos voluntários de segurança. Também colaboraram às vezes na realização de avaliações independentes de segurança dos modelos uma da outra antes de seu lançamento.

Mas quando os líderes dos dois laboratórios de IA mais influentes parecem incapazes de se entender, e a competição entre eles é tão acirrada, surge uma questão desconfortável: quanto de cooperação em segurança podemos realmente esperar?

A pressão da competição já impactou ambas as empresas em relação à segurança em IA. A Anthropic revisou recentemente sua Política de Escalonamento Responsável para afirmar que não deixará de desenvolver um novo modelo apenas por não saber ainda como torná-lo seguro. E a OpenAI fez seus próprios ajustes, removendo proibições explícitas ao uso militar e de guerra em suas políticas em 2024, e mudando seu foco de pesquisa de segurança para desenvolvimento de produtos, a ponto de o ex-líder de superalinhamento, Jan Leike (que saiu para a Anthropic em meados de 2024), ter escrito no X que “a cultura e os processos de segurança na OpenAI ficaram em segundo plano diante de produtos brilhantes.”

A abordagem atual de segurança assume que empresas e governos agirão com moderação. Mas o futuro da segurança em IA pode depender de como um pequeno grupo de players poderosos navega pelas pressões da competição, geopolitica e até das novelas de Silicon Valley.

Com isso, aqui estão mais notícias sobre IA.

Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman

FORTUNE SOBRE IA

Por que o fundo de hedge de IA de Leopold Aschenbrenner aposta pesado em empresas de energia e mineradoras de bitcoin para impulsionar a corrida pela ‘superinteligência’ — por Sharon Goldman

OpenAI registra pico de 1,6 milhão de usuários do Codex, posicionando a ferramenta de codificação como porta de entrada para agentes de IA para negócios — por Jeremy Kahn

Startup coreana wrtn está no caminho de ultrapassar US$ 100 milhões em receita recorrente anual, impulsionada por um boom alimentado por uma epidemia de solidão em IA de entretenimento — por Nicolas Gordon

NOTÍCIAS SOBRE IA

Trump tem um problema com centros de dados de IA antes das eleições de meio de mandato. CNBC e outros veículos relataram que o presidente Trump enfrenta um dilema político crescente enquanto os EUA correm para construir centros de dados de IA que consomem muita energia antes das eleições de 2026. A infraestrutura necessária para impulsionar o boom de IA está gerando preocupações com o aumento dos preços de eletricidade e a sobrecarga na rede elétrica, provocando reações negativas de eleitores e comunidades locais. Em resposta, grandes empresas de tecnologia — incluindo OpenAI, Microsoft, Google, Amazon, Meta e Oracle — prometeram cobrir os custos de energia e infraestrutura relacionados aos seus centros de dados de IA para que os consumidores não vejam contas de utilidade mais altas. O acordo voluntário, promovido pela Casa Branca como uma forma de aliviar as preocupações dos eleitores, reflete uma tensão mais ampla: os formuladores de políticas desejam as vantagens econômicas e geopolíticas da rápida expansão da IA, mas as enormes demandas de energia da tecnologia estão criando pressões políticas e ambientais cada vez mais difíceis de ignorar.

Não confie na IA para preencher seus impostos. Como era de se esperar, um teste do The New York Times revelou que a IA não consegue competir com o código fiscal dos EUA, destacando uma limitação importante dos chatbots de IA atuais: eles ainda têm dificuldades com tarefas que exigem raciocínio preciso e em múltiplas etapas. Para avaliar a capacidade da tecnologia de preencher uma declaração de imposto de renda federal, o jornal testou quatro chatbots de IA — Gemini do Google, ChatGPT da OpenAI, Claude da Anthropic e Grok da xAI — para ver como se saíam com oito situações fiscais fictícias. Eles tiveram dificuldades, calculando mal o reembolso ou o valor devido à Receita Federal, com uma média de mais de US$ 2.000 de erro. Mesmo quando fornecidos com todos os materiais necessários, incluindo formulários para preencher, os chatbots cometeram erros em alguns cálculos. O problema reflete uma limitação fundamental dos grandes modelos de linguagem: eles são projetados para prever palavras prováveis, não para acompanhar informações complexas e interligadas com precisão, tornando-os fortes na escrita e resumo, mas mais fracos em tarefas procedimentais como a declaração de impostos. Especialistas dizem que os sistemas podem melhorar com ferramentas adicionais de raciocínio e camadas de verificação, mas, por ora, funcionam melhor como assistentes do que como substitutos — mais um lembrete de que, mesmo enquanto a IA transforma setores como codificação e medicina, algumas tarefas aparentemente simples continuam surpreendentemente difíceis.

A ferramenta de IA Claude, da Anthropic, é central na campanha dos EUA no Irã, em meio a uma amarga disputa. Um novo relatório do The Washington Post destaca como a IA rapidamente passou de experimentação para o campo de batalha. Segundo o jornal, o exército dos EUA usou um sistema de mira habilitado por IA chamado Maven Smart System — desenvolvido pela Palantir e incorporando o modelo Claude da Anthropic — para ajudar a identificar e priorizar alvos durante operações recentes nos Irã, acelerando o que antes levava semanas de planejamento militar para decisões quase em tempo real. No entanto, a implantação ocorre em meio a uma disputa acirrada entre a Anthropic e o Pentágono sobre os limites do uso de sua tecnologia em guerra, incluindo preocupações com armas autônomas e vigilância em massa. O episódio reforça tanto a crescente importância estratégica dos sistemas de IA de fronteira quanto a tensão entre a demanda governamental por implantação rápida e os esforços das empresas em estabelecer limites de segurança.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar