Anthropic relaxa compromissos de segurança de IA, desencadeando uma nova dinâmica de competição com a OpenAI

GateNews

25 de fevereiro de 2024 - A Anthropic ajustou recentemente a sua política de segurança de inteligência artificial, removendo a promessa de não treinar sistemas avançados de IA antes de implementar medidas de segurança completas. Esta mudança dá à Anthropic maior flexibilidade na competição com OpenAI, Google e xAI, e também levanta discussões na indústria sobre o equilíbrio entre o rápido desenvolvimento da IA e a segurança.

O diretor científico da Anthropic, Jared Kaplan, afirmou que parar o treino não resolve realmente os problemas de segurança, e que, numa corrida acelerada com os concorrentes, suspender o desenvolvimento unilateralmente não é uma estratégia inteligente. A empresa pretende aumentar a transparência através da publicação de roteiros de segurança de ponta e relatórios de risco periódicos, além de adiar o desenvolvimento ao identificar riscos catastróficos.

Edward Geist, pesquisador sênior do Rand Corporation, destacou que o conceito inicial de segurança em IA surgiu de um grupo específico preocupado com IA poderosa, mas os grandes modelos de linguagem (LLMs) atuais redefiniram esse conceito. A mudança na redação das políticas envia um sinal aos investidores e formuladores de políticas: as empresas buscam equilibrar competitividade econômica com gestão de riscos.

A OpenAI também revisou sua declaração de missão em 2024, removendo a palavra “segurança” e afirmando que seu objetivo é “garantir que a inteligência artificial geral beneficie toda a humanidade”. Essas mudanças indicam uma transição para estratégias mais flexíveis e escaláveis por parte dos líderes do setor.

Recentemente, a Anthropic concluiu uma rodada de financiamento de 30 bilhões de dólares, avaliando a empresa em cerca de 380 bilhões de dólares; a OpenAI também está levantando até 100 bilhões de dólares. Nesse contexto, as empresas de IA enfrentam competição geopolítica e considerações sobre contratos governamentais. Ainda não está decidido se o Departamento de Defesa dos EUA continuará a colaborar com a Anthropic, o que torna a mudança de política mais cautelosa e estratégica.

No geral, as mudanças nas políticas da Anthropic e da OpenAI marcam uma nova fase na disputa entre desenvolvimento acelerado de IA e regulamentação de segurança, refletindo também a flexibilidade estratégica das empresas sob pressão de capital e política.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)