A maior reunião de tecnologia do mundo está a falar sobre “lavagem de responsabilidade” — aqui está o motivo pelo qual devemos nomeá-los como Palavras do Ano

Summer Yue não é a funcionária mais famosa da Meta. A diretora de “pesquisa de alinhamento e segurança de superinteligência” posta fotos dela a passear com o cão na praia e mensagens sobre testar a honestidade dos assistentes de IA. Ela tem um número modesto de seguidores nas redes sociais.

Vídeo Recomendado


Mas, por um dia em fevereiro, Summer Yue tornou-se a pessoa mais falada na Meta. Não por lançar um produto inovador ou anunciar um avanço em IA agentic. Ela tornou-se a pessoa mais comentada na Meta por ter sido apanhada.

“Nada te humilha mais do que dizer ao teu OpenClaw ‘confirma antes de agir’ e ver a tua caixa de entrada a ser apagada rapidamente,” escreveu Yue no X – uma publicação que já tem perto de 10 milhões de visualizações. “Não consegui impedir que acontecesse pelo telemóvel. Tive que correr para o meu Mac mini como se estivesse a desarmar uma bomba.”

OpenClaw é um “agente autónomo” – um produto de inteligência artificial que pode realizar tarefas de forma independente. Um favorito do Vale do Silício, oferece ser o teu assistente administrativo constante, o “IA que realmente faz as coisas”. Dá-lhe acesso ao teu diário, aos teus emails, à tua vida e ele vai poupar-te tempo e stress, afirmam os desenvolvedores do produto. A primeira frase no site do OpenClaw diz: “Limpa a tua caixa de entrada, envia emails, gere o teu calendário, faz o check-in para os voos.”

Yue admitiu que cometeu um “erro de principiante”. Testou o assistente numa pequena lista de emails “de brinquedo” e depois lançou-o na sua caixa de entrada inteira, que era demasiado grande para os prompts de guarda (“confirma comigo”) que tinha usado no piloto. Mas se até uma “diretora de superinteligência” na Meta tem dificuldades em navegar pelo mundo da IA agentic e dos “efeitos de compactação”, que esperança há para o resto de nós?

Leia mais: CEO da Qualcomm: ‘A resistência é inútil’ com a revolução móvel 6G a aproximar-se

É uma conversa vital, tão importante que, na Mobile World Congress desta semana em Barcelona – a maior reunião de tecnologia do mundo – o erro de Yue foi debatido no palco principal.

“Claro que toda a gente aqui na World Congress tem falado sobre o OpenClaw e como podemos usar agentes,” disse Kate Crawford, professora de investigação na Universidade do Sul da Califórnia.

“Mas depois vimos a chefe de segurança de IA da Meta usar o OpenClaw, e ela apagou toda a sua caixa de entrada. Essa é a chefe de segurança da Meta. Então, se ela está a ter problemas, acho que todos nós temos que perguntar: ‘Como podemos garantir que estes sistemas estão realmente reforçados, como podemos garantir que são rigorosamente testados? Como podemos garantir que podemos delegar neles de forma confiável?’ E esse é realmente o problema mais difícil de enfrentar, certo?”

Certo. Quando algo corre mal, quem é responsável? O utilizador? O desenvolvedor? A falta de regulamentação? Quando a realidade da IA entra em conflito com a promessa da IA, o que fazemos?

A caixa de entrada de Yue pode ser de extrema importância só para ela. Quando se trata da relação entre tecnologia e, por exemplo, a nossa saúde, ou, atenção à Anthropic, a defesa da nação, essa é uma questão muito diferente. Não há muito tempo, o Grok, o bot de IA da xAI, estava a “despir” imagens de mulheres e meninas de forma casual, causando o repúdio de milhões. A ameaça de ações governamentais e lideradas pelo Estado finalmente levou a uma intervenção.

‘Como podemos garantir que estes sistemas estão realmente reforçados, como podemos garantir que são rigorosamente testados…?’

Kate Crawford, professora de investigação na Universidade do Sul da Califórnia

“Como é que realmente construímos responsabilidade?” perguntou Crawford. “Isto é o que todos queremos. Se vais começar a usar agentes para marcar os teus voos, marcar consultas médicas e até atividades mais íntimas e confiáveis na tua vida diária, queres saber que a informação vai estar protegida.

“Então, como é que testas isso? Como é que garantes que isso está a acontecer? Se olharmos para o que aconteceu nos últimos 10 anos no espaço tecnológico, infelizmente, vimos muita lavagem de responsabilidade – que é quando as empresas dizem, bem, eu não sei. O algoritmo é que fez.”

Isso é insuficiente. Crawford exige total transparência e uma auditoria do “treinamento de agentes”, um processo de ponta a ponta que revele o que correu mal e quem é responsável. As empresas de tecnologia devem ouvir e agir. Haverá um número crescente de Summer Yue’s por aí – e certamente isso significará muito mais do que alguns emails perdidos e uma publicação honesta no X.

Junte-se a nós numa conversa virtual do Fortune 500 Europe C-Suite, em parceria com a Syndio, sobre como dominar as decisões de força de trabalho e a transparência salarial na era da IA. Destinada a líderes de RH globais e regionais, esta sessão explora como os CHROs estão a usar IA para tomar decisões salariais mais inteligentes, gerir riscos regulatórios e fortalecer a confiança na força de trabalho. Curada para CHROs e líderes sénior de RH. Registe-se já.

GROK-4,07%
XAI-2,78%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar