A plataforma X deve manter os dados do Grok até 2026. A União Europeia exige rigorosamente a eliminação de informações indevidas.

robot
Geração de resumo em curso

A autoridade reguladora da UE recentemente emitiu uma instrução importante para a plataforma X — exigindo que esta conserve toda a documentação técnica e dados operacionais do seu chatbot de IA, Grok, até ao final de 2026. A questão central por trás desta decisão é o abuso do Grok.

Conteúdo multimédia falso torna-se uma ameaça atual

De acordo com o relatório da PANews, a funcionalidade Grok na plataforma X foi recentemente utilizada por alguns utilizadores para editar e gerar conteúdos falsos, como imagens e vídeos manipulados, que posteriormente se espalharam amplamente na plataforma. As vítimas incluem tanto adultos como menores, o que é preocupante. O porta-voz da Comissão Europeia, Thomas Renière, afirmou publicamente que a UE leva a sério este tipo de comportamentos ilegais.

Ações duais das autoridades reguladoras

Esta não é a primeira vez que a UE exige retenção de dados na plataforma X; na verdade, trata-se de uma extensão da instrução existente de 2025, agora com execução prolongada. Os novos requisitos não só envolvem os registros de operação do Grok, mas também exigem que a plataforma mantenha de forma completa os dados de interação dos utilizadores, incluindo transparência na política de eliminação de cookies — a UE quer garantir que a proteção da privacidade dos utilizadores não seja negligenciada devido às aplicações de IA.

Resposta do desenvolvedor do Grok à pressão regulatória

O Grok foi desenvolvido pela xAI, uma empresa fundada por Elon Musk, e já está integrado na plataforma X. Frente às medidas regulatórias da UE, a X respondeu rapidamente, afirmando que tomará medidas ativas contra todo conteúdo ilegal — incluindo a eliminação de materiais infractores, a suspensão de contas violadoras e a cooperação proativa com entidades governamentais.

Este incidente reflete uma revisão global do limite de aplicação da IA por parte das autoridades reguladoras, especialmente quando as ferramentas de IA podem ser usadas para gerar conteúdos falsos e prejudiciais, tornando a preservação de uma cadeia de dados completa uma peça-chave para a responsabilização.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)