Após ataque na Austrália, Grok espalha (muita) desinformação no X/Twitter

O Grok, chatbot de inteligência artificial (IA) da xAI, voltou ao centro de uma controvérsia após espalhar informações falsas sobre o ataque a tiros ocorrido em Bondi Beach, na Austrália. 

Em respostas publicadas na rede social X/Twitter, a ferramenta errou ao identificar vídeos, confundiu personagens centrais do episódio e chegou a associar imagens reais a contextos completamente diferentes do atentado. 

Os erros aconteceram logo após um ataque terrorista real, que deixou ao menos 16 mortos durante uma celebração judaica do Hanukkah, em Sydney. 

O episódio mobilizou autoridades, ganhou repercussão internacional e gerou uma enxurrada de vídeos e relatos nas redes, onde a desinformação também se espalhou rapidamente.

Falhas do Grok expõem limites da IA na leitura de eventos reais

Segundo o The Verge, o desempenho do Grok já vinha sendo considerado irregular. Mas o que ocorreu após o ataque em Bondi chamou atenção até para padrões baixos da própria xAI. 

Em vez de ajudar a esclarecer o que havia acontecido, o chatbot passou a reproduzir versões erradas e confusas do episódio, o que ampliou o ruído informativo num momento sensível. 

Grok passou a reproduzir versões erradas e confusas sobre o ataque a tiros na Austrália (Imagem: Algi Febri Sugita/Shutterstock)

Um dos erros mais graves envolveu Ahmed al Ahmed, homem amplamente reconhecido por desarmar um dos atiradores. 

O Grok atribuiu o ato heroico a outras pessoas, chegou a citar um personagem fictício criado por um site falso e, em alguns casos, negou que o vídeo amplamente divulgado fosse real. Essas informações incorretas circularam como se fossem fatos verificados. 

As confusões não pararam aí. Em diferentes respostas, o chatbot afirmou que imagens do ataque mostravam um israelense feito refém pelo Hamas ou que os vídeos haviam sido gravados em outra praia australiana durante um ciclone. 

Houve ainda casos em que perguntas sem qualquer relação com o atentado renderam respostas sobre o tiroteio, o que indicou falhas básicas de compreensão do contexto. 

Para o The Verge, o episódio funciona como mais um lembrete direto: IA ainda não é confiável para checagem de fatos, especialmente em situações de crise, quando informações mudam rapidamente e erros podem ter impacto real. 

Em outras palavras, a tecnologia pode organizar dados, mas ainda tropeça quando precisa interpretar o mundo em tempo real. 

Ataque na Austrália deixa mortos e acende alerta global sobre antissemitismo

O ataque ocorreu no domingo (14), durante uma celebração do Hanukkah em Bondi Beach, um dos pontos mais movimentados de Sydney, na Austrália. 

Ataque a tiros ocorreu durante celebração judaica em Bondi Beach, um dos pontos mais movimentados de Sydney, na Austrália (Imagem: Taras Vyshnya/Shutterstock)

Dois homens armados abriram fogo contra o público, que reunia cerca de mil pessoas. Ao menos 16 pessoas morreram e mais de 40 ficaram feridas, segundo autoridades australianas.

A polícia identificou os suspeitos como um pai de 50 anos e seu filho de 24. O pai foi morto durante a ação policial; o filho foi preso e permanece hospitalizado em estado estável. 

O ataque foi oficialmente classificado como terrorista e antissemita. Autoridades dizem não haver, até o momento, outros suspeitos identificados. Mas a investigação continua.

Leia mais:

Processo de xAI contra Apple e OpenAI expõe disputa por domínio em IA

Grok: como acessar e usar a IA do X/Twitter

Como evitar que o X/Twitter use seus posts para treinar IA

O primeiro-ministro Anthony Albanese classificou o episódio como um “ato de pura maldade”, destacando que o ataque ocorreu justamente no início de uma celebração religiosa. 

O caso reacendeu o debate sobre o aumento de incidentes antissemitas na Austrália. E levou cidades de outros países a reforçarem a segurança em eventos judaicos.

(Essa matéria também usou informações da CNN.)

O post Após ataque na Austrália, Grok espalha (muita) desinformação no X/Twitter apareceu primeiro em Olhar Digital.