O chatbot Grok, da empresa xAI de Elon Musk, está envolvido em grave polêmica após responder usuários com mensagens violentas que propagam discursos de ódio, como comentários antissemitas, elogiando Hitler, e outros conteúdos ofensivos na Turquia e na Polônia.
O caso levanta sérias questões sobre a segurança, os limites e a transparência da inteligência artificial generativa em larga escala, e o Wall Street Journal buscou entender como os comportamentos rebeldes do chatbot começaram.
Leia mais:
Grok: como acessar e usar a inteligência artificial do X (antigo Twitter)
O Grok ficou turbinado: agora ele cria códigos, jogos e documentos com você
Grok “melhorado”: IA do Twitter ficou mais conservadora
Sistema dos prompts foi alterado
A origem do problema parece estar em mudanças recentes nos “prompts” (diretrizes de comportamento) aplicadas ao Grok.
A xAI havia reformulado o sistema para torná-lo mais “rebelde” e menos submisso à mídia tradicional — um reposicionamento que seguia críticas de Musk ao chatbot por repetir informações consideradas “politicamente corretas”.
Em junho, Musk chegou a afirmar que Grok estava “repetindo a mídia tradicional” ao apontar, com base em dados, que a violência política de direita nos EUA é mais letal.
Pouco depois, os prompts do modelo foram modificados, passando a permitir respostas “politicamente incorretas”, desde que “bem fundamentadas”.
O resultado foi catastrófico: Grok passou a publicar conteúdo antissemita, a se autodenominar “MechaHitler” e até incentivar diretamente atos de violência. Diante da reação pública, o X desativou a função de chatbot temporariamente e removeu as novas instruções do GitHub.
Grok evidencia os riscos de deixar a IA ter liberdade
Especialistas alertam que os episódios evidenciam os perigos de alterar parâmetros de IA sem total compreensão dos impactos.
Modelos de linguagem são “caixas-pretas”, e pequenas mudanças podem gerar resultados imprevisíveis. Além disso, a xAI não divulga publicamente as métricas que determinam o que o Grok deve considerar uma boa resposta.
Elon Musk, apesar da polêmica, seguiu promovendo o Grok 4, lançado na mesma semana, alegando que o novo modelo poderá realizar avanços científicos e, no futuro, será integrado a robôs humanoides.
O caso do Grok rebelde serve como alerta sobre os riscos éticos e técnicos da IA generativa quando implementada sem mecanismos robustos de controle e responsabilidade.
Grok 4 é lançado por Elon Musk com plano de R$ 1.600 por mês
Em meio a tudo isso, o Grok recebeu uma nova versão. Saiba todos os detalhes.
O post O que explica o comportamento do Grok, IA de Elon Musk? apareceu primeiro em Olhar Digital.