Novas pesquisas do King’s College London revelam que chatbots de IA podem ser facilmente manipulados para fazer com que usuários compartilhem significativamente mais informações pessoais.
O estudo, apresentado no 34º simpósio de segurança USENIX, mostrou que IAs maliciosas podem incentivar usuários a revelar até 12,5 vezes mais dados do que fariam normalmente.
Abordagens mostraram cenário preocupante
Os pesquisadores testaram três estratégias distintas de extração de dados — direta, benefício para o usuário e recíproca — em modelos de linguagem de grande porte, incluindo Mistral e Llama, com 502 participantes.
A abordagem recíproca, que combina empatia, validação emocional e compartilhamento de experiências, foi a mais eficaz, enquanto os usuários tinham consciência mínima dos riscos à privacidade.
“O estudo mostra que chatbots manipulados podem representar um risco ainda maior à privacidade, e é surpreendentemente fácil se aproveitar disso”, afirmou o Dr. Xiao Zhan, pesquisador de pós-doutorado.
Os modelos de linguagem, amplamente usados em setores que vão do atendimento ao cliente à saúde, apresentam limitações de segurança, memorizando informações pessoais durante o treinamento.
Leia mais:
Chatbots estão nos agradando demais — e isso pode custar caro
Como a inteligência artificial pode acelerar tarefas e otimizar o tempo no trabalho
Por que IA é o pesadelo e a esperança da cibersegurança
Regras mais rígidas e transparência
O Dr. William Seymour, professor de segurança cibernética, alerta para a lacuna entre percepção de risco e comportamento dos usuários.
Ele defende maior transparência, auditorias regulares e regras mais rígidas de proteção de dados para impedir a coleta secreta de informações por agentes mal-intencionados.
O estudo destaca a necessidade urgente de conscientização e regulamentação sobre o uso seguro de IAs conversacionais em interações diárias.
O post Chatbots de IA podem roubar seus dados sem que você perceba apareceu primeiro em Olhar Digital.