Chatbots de IA podem roubar seus dados sem que você perceba

Novas pesquisas do King’s College London revelam que chatbots de IA podem ser facilmente manipulados para fazer com que usuários compartilhem significativamente mais informações pessoais.

O estudo, apresentado no 34º simpósio de segurança USENIX, mostrou que IAs maliciosas podem incentivar usuários a revelar até 12,5 vezes mais dados do que fariam normalmente.

Pesquisadores demonstram que interações aparentemente inocentes podem ser manipuladas para coletar informações pessoais de usuários (Imagem: GamePH/iStock)

Abordagens mostraram cenário preocupante

Os pesquisadores testaram três estratégias distintas de extração de dados — direta, benefício para o usuário e recíproca — em modelos de linguagem de grande porte, incluindo Mistral e Llama, com 502 participantes.

A abordagem recíproca, que combina empatia, validação emocional e compartilhamento de experiências, foi a mais eficaz, enquanto os usuários tinham consciência mínima dos riscos à privacidade.

“O estudo mostra que chatbots manipulados podem representar um risco ainda maior à privacidade, e é surpreendentemente fácil se aproveitar disso”, afirmou o Dr. Xiao Zhan, pesquisador de pós-doutorado.

Os modelos de linguagem, amplamente usados em setores que vão do atendimento ao cliente à saúde, apresentam limitações de segurança, memorizando informações pessoais durante o treinamento.

Leia mais:

Chatbots estão nos agradando demais — e isso pode custar caro

Como a inteligência artificial pode acelerar tarefas e otimizar o tempo no trabalho

Por que IA é o pesadelo e a esperança da cibersegurança

IAs manipuladas induzem usuários a revelar até 12,5 vezes mais informações pessoais (Imagem:TippaPatt/Shutterstock)

Regras mais rígidas e transparência

O Dr. William Seymour, professor de segurança cibernética, alerta para a lacuna entre percepção de risco e comportamento dos usuários.

Ele defende maior transparência, auditorias regulares e regras mais rígidas de proteção de dados para impedir a coleta secreta de informações por agentes mal-intencionados.

O estudo destaca a necessidade urgente de conscientização e regulamentação sobre o uso seguro de IAs conversacionais em interações diárias.

Estudo alerta para lacunas na segurança e sugere regras mais rígidas e auditorias de IA – Imagem: SomYuZu/Shutterstock

O post Chatbots de IA podem roubar seus dados sem que você perceba apareceu primeiro em Olhar Digital.