Um novo estudo conduzido por pesquisadores do Instituto Stanford de Inteligência Artificial Centrada no Ser Humano (HAI) revelou que as big techs e desenvolvedoras estão utilizando as interações dos usuários com chatbots para treinar seus modelos de IA.
Essa prática, frequentemente pouco transparente, levanta sérias preocupações sobre privacidade e proteção de dados pessoais.
Pesquisa analisou os maiores chatbots do mercado
A pesquisa, liderada por Jennifer King, especialista em políticas de dados, analisou 28 documentos públicos de políticas de privacidade, subpolíticas e FAQs relacionados aos chatbots dessas empresas, incluindo ChatGPT, Claude, Gemini, Copilot, Meta AI e Nova.
Por padrão, todas as empresas utilizam as conversas dos usuários para aprimorar seus modelos. A Anthropic fez, recentemente, uma alteração em seus termos de serviço para deixar claro que as conversas serão utilizadas. No caso dela e de algumas outras empresas, existe a opção de exclusão (opt-out), permitindo que as conversas não sejam utilizadas para esse fim.
Além disso, parte das companhias mantém esses dados por tempo indeterminado e permite que os funcionários revisem manualmente a transcrição das conversas.
Se você compartilha informações sensíveis em um diálogo com o ChatGPT, o Gemini ou outros modelos, elas podem ser coletadas e usadas para treinamento, mesmo que estejam em arquivos anexados.
Jennifer King, especialista em políticas de dados e autora do estudo, ao TechXplore.
Fatores de preocupação identificados
King alerta que o problema é agravado pela ausência de uma regulamentação federal de privacidade nos Estados Unidos, o que deixa o tema sob uma “colcha de retalhos” de leis estaduais, dificultando a responsabilização das empresas.
Além disso, os pesquisadores identificaram outros pontos preocupantes nas políticas das empresas:
As informações dos usuários podem ser armazenadas por tempo prolongado.
Dados de menores podem ser utilizados, levantando questões de consentimento e proteção infantil.
Os desenvolvedores não deixam claro como os dados dos usuários são coletados, armazenados e utilizados.
Faltam mecanismos eficazes para garantir que as práticas de privacidade sejam seguidas corretamente.
Riscos à privacidade exigem atenção
A equipe de King destaca a complexidade e falta de clareza das políticas de privacidade das empresas, dificultando a compreensão dos direitos dos usuários. Além disso, informações captadas em conversas com chatbots são combinadas com dados de outros produtos, como pesquisas na web, redes sociais e histórico de compras, criando perfis ainda mais detalhados dos usuários.
O estudo também aponta riscos específicos relacionados à saúde e à privacidade biométrica. Por exemplo, uma solicitação simples de receitas com baixo teor de açúcar pode levar o chatbot a classificar o usuário como vulnerável a doenças como diabetes, influenciando anúncios direcionados e o acesso a seguros de saúde.
Leia mais:
WhatsApp Business vai proibir chatbots de IA; entenda
Meta vai permitir que pais controlem como filhos usam IA no Instagram
Califórnia aprova primeira lei dos EUA para regulamentar chatbots de IA
Para reduzir esses riscos, os pesquisadores recomendam a criação de uma regulamentação federal abrangente que exija consentimento explícito (opt-in) para o uso de dados em treinamento de IA e a eliminação automática de informações pessoais das interações com os sistemas.
Precisamos decidir se os avanços em inteligência artificial justificam a perda significativa de privacidade dos consumidores. É urgente investir em soluções de IA que preservem a privacidade por design, não como uma reflexão tardia.
Jennifer King, especialista em políticas de dados e autora do estudo, ao TechXplore.
O post Alerta: suas conversas com chatbots podem ser usadas para treinar IA apareceu primeiro em Olhar Digital.