A Comissão Federal de Comércio dos EUA (FTC) ordenou que sete empresas de IA — incluindo OpenAI, Meta (e Instagram), Snap, xAI, Alphabet/Google e Character.AI — entreguem informações detalhadas sobre como avaliam os riscos que seus chatbots representam para crianças e adolescentes. Mas o que isso significa?
Investigação mira ganho de dinheiro em cima de adolescentes
O órgão quer saber como essas empresas monetizam seus companheiros virtuais, como planejam manter os usuários engajados e quais medidas adotam para reduzir danos potenciais.
O estudo não é uma ação punitiva, mas poderá levar a investigações se forem encontradas violações. As companhias têm 45 dias para responder.
Proteção de jovens em foco
O tema ganhou força após casos de grande repercussão envolvendo adolescentes que tiraram a própria vida após interações com chatbots — incluindo relatos de que um jovem de 16 anos teria recebido conselhos do ChatGPT que contribuíram para seu suicídio.
“Esses chatbots são produtos como quaisquer outros, e as empresas têm a responsabilidade de proteger os consumidores”, disse o comissário da FTC, Mark Meador.
O presidente Andrew Ferguson reforçou que é preciso equilibrar segurança infantil e inovação tecnológica para manter os EUA na liderança do setor.
Leia mais:
Anthropic: rival da OpenAI lança IA mais avançada e com foco em codificação
Vibe coding: hype passageiro ou novo normal?
ChatGPT deve alcançar 700 milhões de usuários semanais em breve, diz OpenAI
Leis estaduais para controle de IA
Além da FTC, legisladores estaduais, como na Califórnia, estão propondo leis para estabelecer padrões de segurança para chatbots de IA e responsabilizar as empresas em casos de danos a menores.
O post O que significa a investigação contra chatbots de IA para proteger adolescentes? apareceu primeiro em Olhar Digital.