O governador da Califórnia, Gavin Newsom, sancionou uma lei pioneira que impõe regras de segurança para o uso de chatbots de inteligência artificial.
O projeto SB 243 torna o estado o primeiro do país a exigir que empresas como OpenAI, Meta, Character AI e Replika adotem protocolos obrigatórios de proteção, especialmente voltados a crianças e usuários vulneráveis.
Detalhes da nova legislação
Apresentada em janeiro pelos senadores Steve Padilla e Josh Becker, a medida ganhou força após casos trágicos envolvendo jovens que interagiram com chatbots e cometeram suicídio.
A nova legislação, que entra em vigor em 1º de janeiro de 2026, exige verificação de idade, alertas de segurança, mensagens automáticas de prevenção ao suicídio e restrição de conteúdo sexualizado.
Também proíbe que bots se apresentem como profissionais de saúde e obriga lembretes de pausa para menores.
Leia mais
IA pode inserir falhas invisíveis em chips, alerta estudo
Golpe do roubo de voz cresce no Brasil com uso de IA
IA concentra mais da metade dos investimentos globais de risco em 2025
Obrigações por parte de empresas de IA
As empresas deverão ainda compartilhar com o Departamento de Saúde Pública dados sobre interações de risco e implementar protocolos para lidar com crises emocionais. Violações, como o uso de deepfakes ilegais, poderão gerar multas de até US$ 250 mil.
Newsom afirmou que a lei busca equilibrar inovação e responsabilidade, protegendo jovens de danos causados por tecnologias não regulamentadas. A Califórnia também aprovou recentemente outra lei de IA (SB 53) que exige transparência de grandes laboratórios sobre seus sistemas de segurança.
O post Califórnia aprova primeira lei dos EUA para regulamentar chatbots de IA apareceu primeiro em Olhar Digital.