O Projeto de Lei n° 2338, apresentado pelo Senado Federal em substituição ao Projeto de Lei n° 2120, visa estabelecer o marco regulatório da inteligência artificial (IA) no Brasil. A proposta cria normas gerais para desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial para proteger direitos fundamentais e garantir sistemas seguros e confiáveis.
Sabemos que a implantação de sistemas de Inteligência Artificial (IA) no setor público e privado é urgente e a crescente demanda por essa necessidade evidencia o gargalo de mecanismos robustos de governança capazes de assegurar o uso responsável, transparente e seguro dessas tecnologias. Embora a IA apresente potencial significativo para aprimorar processos decisórios, otimizar fluxos administrativos e ampliar a eficiência institucional, sua implementação também introduz novos desafios relacionados a riscos técnicos, éticos, jurídicos e operacionais.
Nesse contexto, torna-se fundamental que os sistemas de IA sejam desenvolvidos e operados a partir da adoção de boas práticas voltadas ao monitoramento contínuo e à mitigação de riscos. Tais práticas incluem, entre outros aspectos, a avaliação prévia de impactos algorítmicos, a implementação de mecanismos de auditoria e rastreabilidade das decisões automatizadas, a supervisão humana em processos críticos e a garantia de transparência quanto aos critérios utilizados pelos modelos computacionais.
A governança adequada desses sistemas também pressupõe a criação de estruturas institucionais capazes de acompanhar o ciclo de vida da tecnologia, desde sua concepção e treinamento até sua implementação e eventual revisão. Nesse sentido, práticas como testes de robustez, validação periódica dos modelos, revisão de bases de dados utilizadas para treinamento e mecanismos de detecção de vieses tornam-se essenciais para evitar distorções, discriminações indevidas ou falhas sistêmicas.
Adicionalmente, o monitoramento contínuo dos sistemas de IA permite identificar eventuais desvios de desempenho ao longo do tempo, fenômeno frequentemente associado à chamada deriva algorítmica, que ocorre quando o comportamento do modelo se altera em razão de mudanças no ambiente de dados ou nas condições operacionais. A identificação precoce desses problemas possibilita a adoção de medidas corretivas, reduzindo impactos negativos e preservando a confiabilidade dos sistemas.
Portanto, a implementação de boas práticas de governança, monitoramento e mitigação de riscos constitui elemento central para a utilização responsável da Inteligência Artificial. Ao estabelecer padrões claros de controle, transparência e responsabilização, as organizações públicas e privadas podem usufruir dos benefícios proporcionados pela tecnologia ao mesmo tempo em que preservam valores fundamentais como legalidade, equidade, segurança e confiança institucional.
Entre os principais desafios associados ao uso da Inteligência Artificial, destaca-se a coexistência de dois aspectos fundamentais.
De um lado, trata-se de uma tecnologia capaz de produzir benefícios significativos em diversos campos de aplicação, como na indústria, na educação e na saúde, contribuindo para a otimização de processos, a ampliação da capacidade analítica e a melhoria da eficiência institucional. Por outro lado, o desenvolvimento e a utilização desses sistemas também implicam riscos que precisam ser devidamente identificados, enfrentados e geridos.
Nesse sentido, torna-se essencial a adoção de mecanismos adequados de governança e gestão de riscos, capazes de mitigar potenciais impactos negativos, de modo a assegurar que os benefícios decorrentes da utilização da Inteligência Artificial sejam efetivamente produzidos, ao mesmo tempo em que eventuais ameaças sejam prevenidas ou reduzidas.
O post Supervisão das IAs: fundamentos para uma governança responsável apareceu primeiro em Olhar Digital.






