IA já assumiu a moderação de conteúdo, mas deixa a desejar no trabalho

A moderação de conteúdo é o processo de triagem, avaliação e aplicação de regras sobre o que é publicado por usuários em plataformas digitais. O objetivo é impedir a propagação de conteúdos nocivos, como desinformação e discursos de ódio.

Num primeiro momento, este trabalho era feito por humanos. Com o avanço da tecnologia, ele passou a ser automatizado. E, em alguns casos, a inteligência artificial já assumiu este papel, embora os resultados não sejam os esperados.

Moderação de conteúdo é essencial para evitar discursos de ódio, por exemplo (Imagem: Roman Samborskyi/Shutterstock)

Preocupações com o futuro dos ambientes virtuais

Segundo reportagem da Bloomberg, a IA é vista como uma grande esperança para facilitar o trabalho de moderação de conteúdo.

No entanto, profissionais da área alegam que a tecnologia ainda não se mostrou capaz de detectar de forma confiável publicações que violem as políticas das empresas de mídia social.

Mesmo assim, as principais plataformas têm preferido substituir os humanos pela ferramenta.

Este cenário gera preocupações de que o ambiente virtual se torne cada vez mais perigosos e impróprio para crianças, por exemplo.

Enquanto isso, as gigantes da tecnologia dizem que é impossível contratar trabalhadores em número suficiente para dar conta da demanda.

As discussões sobre o tema ganham ainda mais importância pelo fato de muitas redes sociais terem sido acusadas de não fazer o suficiente para remover conteúdos violentos, preconceituosos e até extremistas.

Leia mais

Homem cai em golpe após IA indicar telefone falso

Americanos temem que IA cause desemprego e caos político

Fala AI: por que os brasileiros ainda não usam IA generativa?

Ferramenta ainda não consegue identificar conteúdos nocivos de forma eficiente (Imagem: Anggalih Prasetya/Shutterstock)

IA está dando mais trabalho para os profissionais

Dos 13 moderadores com quem a Bloomberg conversou, todos, exceto um, disseram que as ferramentas de IA dificultam seu trabalho. A principal reclamação é que não se pode confiar nas sugestões da inteligência artificial. Eles estimam que a tecnologia falhe em cerca de 70% das avaliações feitas sobre conteúdos potencialmente impróprios.

Os profissionais temem que não importa o quão bem eles treinem a inteligência artificial, a ferramenta talvez nunca consiga captar as sutilezas da fala e do comportamento humanos. Em uma postagem em janeiro deste, a Meta disse que os sistemas automatizados da empresa “resultaram em muitos erros” e censura excessiva de conteúdos que não apresentavam qualquer tipo de problema.

TikTok é uma das empresas que substitui os moderadores pela IA (Imagem: Sidney de Almeida/Shutterstock)

Os computadores são muito bons em perguntas de sim ou não. Eles são menos bons em subjetividade, contexto cultural e gosto. O desenvolvimento do julgamento correto é um processo constante. As políticas da empresa mudam rapidamente dependendo dos regulamentos e climas políticos, as normas sociais evoluem e novas calúnias são constantemente inventadas. Os humanos evoluem sua linguagem mais rapidamente do que a IA pode detectá-la e entendê-la.

Mike Pappas, CEO da empresa de moderação de IA Modulate

Apesar dos alertas, as empresas do setor continuam aumentando o uso da IA para a função como foram de cortar custos. O TikTok recentemente demitiu centenas de funcionários da área e planeja realizar novo cortes. Já o X (antigo Twitter) afirmou que a tecnologia “pode ajudar a apoiar o bem-estar da equipe de moderação” e melhorar o serviço.

O post IA já assumiu a moderação de conteúdo, mas deixa a desejar no trabalho apareceu primeiro em Olhar Digital.