Apple é processada nos EUA por materiais de abuso infantil no iCloud

O Estado de Virgínia Ocidental (EUA) entrou com uma ação judicial contra a Apple acusando a companhia de permitir, de forma consciente, que seu serviço de armazenamento em nuvem, o iCloud, fosse usado para guardar e distribuir material de abuso sexual infantil.

Segundo o procurador-geral estadual, John B. McCuskey, a empresa teria se recusado a empregar ferramentas capazes de reconhecer esse tipo de conteúdo. O processo, apresentado nesta quinta-feira (19), é considerado o primeiro movido por um órgão governamental contra a empresa por esse motivo.

O que o Estado diz no processo contra a Apple

Na ação de 52 páginas, o Estado afirma que, ao optar por não utilizar determinadas tecnologias de detecção de fotos e vídeos ilegais, a empresa facilitou a disseminação do material e violou leis locais de proteção ao consumidor;

McCuskey declarou que “a Apple está usando o manto da privacidade para mitigar suas responsabilidades com as crianças e famílias neste país” e acrescentou que as imagens precisam ser removidas e que “a Apple precisa estar trabalhando com as autoridades para garantir que todos que as possuam sejam processados com todo o rigor da lei”;

Segundo o procurador-geral, as imagens “são um registro permanente do trauma de uma criança e essa criança é revitimizada toda vez que o material é compartilhado ou visualizado”. Ele classificou a conduta como “desprezível” e disse que a inação da empresa é “imperdoável”.

A ação afirma que a privacidade do serviço de nuvem da companhia permitiria que conteúdo ilegal fosse armazenado e compartilhado com mais facilidade do que em redes sociais, como Facebook e Instagram.

O Estado solicita indenizações financeiras e mudanças nas práticas da empresa para detectar material de abuso infantil e desenvolver produtos mais seguros. Também pede indenizações estatutárias e punitivas, além de uma ordem judicial obrigando a adoção de medidas eficazes de detecção.

O processo sustenta ainda que as escolhas de design da companhia criaram um “incômodo público” ao permitir que usuários colecionem, armazenem e distribuam esse tipo de conteúdo, causando danos generalizados aos sistemas de saúde pública e proteção infantil do Estado.

Estado diz que iCloud é mais fácil para armazenar e disseminar conteúdos de abuso infantil do que em redes sociais, como o Facebook (Imagem: Koshiro K/Shutterstock)

Debate sobre criptografia e privacidade

O processo concentra parte das críticas na adoção de criptografia de ponta a ponta, tecnologia que torna arquivos digitais inacessíveis tanto para a empresa quanto para autoridades.

O Estado alega que esse recurso permitiu a proliferação de material ilegal na plataforma. Há décadas, defensores da privacidade e autoridades governamentais divergem sobre o tema: os primeiros afirmam que a criptografia é essencial para evitar espionagem digital em massa, enquanto governos dizem que ela dificulta investigações criminais.

Segundo relatos divulgados pela Reuters, a empresa chegou a planejar criptografia total para dados em nuvem, mas abandonou a ideia após reclamações do FBI de que a medida prejudicaria investigações.

Histórico de tecnologias e críticas

Em 2009, a Microsoft ajudou a criar o PhotoDNA, ferramenta para identificar imagens e vídeos de abuso infantil, adotada por empresas, como Google e Dropbox. A Apple optou por não usar o sistema.

Em 2021, a companhia anunciou um método próprio chamado NeuralHash, projetado para equilibrar detecção e privacidade ao analisar imagens no dispositivo do usuário antes do envio.

Pesquisadores de segurança alertaram para riscos de falsos positivos e defensores da privacidade disseram que o sistema poderia ser expandido para vigilância governamental. A empresa adiou o lançamento um mês depois e cancelou o projeto em dezembro de 2022, no mesmo mês em que introduziu opção de criptografia de ponta a ponta para dados em nuvem.

A Virgínia Ocidental afirma que a promoção do NeuralHash constituiu prática enganosa, classificando a tecnologia como inferior e facilmente contornável e sustenta que a empresa quebrou a promessa de combater material ilegal ao abandonar o programa discretamente.

Uma investigação de 2019 conduzida pelo The New York Times concluiu que empresas de tecnologia falhavam em monitorar material abusivo em suas plataformas.

Após a reportagem, o executivo de proteção contra fraudes da Apple, Eric Friedman, disse a um colega que acreditava que a companhia subnotificava esse tipo de conteúdo.

Em mensagem de texto enviada em 2020, ele afirmou: “Somos a maior plataforma para distribuir pornografia infantil”, atribuindo isso à prioridade dada pela empresa à privacidade em detrimento da segurança.

O gabinete do procurador-geral citou essa mensagem como evidência, dizendo que comunicações internas da empresa já a descreveram como a “maior plataforma” para esse tipo de material.

Relatórios mostram que as notificações feitas pela Apple sobre suspeitas de material ilegal são uma fração das registradas por concorrentes.

Em 2023, a Meta enviou mais de 30 milhões de relatórios ao National Center for Missing & Exploited Children, enquanto o Google enviou mais de um milhão e a Apple, 267. A legislação federal dos EUA exige que empresas de tecnologia reportem esse tipo de conteúdo ao centro.

Leia mais:

iCloud Drive: o que é e como entrar

Como limpar o iCloud, serviço de nuvem da Apple

Apple prepara três novos dispositivos com IA, sugerem especialistas em tecnologia

Outras ações judiciais e casos relacionados à Apple

A empresa já enfrentou processos movidos por vítimas por supostamente não limitar material abusivo em seu serviço. Em dezembro de 2024, um grupo buscou mais de US$ 1,2 bilhão (R$ 6,2 bilhões) em indenizações; a companhia apresentou pedido de arquivamento que ainda aguarda decisão.

Em agosto do mesmo ano, uma menina de nove anos da Carolina do Norte processou a empresa após estranhos lhe enviarem vídeos desse tipo e a incentivarem a gravar e enviar imagens próprias; o caso foi, em grande parte, rejeitado no ano passado.

Sarah Gardner, fundadora da Heat Initiative, organização que ajudou a mover a ação coletiva de 2024, afirmou ao Times: “Precisamos de alguém para responsabilizá-los e fazê-los responder à pergunta se acreditam ou não que isso pertence a essa plataforma.”

Crianças estariam desprotegidas, pois a Apple, supostamente, prioriza a privacidade em detrimento da segurança (Imagem: Marija Stepanovic/iStock)

Estratégia jurídica e contexto mais amplo

A ação da Virgínia Ocidental é apontada como exemplo de uma estratégia jurídica emergente contra grandes empresas de tecnologia.

Embora a Seção 230 da Lei de Decência nas Comunicações de 1996 ofereça ampla proteção às plataformas contra responsabilidade por conteúdo gerado por usuários, processos recentes argumentam que companhias podem ser responsabilizadas por danos pessoais quando criam produtos defeituosos que prejudicam usuários.

Empresas como Snap, Meta e o YouTube, já enfrentam julgamentos em tribunais estaduais da Califórnia sob acusações de incentivar vício em redes sociais entre jovens.

O gabinete do procurador-geral afirma que o novo processo segue a mesma linha de alegações apresentadas em uma ação coletiva proposta no fim de 2024 por pessoas retratadas em imagens de abuso. A Apple tenta derrubar esse caso com base na Seção 230, alegando que a lei a protege de responsabilidade sobre conteúdo publicado por usuários.

Pressão crescente sobre empresas de tecnologia

Os Estados Unidos vivem debate nacional crescente sobre os efeitos de smartphones e redes sociais sobre crianças.

Até agora, a maior parte da pressão pública e judicial tem se concentrado em plataformas sociais, enquanto a Apple permaneceu relativamente protegida de escrutínio. A ação da Virgínia Ocidental, segundo o próprio gabinete do procurador-geral, é a primeira movida por uma agência governamental especificamente sobre a distribuição desse tipo de material na plataforma de armazenamento de dados da empresa.

O que diz a Apple

Em nota, a Apple afirmou que proteger a segurança e a privacidade dos usuários, “especialmente crianças”, está no centro de suas atividades e que a empresa “inova todos os dias para combater ameaças em constante evolução e manter a plataforma mais segura e confiável para crianças”.

A companhia destacou recursos de controle parental e ferramentas que intervêm automaticamente quando nudez é detectada em mensagens, fotos compartilhadas, AirDrop e chamadas ao vivo.

A maçã também disse que implementou funcionalidades que impedem crianças de enviar ou receber imagens nuas e ressaltou que seus controles e recursos “líderes do setor” são projetados com segurança, privacidade e proteção como prioridades.

O post Apple é processada nos EUA por materiais de abuso infantil no iCloud apareceu primeiro em Olhar Digital.