Como um vídeo seu dobrando roupa pode ajudar a treinar os robôs do futuro

A próxima fronteira da inteligência artificial pode estar mais próxima da rotina doméstica do que parece – e começa com tarefas simples, como dobrar roupas. Empresas de tecnologia e pesquisadores estão apostando na coleta massiva de vídeos de atividades do dia a dia para treinar robôs capazes de executar essas funções de forma autônoma.

Entre as empresas está a DoorDash, conhecida por seu serviço de entrega de comida, que passou a investir na produção de dados para robótica. A companhia recruta trabalhadores ao redor do mundo para gravar vídeos realizando tarefas domésticas, como organizar roupas ou lavar louça. Em alguns casos, os participantes utilizam smartphones acoplados à cabeça para capturar com precisão os movimentos das mãos, dedos e olhar. Segundo o The Washington Post, os pagamentos podem chegar a US$ 25 por hora.

As informações obtidas nos vídeos são usadas em um processo que busca traduzir habilidades humanas em comandos para as máquinas:

Primeiro, os dados são analisados para identificar padrões de movimento;

Em seguida, modelos de aprendizado de máquina tentam prever quais ações devem ser executadas em cada etapa de uma tarefa;

Por fim, essas instruções são transferidas para robôs, que passam a tentar reproduzir os movimentos de forma independente.

A lógica por trás dessa estratégia segue o que especialistas chamam de “leis de escalabilidade”: quanto maior o volume de dados disponíveis, melhor tende a ser o desempenho dos sistemas de IA. O princípio já impulsionou avanços em chatbots e geração de imagens – e agora começa a ser aplicado à robótica.

Nvidia anunciou o BEHAVIOR-1K, um benchmark para treinar robôs para realizar 1.000 atividades inspiradas no mundo real – Imagem: Nvidia

Alternativas no treinamento de robôs

No entanto, diferentemente do que ocorre com textos e imagens, não existe um grande repositório público de dados prontos para treinar robôs. Isso torna o processo mais complexo e caro.

Uma alternativa tradicional envolve a chamada teleoperação, em que humanos operam robôs manualmente para gerar dados mais precisos. Esse método produz informações de alta qualidade, mas é lento e custoso.

Diante disso, pesquisadores vêm explorando modelos híbridos. A ideia é usar grandes volumes de vídeos de humanos para ensinar conceitos básicos às máquinas e, depois, complementar esse aprendizado com uma quantidade menor de dados mais sofisticados, obtidos por teleoperação.

Outras abordagens também estão em teste:

Algumas iniciativas buscam adaptar ferramentas para facilitar a captura de movimentos humanos, como dispositivos que simulam garras robóticas;

Há ainda projetos que tentam aproximar o design dos robôs da anatomia humana, com o objetivo de tornar a transferência de habilidades mais direta;

Outra frente aposta em ambientes virtuais, permitindo que robôs “treinem” em simulações antes de operar no mundo real.

Leia mais:

Geração Z usa IA com frequência, mas desconfiança e medo crescem entre os jovens

100 metros em 10 segundos: Robô chinês ameaça recorde de Usain Bolt

Com essa pulseira, você pode controlar uma mão robótica

Apesar dos avanços, a aplicação prática em larga escala ainda é incerta. Especialistas apontam que os dados mais valiosos virão quando os próprios robôs começarem a atuar em ambientes reais, aprendendo com a experiência direta.

Porém, segundo Ken Goldberg, especialista em robótica consultado pelo WP, o prazo para isso ainda é difícil de prever. “Talvez em dois anos, três, cinco, dez, vinte”, afirmou. “Ou mais”.

O post Como um vídeo seu dobrando roupa pode ajudar a treinar os robôs do futuro apareceu primeiro em Olhar Digital.