A Meta está desenvolvendo um novo modelo de inteligência artificial (IA) focado em imagens e vídeos, conhecido internamente pelo codinome Mango. A informação foi revelada pelo Wall Street Journal, que teve acesso a detalhes de discussões internas da empresa. O lançamento está previsto para o primeiro semestre de 2026, como parte de uma reformulação mais ampla da estratégia de IA da big tech.
Segundo o WSJ, a ideia da Meta é avançar justamente numa das frentes mais disputadas da IA hoje: a geração visual. Imagens e vídeos deixaram de ser um recurso periférico e passaram a funcionar como um dos principais motores de engajamento das grandes plataformas de rede social. Isso ajuda a explicar por que a empresa decidiu acelerar esse tipo de modelo agora.
O que se sabe sobre o novo modelo de IA da Meta
De acordo com a reportagem, o Mango foi pensado desde o início como um modelo dedicado exclusivamente à criação de imagens e vídeos, e não como uma simples extensão de modelos de texto já existentes. A Meta, portanto, segue a mesma lógica adotada por rivais como OpenAI e Google: separar funções para ganhar desempenho e qualidade em cada tarefa específica.
O WSJ também aponta que o Mango não chegará sozinho. Ele deve ser lançado ao lado de um novo modelo de linguagem, batizado de Avocado, voltado para texto e com foco especial em programação. A estratégia indica que a Meta pretende montar um portfólio mais modular de modelos, cada um otimizado para um tipo de uso, em vez de apostar tudo em um único sistema genérico.
Esses planos foram mencionados por Alexandr Wang, chefe de IA da Meta, durante uma sessão interna de perguntas e respostas com Chris Cox, diretor de produtos da empresa, segundo pessoas que acompanharam a conversa. Wang (fundador e ex-CEO da Scale AI) foi contratado para liderar o recém-criado Meta Superintelligence Labs, divisão que centraliza os esforços mais ambiciosos da companhia em IA.
Ao longo do último ano, o CEO da Meta, Mark Zuckerberg, se envolveu pessoalmente na contratação de talentos, trazendo mais de 20 pesquisadores vindos da OpenAI e formando um time com mais de 50 profissionais especializados em IA. O objetivo é recuperar terreno numa corrida que ficou ainda mais acirrada em 2025.
Agora, por que imagens e vídeos se tornaram um campo tão estratégico? Segundo o WSJ, ferramentas visuais são vistas pelas empresas como recursos “pegajosos”. Isto é, aqueles que fazem o usuário voltar. Exemplos recentes reforçam isso, como o lançamento do Vibes, gerador de vídeos da Meta, o Sora, da OpenAI, e soluções do Google que impulsionaram a adoção do Gemini. Nesse cenário, ficar para trás simplesmente não é uma opção.
Como o avanço em modelos de geração de imagens se conecta à estratégia maior da Meta na IA
O desenvolvimento do Mango ajuda a iluminar uma estratégia mais ampla da Meta. Investir em modelos próprios não é apenas uma questão de produto, mas também de controle de custos e de autonomia tecnológica num mercado dominado por poucos fornecedores de infraestrutura.
Hoje, grande parte do custo para rodar modelos de IA vem da dependência de GPUs da Nvidia. Ao fortalecer seu próprio ecossistema (de modelos a software), a Meta busca reduzir gastos com inferência e ganhar mais poder de negociação. Esse pano de fundo ajuda a entender por que a empresa olha para além do desempenho puro e passa a tratar a arquitetura da IA como uma questão estratégica.
Nesse contexto, entra o papel do PyTorch, framework criado e mantido principalmente pela Meta e amplamente usado por desenvolvedores de IA no mundo todo. Controlar o software que conecta modelos ao hardware é uma forma indireta, mas poderosa, de reduzir dependências e abrir caminho para alternativas à Nvidia.
Leia mais:
Como Google e Meta planejam enfraquecer a Nvidia na corrida da IA
Como criar sua própria inteligência artificial com Meta AI Studio
O que é a Oracle? Veja sua relação com IA, TikTok, Meta e os Estados Unidos
A parceria com o Google, nesse ponto, reforça a leitura de que a Meta não está agindo sozinha. Enquanto o Google tenta tornar suas TPUs mais compatíveis com o PyTorch, a Meta avança no desenvolvimento de modelos próprios cada vez mais sofisticados. As duas frentes se complementam: menos amarras no software e mais opções no lado dos modelos.
Visto assim, o Mango deixa de ser apenas “mais um modelo de imagem”. Ele passa a funcionar como uma peça dentro de um movimento maior da Meta para reposicionar sua IA, com mais controle sobre tecnologia, custos e rumos do próprio ecossistema.
O post O novo plano da Meta para não ficar para trás na corrida da IA apareceu primeiro em Olhar Digital.






