A Nvidia planeja revelar um novo processador projetado especificamente para ajudar a OpenAI e outros clientes a construir ferramentas mais rápidas e eficientes. O movimento, reportado pelo The Wall Street Journal, promete redefinir a corrida pela inteligência artificial.
A empresa está desenvolvendo um sistema voltado para a “inferência”. A nova plataforma será apresentada na conferência de desenvolvedores GTC, em San Jose, no próximo mês, e deve incorporar tecnologias de chips da startup Groq.
O mercado de inferência tornou-se um campo de batalha intenso. Rivais como Google e Amazon já desenvolveram chips próprios para competir com os sistemas da Nvidia. Além disso, a explosão do uso de automação de código no setor de tecnologia gerou uma demanda por chips que lidem de forma mais eficaz com tarefas complexas
Open AI firma parceria estratégica com Nvidia para essa nova fase (Imagem: Nvidia/Divulgação)
Do treinamento para a execução
A Nvidia dominou a era inicial da IA com suas GPUs (Unidades de Processamento Gráfico), fundamentais para o treinamento de modelos gigantescos. No entanto, o mercado está mudando. Com o surgimento de sistemas de agentes de IA, ferramentas que agem de forma autônoma para realizar tarefas pelos usuários, o foco saiu do treinamento e passou para a execução (inferência).
As GPUs tradicionais são caras e consomem muita energia para rodar esses modelos no dia a dia. Para enfrentar esse desafio, a Nvidia licenciou tecnologias da Groq por 20 bilhões de dólares e contratou sua liderança. Os chips da Groq utilizam uma arquitetura chamada “Unidades de Processamento de Linguagem” (LPUs), conhecidas pelo alto desempenho em funções de inferência.
A OpenAI já concordou em ser uma das maiores clientes desse novo processador. A criadora do ChatGPT, que vinha buscando alternativas mais baratas aos chips da Nvidia, pretende usar o novo sistema para aprimorar o Codex, sua ferramenta de automação de código. O anúncio ocorre em conjunto com um investimento de 30 bilhões de dólares da Nvidia na OpenAI, embora a startup de Sam Altman também tenha fechado acordos para utilizar chips da Amazon e da Cerebras.
Até mesmo a Meta entrou na nova estratégia da Nvidia. Recentemente, as empresas expandiram uma parceria para o uso de servidores baseados apenas em CPUs (Unidades de Processamento Central) para suportar os agentes de IA de segmentação de anúncios da Meta, sinalizando que a Nvidia está disposta a olhar além da GPU para manter o controle sobre os diversos nichos do mercado de tecnologia.
O post Nvidia prepara novo chip para acelerar o processamento de IA apareceu primeiro em Olhar Digital.




