Superinteligência artificial: “chegaremos lá, a questão é o tempo”, diz professor da Unifesp

A inteligência artificial geral (AGI) está no centro das discussões do setor de tecnologia. Desde o lançamento do ChatGPT, no final de 2022, os avanços em IA têm deixado big techs e desenvolvedoras cada vez mais ambiciosas em ir além.

O próximo passo é chegar na AGI, que promete um patamar de inteligência e capacidade superior ao dos seres humanos. No entanto, ainda há dúvidas se é possível chegar lá. E, se sim, quando isso deve acontecer.

O Olhar Digital conversou com o doutor Álvaro Machado Dias, professor da UNIFESP, neurocientista e futurista, para entender mais sobre as expectativas para o futuro da tecnologia.

ChatGPT foi o pontapé inicial para o bom da IA (Imagem: Teacher Photo / Shutterstock)

O que é a inteligência artificial geral?

Cada empresa define de um jeito diferente.

Segundo a Bloomberg, a ideia começou a ser ventilada em meados dos anos 2000, popularizada pelo cientista da computação Ben Goertzel no livro “Inteligência Artificial Geral”.

Com a chegada do ChatGPT e a popularização da inteligência artificial generativa, a ideia de uma tecnologia ainda mais avançada tomou conta das ambições das empresas – e dos países. Há um temor geral de que a China alcance a AGI antes dos EUA, por exemplo, tornando esse progresso uma verdadeira meta para o setor.

No entanto, a definição de AGI não é exatamente clara. A OpenAI, do ChatGPT, a define como sistemas que superam humanos na maioria das tarefas economicamente úteis. Já a DeepMind, braço de pesquisa em IA do Google, foca menos no aspecto econômico e aborda a versatilidade, como superar humanos em trabalhos úteis ou aprender novas habilidades com poucos recursos.

Por outro lado, a ARC Prize Foundation, organização sem fins lucrativos responsável por um benchmark famoso no treinamento de IA, diz que a definição vai além do valor econômico. A ONG acredita que tem a ver com a capacidade de adquirir novas habilidades com eficiência mesmo fora de treinamento.

Há, ainda, empresas que preferem outros termos para caracterizar a IA que supera humanos. Dario Amodei, CEO da desenvolvedora Anthropic (responsável pelo Claude), a chama de “IA poderosa”. Já Mustafa Suleyman, chefe de IA da Microsoft, diz “IA capaz”. Mais recentemente, Meta e OpenAI começaram a ventilar o termo “superinteligência artificial”, um sistema que seria até mais poderoso do que a AGI.

Enquanto alguns especialistas são céticos sobre chegar à AGI, outros acreditam que é questão de tempo (Crédito: tadamichi/Shutterstock)

Superinteligência artificial é possível?

Grande parte das companhias do setor de tecnologia está em busca desse avanço. Porém, no final das contas, não há uma definição única, o que dificulta traçar uma meta objetiva.

No ano passado, a OpenAI divulgou um roteiro de cinco estágios para chegar até a AGI, começando com os chatbots que deram início à popularização (como o ChatGPT), indo até modelos capazes de “auxiliar na invenção” e “fazer o trabalho de uma organização”.

Mas há dúvidas se chegaremos lá. Apesar do entusiasmo das empresas, alguns especialistas ainda duvidam da capacidade da tecnologia. Uma pesquisa realizada em março deste ano e publicada pelo Painel Presidencial da AAAI sobre o Futuro da Pesquisa em IA reuniu centenas de pesquisadores, que chegaram no consenso de que escalar os sistemas atuais não é suficiente para chegar à AGI.

O próprio cientista-chefe de IA da Meta, Yann LeCun, acredita que os grandes modelos de linguagem atuais não são suficientes para isso, porque eles não conseguem pensar antes de agir, nem executar ações no mundo real.

O doutor Álvaro Machado Dias destacou que as IAs não conseguem realizar tarefas típicas de escritório por mais de 20 minutos mantendo um padrão de 80% de acurácia. Inclusive, a curva de adoção da tecnologia nas companhias não cresceu nos últimos meses.

Por outro lado, o doutor Álvaro também lembrou que as alucinações, que costumavam ser um grande problema, estão caindo, o que mostra que há um caminho pela frente. Ele dá como certo de que chegaremos à AGI, mas destaca as divergências sobre isso dentro do setor:

Eu dou como certo de que chegaremos. A grande questão é o tempo. Numa ponta, temos pessoas que estão preocupadas com o futuro da humanidade, a destruição completa do mercado de trabalho por automações capazes de fazer aquilo que os humanos fazem antes de existirem políticas públicas positivas. Na ponta oposta, temos figuras como Gary Marcus, professor emérito da Universidade de Nova York (NYU), que diz que grandes modelos de linguagem (LLMs) são fracassos e que todo dia surgem mais evidências disso.

Doutor Álvaro Machado Dias, professor da UNIFESP, neurocientista e futurista 

Em um cenário mais realista, cientistas acreditam que ainda demora cerca de uma década para chegarmos à AGI (Imagem: tadamichi/Shutterstock)

AGI é uma questão de tempo

Um artigo de julho deste ano, liderado por Margaret Mitchell, cientista-chefe de ética da startup de IA Hugging Face, defendeu que as alegações sobre a AGI devem ser tratadas com ceticismo… a menos que elas estejam vinculadas a objetivos claros e testes rigorosos.

Mesmo que parte o setor esteja cético, pesquisadores, big techs e desenvolvedoras seguem na busca de algum avanço em direção nesse sentido… ainda que de acordo com seus próprios padrões.

Mas o prazo para isso ainda não é claro. O doutor Álvaro lembrou que Andrej Karpathy, cofundador da OpenAI, estimou que uma tecnologia “super-humana” ainda demoraria mais de 10 anos para chegar – algo entre 2035 e 2024. Esso prazo estaria de acordo com aquilo que se apostava na virada do século, quando a inteligência artificial se tornou um assunto.

Para Álvaro, a AGI não deve vir em poucos anos… mas isso não significa que a IA generativa já não tenha impactos importantes na vida da sociedade.

Eu não acho que estamos na iminência da AGI. Acho que há muitas evidências contrárias. Dito isso, o grande ponto é que não precisamos ter uma superIA para ter impacto na vida das pessoas.

Doutor Álvaro Machado Dias, professor da UNIFESP, neurocientista e futurista 

Ele cita o ChatGPT como exemplo, que vem mudando a forma como fazemos atividades do dia a dia e já tem impacto no mercado de trabalho e no aprendizado.

Mesmo antes de chegarmos à AGI, a IA generativa já têm impactos na nossa vida (Imagem: Markus Mainka / Shutterstock)

Leia mais:

Carta aberta de famosos e cientistas pede proibição da superinteligência artificial

Olhar do Amanhã: a superinteligência artificial sairá do papel?

IA superinteligente pode até chegar até 2030, mas…

Como as empresas enxergam o avanço para a superinteligência?

A OpenAI é uma das desenvolvedoras que quer a AGI. Em setembro do ano passado, o CEO Sam Altman afirmou que sistemas preliminares estavam começando a surgir e que poderíamos ter uma superinteligência artificial “em alguns milhares de dia”. Ele reconhece que pode demorar mais;

A Anthropic, rival da OpenAI, também está nessa corrida. O CEO Dario Amodei disse que uma “IA poderosa” seria plausível por volta de 2026;

Já Demis Hassabis, cofundador da DeepMind, é mais realista e acredita que a tecnologia deve demorar entre cinco a dez anos;

Empresas como a Meta e a chinesa Alibaba também tornaram a AGI um objetivo para o futuro.

O post Superinteligência artificial: “chegaremos lá, a questão é o tempo”, diz professor da Unifesp apareceu primeiro em Olhar Digital.