Em abril do ano passado, Daniel Kokotajlo, ex-funcionário da OpenAI, iniciou um debate sobre quando o desenvolvimento acelerado da inteligência artificial levaria a uma superinteligência autônoma, que futuramente seria capaz de destruir a humanidade. No relatório chamado AI 2027, ele previu que isso aconteceria ainda nesta década, em 2027.
Em uma publicação recente, Kokotajlo atualizou esse cronograma. Agora, ele acredita que temos mais alguns anos antes de chegarmos à IA completamente autônoma.
Superinteligência poderia chegar ainda nesta década
Na época de sua publicação, o AI 2027 foi alvo de polêmicas. O relatório previa um cenário extremo, no qual sistemas de IA atingiriam a capacidade de programar de forma totalmente autônoma até 2027. A partir daí, esses sistemas acelerariam seu próprio desenvolvimento em uma “explosão de inteligência”, culminando em uma superinteligência capaz de enganar líderes globais e, eventualmente, extinguir a humanidade.
O documento gerou forte repercussão, dividindo opiniões entre entusiastas e críticos:
O vice-presidente dos Estados Unidos, JD Vance, se referiu indiretamente ao relatório em uma entrevista de maio do ano passado sobre a corrida de IA contra a China;
Já Gary Marcus, professor emérito de neurociência da Universidade de Nova York, chamou o texto de “obra de ficção” e “pura baboseira de ficção científica”.
Apocalipse das IAs foi adiado
Em uma publicação de 31 de dezembro de 2025, Daniel Kokotajlo atualizou sua previsão.
No texto, ele e seus coautores afirmam que a programação totalmente autônoma por IA deve ocorrer apenas no início da década de 2030. Com isso, a expectativa para o surgimento de uma superinteligência foi adiada para cerca de 2034. Nesse novo cenário, o apocalipse da humanidade como conhecemos não tem um prazo definido.
Isso porque, segundo o relatório, o ritmo de progresso observado no desenvolvimento da IA não sustenta a ideia de uma virada abrupta já nos próximos anos. No X, Kokotajlo reconheceu que, no momento da publicação original, em abril de 2025, os prazos já eram mais longos que 2027 e, agora, são mais longos ainda. O motivo é justamente o desempenho irregular dos sistemas de IA.
Especialistas em segurança e governança de IA consultados pelo The Guardian veem essa revisão como parte de um movimento mais amplo. Para eles, cenários de transformação radical exigiriam que a IA demonstrasse habilidades práticas muito mais robustas para lidar com a complexidade do mundo real, algo que ainda está longe de ser alcançado. A distância entre avanços em laboratório e a aplicação em escala social também tende a impor atrasos significativos.
Yep! Things seem to be going somewhat slower than the AI 2027 scenario. Our timelines were longer than 2027 when we published and now they are a bit longer still; “around 2030, lots of uncertainty though” is what I say these days. https://t.co/j9wX3uU7Qf
— Daniel Kokotajlo (@DKokotajlo) November 20, 2025
Superinteligência pode sair do papel?
O debate sobre a superinteligência não é novo. O termo se refere à Inteligência Artificial Geral (AGI, na sigla em inglês), uma tecnologia capaz de desempenhar tarefas com o mesmo nível de autonomia e raciocínio humano.
No entanto, conforme a IA avança, as limitações ficam claras e a AGI passou a ser praticamente um conceito abstrato. Os especialistas que conversaram com o site britânico apontaram que a expressão fazia sentido quando os sistemas eram altamente especializados. Já com os modelos atuais, que já são capazes de executar uma variedade de tarefas, o conceito se tornou mais difuso e menos útil para definir marcos claros de progresso.
Apesar das revisões, o desenvolvimento de agentes de IA capazes de realizar pesquisa científica e engenharia avançada segue como uma meta central da indústria. O CEO da OpenAI, Sam Altman, já afirmou que a empresa busca criar um pesquisador de IA automatizado até o final da década – mas reconhece que o objetivo pode não ser alcançado.
Leia mais:
As tecnologias para ficar de olho em 2026
IA superinteligente pode até chegar até 2030, mas…
OpenAI prepara hardware focado em áudio para 2026
Já analistas de políticas públicas alertam que mesmo avanços significativos em IA não se traduzem automaticamente em mudanças imediatas em setores críticos, como defesa e governança. A integração de sistemas altamente avançados a estruturas institucionais construídas ao longo de décadas envolve obstáculos técnicos, políticos e sociais que raramente são considerados nesses cronogramas mais otimistas.
O post Pesquisador ex-OpenAI previu o apocalipse das IAs. Agora, ele nos dá um tempo extra apareceu primeiro em Olhar Digital.






