▲
- Pesquisadores preveem que a inteligência artificial geral (AGI) pode atingir capacidades humanas até 2027.
- O estudo visa alertar sobre os possíveis impactos da AGI na sociedade e no mercado de trabalho.
- A chegada da AGI pode transformar setores como atendimento ao cliente, criação de conteúdo e programação.
- Especialistas divergem sobre a plausibilidade dessa previsão, mas concordam que a preparação é essencial.
Um novo cenário chamado AI 2027, criado por pesquisadores de IA com experiência em locais como a OpenAI e o Center for AI Policy, detalha uma previsão de 2 a 3 anos. O estudo sugere marcos técnicos específicos e uma progressão trimestral das capacidades de IA, como modelos multimodais com raciocínio avançado e autonomia.
A previsão mais comentada é que a inteligência artificial geral (AGI) chegará em 2027, seguida pela superinteligência artificial (ASI) meses depois. A AGI é definida como IA que iguala ou supera as capacidades humanas em praticamente todas as tarefas cognitivas, demonstrando adaptabilidade e raciocínio de senso comum. A ASI vai além, representando sistemas que ultrapassam drasticamente a inteligência humana.
Essas previsões se baseiam na suposição de que os modelos e aplicações de IA continuarão a progredir exponencialmente, como nos últimos anos. Portanto, esperar um progresso exponencial é plausível, mas não garantido, especialmente porque o escalonamento desses modelos pode estar atingindo retornos decrescentes.
Nem todos concordam com essas previsões. Ali Farhadi, CEO do Allen Institute for Artificial Intelligence, disse ao The New York Times que a previsão do AI 2027 “não parece estar fundamentada em evidências científicas, ou na realidade de como as coisas estão evoluindo em IA”.
No entanto, outros especialistas veem essa evolução como plausível. Jack Clark, cofundador da Anthropic, escreveu em sua newsletter Import AI que o AI 2027 é “o melhor tratamento até agora do que ‘viver em um exponencial’ pode parecer” e uma “narrativa tecnicamente astuta dos próximos anos de desenvolvimento de IA”. Essa linha do tempo também se alinha com a proposta do CEO da Anthropic, Dario Amodei, que afirmou que a IA capaz de superar humanos na maioria das tarefas chegará nos próximos dois a três anos. Além disso, o Google DeepMind indicou em um novo artigo de pesquisa que a AGI poderia plausivelmente chegar até 2030.
Leia também:
A grande aceleração: Disrupção sem precedentes
Este parece ser um momento significativo. Houve momentos semelhantes na história, como a invenção da prensa ou a disseminação da eletricidade. No entanto, esses avanços levaram muitos anos e décadas para ter um impacto considerável.
A chegada da AGI parece diferente, e potencialmente preocupante, especialmente se for iminente. O cenário AI 2027 descreve uma possibilidade em que, devido ao desalinhamento com os valores humanos, a IA superinteligente destrói a humanidade. Se estiverem certos, o risco mais consequente para a humanidade pode estar no mesmo horizonte de planejamento que a sua próxima atualização de smartphone.
O artigo do Google DeepMind também observa que a extinção humana é um resultado possível da AGI, embora considere isso improvável. As opiniões mudam lentamente até que as pessoas sejam confrontadas com evidências esmagadoras. Essa é uma lição do trabalho de Thomas Kuhn, “A Estrutura das Revoluções Científicas“. Kuhn nos lembra que as visões de mundo não mudam da noite para o dia, até que, de repente, mudam. E com a IA, essa mudança pode já estar em andamento.
Antes do surgimento dos large language models (LLMs) e do ChatGPT, a projeção mediana para a chegada da AGI era muito mais longa. O consenso entre especialistas e mercados de previsão colocava a chegada mediana esperada da AGI por volta do ano 2058. Antes de 2023, Geoffrey Hinton — um dos “padrinhos da IA” e vencedor do Prêmio Turing — pensava que a AGI estava “a 30 ou 50 anos ou até mais de distância”. No entanto, o progresso demonstrado pelos LLMs o levou a mudar de ideia, afirmando que poderia chegar já em 2028.
Existem inúmeras implicações para a humanidade se a AGI chegar nos próximos anos e for seguida rapidamente pela ASI. Escrevendo na Fortune, Jeremy Kahn disse que se a AGI em 2027 chegar nos próximos anos, “poderia de fato levar a grandes perdas de empregos, pois muitas organizações seriam tentadas a automatizar funções”.
Um prazo de dois anos para a AGI oferece um período de carência insuficiente para indivíduos e empresas se adaptarem. Indústrias como atendimento ao cliente, criação de conteúdo, programação e análise de dados poderiam enfrentar uma reviravolta dramática antes que a infraestrutura de retreinamento possa escalar. Essa pressão só se intensificará se ocorrer uma recessão nesse período, quando as empresas já estão buscando reduzir custos de folha de pagamento e frequentemente substituem pessoal por automação.
Cogito, ergo … AI?
Mesmo que a AGI não leve a extensas perdas de empregos ou à extinção da espécie, existem outras ramificações sérias. Desde a Era da Razão, a existência humana tem se baseado na crença de que importamos porque pensamos.
Essa crença de que o pensamento define nossa existência tem raízes filosóficas profundas. Foi René Descartes, escrevendo em 1637, quem articulou a agora famosa frase: “Je pense, donc je suis” (“Penso, logo existo”). Ele mais tarde a traduziu para o latim: “Cogito, ergo sum”. Ao fazer isso, ele propôs que a certeza poderia ser encontrada no ato do pensamento individual.
Nessa visão, o eu está ancorado na cognição. Foi uma ideia transformadora na época e deu origem ao humanismo iluminista, ao método científico e, por fim, à democracia moderna e aos direitos individuais. Os humanos como pensadores se tornaram as figuras centrais do mundo moderno.
Isso levanta uma questão profunda: se as máquinas agora podem pensar, ou parecer pensar, e nós terceirizamos nosso pensamento para a IA, o que isso significa para a concepção moderna do eu? Um estudo recente relatado pela 404 Media explora esse dilema. Ele descobriu que quando as pessoas dependem muito da IA generativa para o trabalho, elas se envolvem menos em pensamento crítico, o que, ao longo do tempo, pode “resultar na deterioração das faculdades cognitivas que deveriam ser preservadas”.
Para onde vamos daqui?
Se a AGI está chegando nos próximos anos — ou logo depois — devemos lidar rapidamente com suas implicações não apenas para empregos e segurança, mas para quem somos. E devemos fazer isso reconhecendo também seu potencial para acelerar descobertas, reduzir o sofrimento e ampliar a capacidade humana de maneiras sem precedentes.
Por exemplo, Amodei afirmou que a “IA poderosa” permitirá que 100 anos de pesquisa biológica e seus benefícios, incluindo melhorias na saúde, sejam comprimidos em 5 a 10 anos.
As previsões apresentadas no AI 2027 podem ou não estar corretas, mas são plausíveis e provocativas. E essa plausibilidade deveria ser suficiente. Como humanos com agência, e como membros de empresas, governos e sociedades, devemos agir agora para nos prepararmos para o que pode estar por vir.
Para as empresas, isso significa investir tanto em pesquisa de segurança técnica de IA quanto em resiliência organizacional, criando funções que integrem capacidades de IA enquanto amplificam as forças humanas. Para os governos, requer o desenvolvimento acelerado de estruturas regulatórias que abordem tanto preocupações imediatas, como avaliação de modelos, quanto riscos existenciais de longo prazo.
Para os indivíduos, significa abraçar o aprendizado contínuo focado em habilidades unicamente humanas, incluindo criatividade, inteligência emocional e julgamento complexo, enquanto desenvolvem relações de trabalho saudáveis com ferramentas de IA que não diminuam nossa agência.
O tempo para debate abstrato sobre futuros distantes passou; a preparação concreta para a transformação de curto prazo é urgentemente necessária. Nosso futuro não será escrito apenas por algoritmos. Ele será moldado pelas escolhas que fizermos e pelos valores que defendermos, começando hoje.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.