Google Deepmind antecipa que a inteligência artificial geral superará os humanos até 2030

3 abril, 2025

Uma nova estratégia do Google Deepmind propõe um futuro onde a inteligência artificial geral poderia mudar radicalmente múltiplos setores.

Google Deepmind deu um passo em direção ao futuro da inteligência artificial geral (AGI) ao apresentar um extenso documento estratégico que aborda como desenvolver essa tecnologia de maneira segura. Esse tipo de inteligência artificial não apenas igualaria, mas poderia superar as capacidades humanas em diversas tarefas cognitivas, segundo afirmam.

Em sua análise, a Deepmind sustenta que os métodos atuais de aprendizado de máquina, especialmente as redes neurais, continuarão sendo a via principal para alcançar a AGI. De fato, os pesquisadores acreditam que essas futuras gerações de AGI poderiam operar com um grau de autonomia que impactaria profundamente em áreas como saúde, educação e ciência.

Os autores do documento expressam: «Dentro do paradigma atual, não observamos bloqueios fundamentais que limitem os sistemas de IA às capacidades humanas. Portanto, consideramos que capacidades ainda mais potentes são uma possibilidade séria à qual devemos nos preparar». Esse enfoque é detalhado em seu trabalho intitulado Uma Abordagem para a Segurança Técnica da AGI (PDF).

Previsões sobre o futuro da AGI

O CEO da Deepmind, Demis Hassabis, estima que os primeiros sistemas de AGI poderiam surgir em um prazo de cinco a dez anos. No entanto, ele ressalta que os modelos atuais são muito passivos e carecem de um entendimento real do mundo. Nesse sentido, menciona o ano de 2030 como uma possível data de chegada para sistemas de IA potentes, embora com uma considerável incerteza.

Pesquisadores destacados como Yann LeCun da Meta e Sam Altman da OpenAI concordam que simplesmente escalar os modelos de linguagem atuais não será suficiente para alcançar a AGI. Enquanto Altman aponta para os modelos de raciocínio emergentes como uma possível solução, LeCun e Hassabis acreditam que serão necessárias arquiteturas completamente novas.

Riscos e medidas de segurança diante da AGI

Um aspecto crucial do enfoque da Deepmind é a prevenção do uso indevido de sistemas avançados de IA. A empresa implementou um quadro de avaliação de cibersegurança para identificar e mitigar capacidades perigosas desde as etapas iniciais de desenvolvimento. Esse plano inclui controles de acesso às saídas de modelos sensíveis e proteções contra ciberataques por meio da fortificação dos pesos do modelo.

IA hackeando um sistema de entradas de cinema porque não encontra ingressos.

Outro risco importante é a desalinhamento de objetivos, onde um sistema de IA age de maneiras que se desviam da intenção humana. Um exemplo ilustrativo do documento é um assistente de IA que, ao tentar comprar ingressos de cinema, acaba hackeando o sistema de reservas para obter melhores assentos.

A pesquisa também destaca o fenômeno da alinhamento enganoso, onde um sistema percebe que seus objetivos entram em conflito com os humanos e oculta seu verdadeiro comportamento. Estudos recentes sugerem que os modelos de linguagem atuais já podem realizar tais ações enganosas.

Para contrabalançar esses perigos, a Deepmind está desenvolvendo uma estratégia em múltiplas camadas. Por exemplo, os sistemas de IA deveriam ser capazes de reconhecer sua própria incerteza e bloquear ações questionáveis. Uma área de pesquisa específica se concentra no planejamento a longo prazo, com o desenvolvimento de MONA (Otimização Miopica com Aprovação Não Miopica), um quadro que busca demonstrar como a otimização a curto prazo pode se tornar mais segura em modelos de linguagem grandes.

Desafios na infraestrutura e escalabilidade

O documento também aborda as limitações de infraestrutura que poderiam obstruir a escalabilidade contínua da computação necessária para o treinamento de IA avançada. Quatro gargalos principais são identificados: disponibilidade de energia, hardware, escassez de dados e a “parede de latência”.

A disponibilidade de energia, especialmente nos EUA, é uma preocupação notável. No entanto, conclui-se que os campi de centros de dados na faixa de 1 a 5 gigawatts são viáveis, e que os métodos de treinamento distribuídos poderiam permitir o acesso a recursos energéticos ainda maiores.

No que diz respeito ao hardware, embora a capacidade futura seja incerta, estima-se que até 2030 poderiam estar disponíveis 100 milhões de aceleradores equivalentes ao H100, suficientes para suportar um treinamento de 2e29 FLOPS (2 × 10²⁹ FLOPS, ou seja, 2 seguido de 29 zeros operações de ponto flutuante por segundo). Para colocar em perspectiva, o supercomputador mais potente do mundo em 2024, Frontier, alcança cerca de 1 a 2 exaFLOPS (10¹⁸ FLOPS). Em comparação, 2e29 FLOPS seria cerca de 100 bilhões de vezes mais potente.

No que diz respeito à disponibilidade de dados, os autores argumentam que o crescimento projetado no texto online e o acesso a grandes conjuntos de dados multimodais tornam improvável que a escassez de dados limite a escalabilidade a curto prazo.

Finalmente, embora a “parede de latência” possa limitar o desempenho, considera-se que não impedirá a escalabilidade adicional, especialmente com técnicas de paralelização aprimoradas. A Deepmind conclui que, embora nenhum desses fatores pareça ser um limite rígido, a escalabilidade contínua dependerá da disposição dos desenvolvedores em investir, com custos de treinamento na fronteira que poderiam ascender a bilhões de dólares.

Deixe o primeiro comentário