Article image
Maria Mendes
Maria Mendes04/04/2026 00:38
Compartilhe

Se a AGI está tão perto, por que ela ainda não existe?

  • #Criatividade e Inovação
  • #Inteligência Artificial (IA)
  • #Inovação

Com as monitorias do DIO Campus Expert, principalmente nas lives de inauguração do Igla Generoso, comecei a me interessar mais por Inteligência Artificial. E foi justamente nesse processo que me deparei com uma fala do CEO da NVIDIA, Jensen Huang, dizendo que a humanidade já teria alcançado a chamada AGI. Isso reacendeu um dos debates mais importantes da tecnologia hoje. Confesso que é uma afirmação que chama atenção (até meio provocativa) e faz a gente parar pra pensar: afinal, o que estamos chamando de inteligência? E o que AGI realmente significa?

Se fôssemos buscar um significado do Google, teríamos "AGI (Inteligência Artificial Geral) é um tipo teórico de IA que possui a capacidade de compreender, aprender e aplicar conhecimento de forma inteligente em diversas áreas, igualando ou superando a inteligência humana". A ideia de uma máquina que pensa como a gente já não é mais só coisa de filme. Hoje, ferramentas como o ChatGPT escrevem textos complexos, resolvem problemas e conversam de um jeito muito natural. E, olhando rápido, parece mesmo que estamos chegando a algo muito maior.

Mas existe uma diferença importante entre executar tarefas com excelência e possuir inteligência no sentido mais amplo.

O avanço da IA e o que realmente mudou

Grande parte do progresso recente veio da combinação entre dados em larga escala, modelos maiores e aumento de capacidade computacional. Arquiteturas como o Transformer permitiram capturar padrões extremamente complexos, levando a resultados que, até poucos anos atrás, seriam considerados impossíveis.

Empresas como OpenAI e DeepMind demonstraram que, ao escalar esses sistemas, surgem comportamentos que lembram raciocínio e generalização. Isso levou muitos pesquisadores a considerar que a inteligência poderia emergir naturalmente desse processo.

No entanto, esse avanço tem um custo crescente, esse custo não é apenas financeiro, mas físico.

O progresso tecnológico

Durante muito tempo, todo o avanço da tecnologia foi sustentado por uma ideia bem conhecida: a Lei de Moore. Ela dizia que o poder computacional dobraria a cada dois anos, e isso basicamente guiou a evolução da computação por décadas.

Só que esse ritmo começou a desacelerar. À medida que os transistores ficam cada vez menores, chegando perto de escalas atômicas, começam a aparecer limitações que não são só técnicas, mas físicas mesmo, como efeitos quânticos, dificuldade de dissipar calor e custos cada vez mais altos de produção. Enquanto isso, a Inteligência Artificial está indo na direção oposta. Estudos mostram que, nos últimos anos, a demanda por poder computacional em modelos de IA passou a crescer de forma exponencial, dobrando em questão de meses, e não mais em anos como previa a Lei de Moore.

Na prática, isso cria um desequilíbrio, a IA exige cada vez mais processamento, mas o hardware já não evolui na mesma velocidade. E levanta um ponto importante, talvez o caminho atual, baseado só em escalar mais dados, mais modelos e mais processamento, não seja sustentável no longo prazo. Ao mesmo tempo em que estamos avançando rápido em capacidade, também estamos chegando em limites que forçam a gente a repensar o que vem depois.

Mas qual seria a definição de inteligência?

Talvez a maior dificuldade não esteja nem no hardware nem nos modelos, mas na própria definição do que estamos tentando construir.

Até hoje, não existe um consenso claro sobre o que é inteligência. Na filosofia, essa questão atravessa séculos. Pensadores como René Descartes associavam inteligência à razão e à consciência, enquanto outros, como Gilbert Ryle, criticavam a ideia de uma “mente separada”, propondo que o comportamento já seria suficiente para definir inteligência. Na prática, isso cria um problema moderno: se não sabemos exatamente o que é inteligência, como podemos afirmar que uma máquina a alcançou?

Sistemas atuais conseguem executar tarefas extremamente complexas, mas isso não significa que possuam compreensão, intenção ou experiência. Um modelo pode escrever um texto convincente sobre emoções sem nunca ter sentido nada. Esse ponto lembra um experimento filosófico bastante conhecido, proposto por John Searle, chamado de “quarto chinês”. Nele, uma pessoa que não entende chinês consegue responder perfeitamente a perguntas no idioma seguindo regras pré-definidas, dando a impressão de compreensão, mesmo sem realmente entender o que está sendo dito.

A analogia é direta: assim como no experimento, sistemas de IA podem produzir respostas corretas e sofisticadas sem que exista, de fato, entendimento por trás delas. Essa diferença é fundamental quando comparamos humanos e máquinas. Um ser humano não apenas responde ao mundo, ele interpreta, sente, aprende continuamente e age com base em objetivos próprios. Já a IA, por mais avançada que seja, ainda opera dentro de padrões e instruções.

Ideias abstratas x Mundo real

Existe um ponto curioso no debate sobre AGI: no nível abstrato, ela parece muito mais próxima do que realmente está. É relativamente fácil imaginar uma inteligência geral quando pensamos em tarefas isoladas: escrever, calcular, responder perguntas. Nessas áreas, os sistemas atuais já são extremamente competentes. Mas quando saímos do campo abstrato e entramos no mundo real, a complexidade aumenta drasticamente.

Uma AGI verdadeira não deveria apenas responder perguntas, mas:

  • Criar objetivos próprios
  • Tomar decisões estratégicas
  • Adaptar-se continuamente ao ambiente
  • Executar ações no mundo físico e social

Um exemplo simples: uma IA ainda não consegue criar e administrar uma empresa de forma totalmente autônoma, lidando com incerteza, pessoas, contexto econômico e decisões de longo prazo. É nesse ponto que declarações como a de Jensen Huang geram debate. Quando alguém afirma que já alcançamos a AGI, muitas vezes está considerando desempenho em tarefas específicas. Mas isso não equivale à autonomia, à compreensão e à adaptabilidade que definiriam uma inteligência geral no mundo real.

Limitações conceituais da inteligência artificial atual

Mesmo nos sistemas mais avançados, ainda existem limitações claras. Modelos atuais não possuem compreensão real do mundo. Eles operam com base em probabilidade, prevendo padrões aprendidos em grandes volumes de dados. Isso permite respostas impressionantes, mas não garante entendimento.

Pesquisadores como Emily Bender destacam que esses sistemas podem funcionar como “imitadores estatísticos”, reproduzindo linguagem com alta qualidade sem necessariamente compreender seu significado. Além disso, falta aprendizado contínuo. Diferente de humanos, que aprendem ao longo da vida, modelos precisam ser treinados novamente para incorporar novos conhecimentos. Eles também não possuem objetivos próprios nem autonomia verdadeira.

Talvez a pergunta mais importante não seja quando a AGI chegará, mas se realmente saberemos reconhecê-la quando ela aparecer.

image

Se esse tema te interessa tanto quanto me interessou, fico à vontade pra trocar ideias. 👩🏻‍💻

E se quiser acompanhar mais do que venho estudando e construindo, deixo aqui meu LinkedIn: https://www.linkedin.com/in/mariaeduardammendes/

Compartilhe
Comentários (0)