A IA neurossimbólica pode ser a resposta para alucinações em grandes modelos de linguagem
- Gestão do Curso
- 3 de jun.
- 6 min de leitura

Artur Garcez 02/06/2025
Adicionar uma pitada da boa e velha IA aos algoritmos atuais pode dar início à terceira onda da IA.
O principal problema com o experimento das grandes empresas de tecnologia com inteligência artificial não é que ela possa dominar a humanidade. É que modelos de grande linguagem (LLMs) como o ChatGPT da Open AI, o Gemini do Google e o Llama da Meta continuam a errar, e o problema é intratável.
Conhecidas como alucinações, o exemplo mais proeminente foi talvez o caso do professor de direito americano Jonathan Turley, que foi falsamente acusado de assédio sexual pelo ChatGPT em 2023.
A solução da OpenAI parece ter sido basicamente "fazer desaparecer" Turley, programando o ChatGPT para dizer que não pode responder a perguntas sobre ele, o que claramente não é uma solução justa nem satisfatória. Tentar resolver alucinações após o evento e caso a caso claramente não é o caminho a seguir.
O mesmo pode ser dito dos LLMs que amplificam estereótipos ou dão respostas centradas no Ocidente . Há também uma total falta de responsabilização diante dessa desinformação generalizada, já que é difícil determinar como o LLM chegou a essa conclusão.
Vimos um debate acirrado sobre esses problemas após o lançamento do GPT-4 em 2023 , o paradigma mais recente no desenvolvimento do LLM da OpenAI. Pode-se argumentar que o debate esfriou desde então, embora sem justificativa.
A UE aprovou sua Lei de IA em tempo recorde em 2024, por exemplo, na tentativa de se tornar líder mundial na supervisão dessa área. Mas a lei depende fortemente da autorregulamentação das empresas de IA sem realmente abordar as questões em questão. Isso não impediu que empresas de tecnologia lançassem LLMs em todo o mundo para centenas de milhões de usuários e coletassem seus dados sem o devido escrutínio.
Enquanto isso, os testes mais recentes indicam que mesmo os LLMs mais sofisticados continuam pouco confiáveis. Apesar disso, as principais empresas de IA ainda resistem a assumir a responsabilidade por erros.
Infelizmente, as tendências dos LLMs de desinformar e reproduzir vieses não podem ser resolvidas com melhorias graduais ao longo do tempo. E com o advento da IA agêntica , onde os usuários em breve poderão atribuir projetos a um LLM, como, por exemplo, reservar suas férias ou otimizar o pagamento de todas as suas contas mensais, o potencial para problemas tende a se multiplicar.
O campo emergente da IA neurosimbólica pode solucionar esses problemas, ao mesmo tempo em que reduz a enorme quantidade de dados necessária para o treinamento de LLMs. Então, o que é IA neurosimbólica e como ela funciona?
O problema do LLM
Os LLMs trabalham com uma técnica chamada aprendizado profundo, na qual recebem grandes quantidades de dados de texto e usam estatísticas avançadas para inferir padrões que determinam qual deve ser a próxima palavra ou frase em qualquer resposta. Cada modelo — juntamente com todos os padrões que aprendeu — é armazenado em matrizes de computadores potentes em grandes data centers, conhecidos como redes neurais.
Os LLMs podem parecer raciocinar usando um processo chamado cadeia de pensamento, em que geram respostas em várias etapas que imitam como os humanos podem chegar logicamente a uma conclusão, com base em padrões observados nos dados de treinamento.
Sem dúvida, os LLMs são uma grande conquista da engenharia. Eles são impressionantes na síntese e tradução de textos , e podem aumentar a produtividade daqueles diligentes e com conhecimento suficiente para identificar seus erros. No entanto, eles têm grande potencial para induzir ao erro, pois suas conclusões são sempre baseadas em probabilidades — não em compreensão.
Uma solução alternativa popular é chamada de "human-in-the-loop": garantir que os humanos que usam IAs ainda tomem as decisões finais. No entanto, atribuir a culpa aos humanos não resolve o problema. Eles ainda serão frequentemente enganados por informações falsas.
Os LLMs agora precisam de tantos dados de treinamento para avançar que precisamos alimentá-los com dados sintéticos, ou seja, dados criados pelos próprios LLMs. Esses dados podem copiar e amplificar erros existentes de seus próprios dados de origem, de modo que novos modelos herdem as fragilidades dos antigos. Como resultado, o custo de programar modelos de IA para serem mais precisos após o treinamento — conhecido como alinhamento post-hoc de modelos — está disparando .
Também fica cada vez mais difícil para os programadores verem o que está dando errado porque o número de etapas no processo de pensamento do modelo se torna cada vez maior, tornando cada vez mais difícil corrigir erros.
A IA neurossimbólica combina o aprendizado preditivo de redes neurais com o ensino à IA de uma série de regras formais que os humanos aprendem para serem capazes de deliberar de forma mais confiável. Essas regras incluem regras lógicas, como "se a, então b", que, por exemplo, ajudariam um algoritmo a aprender que "se está chovendo, então tudo lá fora está normalmente molhado"; regras matemáticas, como "se a = b e b = c, então a = c"; e os significados acordados de coisas como palavras, diagramas e símbolos. Algumas delas serão inseridas diretamente no sistema de IA, enquanto outras serão deduzidas por ele mesmo, analisando seus dados de treinamento e realizando a "extração de conhecimento".
Isso deve criar uma IA que nunca terá alucinações e aprenderá de forma mais rápida e inteligente, organizando seu conhecimento em partes claras e reutilizáveis. Por exemplo, se a IA tiver uma regra sobre objetos que podem estar molhados lá fora quando chove, não há necessidade de ela reter todos os exemplos de objetos que podem estar molhados lá fora — a regra pode ser aplicada a qualquer objeto novo, mesmo um que ela nunca tenha visto antes.
Durante o desenvolvimento do modelo, a IA neurossimbólica também integra aprendizagem e raciocínio formal usando um processo conhecido como ciclo neurossimbólico. Isso envolve uma IA parcialmente treinada extraindo regras de seus dados de treinamento e, em seguida, injetando esse conhecimento consolidado de volta na rede antes de um treinamento adicional com dados.
Isso é mais eficiente em termos de energia porque a IA não precisa armazenar tantos dados, enquanto a IA é mais responsável porque é mais fácil para o usuário controlar como ela chega a conclusões específicas e como aprimora seus processos ao longo do tempo. Também é mais justo porque pode ser feito para seguir regras preexistentes, como: "Para qualquer decisão tomada pela IA, o resultado não deve depender da raça ou gênero de uma pessoa."
A Terceira Onda
A primeira onda de IA na década de 1980, conhecida como IA simbólica, baseou-se, na verdade, no ensino de regras formais aos computadores, que eles poderiam então aplicar a novas informações. O aprendizado profundo seguiu como a segunda onda na década de 2010, e muitos veem a IA neurosimbólica como a terceira.
É mais fácil aplicar princípios neurosimbólicos à IA em áreas específicas, porque as regras podem ser claramente definidas. Portanto, não é surpresa que tenhamos visto isso surgir pela primeira vez no AlphaFold do Google , que prevê estruturas de proteínas para auxiliar na descoberta de medicamentos ; e no AlphaGeometry , que resolve problemas complexos de geometria .
Para modelos de IA mais abrangentes, a DeepSeek da China utiliza uma técnica de aprendizado chamada "destilação" , que é um passo na mesma direção. Mas para tornar a IA neurossimbólica totalmente viável para modelos gerais, ainda são necessárias mais pesquisas para refinar sua capacidade de discernir regras gerais e realizar a extração de conhecimento.
Não está claro até que ponto os criadores de LLM já estão trabalhando nisso. Eles certamente parecem estar caminhando na direção de tentar ensinar seus modelos a pensar de forma mais inteligente, mas também parecem comprometidos com a necessidade de escalar com volumes de dados cada vez maiores.
A realidade é que, se a IA quiser continuar avançando, precisaremos de sistemas que se adaptem às novidades a partir de apenas alguns exemplos, que verifiquem sua compreensão, que possam realizar multitarefas e reutilizar o conhecimento para melhorar a eficiência dos dados e que possam raciocinar de forma confiável e sofisticada.
Dessa forma, uma tecnologia digital bem projetada poderia até mesmo oferecer uma alternativa à regulamentação, pois os freios e contrapesos seriam incorporados à arquitetura e talvez padronizados em todo o setor. Há um longo caminho a percorrer, mas pelo menos há um caminho a seguir.
Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original .
Comments