top of page

A parte mais difícil de criar IA consciente talvez seja nos convencermos de que ela é real.

O que uma máquina teria que fazer para nos convencer de que é consciente?


Sigularity Hub

31 de outubro de 2025



Já em 1980, o filósofo americano John Searle distinguiu entre inteligência artificial forte e fraca . As IAs fracas são meramente máquinas ou programas úteis que nos ajudam a resolver problemas, enquanto as IAs fortes teriam inteligência genuína. Uma IA forte seria consciente.



Searle era cético quanto à própria possibilidade de uma IA forte, mas nem todos compartilham seu pessimismo. Os mais otimistas são aqueles que defendem o funcionalismo , uma teoria da mente popular que considera que os estados mentais conscientes são determinados unicamente por sua função. Para um funcionalista, a tarefa de produzir uma IA forte é meramente um desafio técnico. Se pudermos criar um sistema que funcione como nós, podemos ter certeza de que ele é consciente como nós.



Recentemente, chegamos a um ponto de inflexão. As IAs generativas, como o ChatGPT, estão agora tão avançadas que suas respostas são frequentemente indistinguíveis das de um ser humano real — veja, por exemplo, esta troca de mensagens entre o ChatGPT e Richard Dawkins.



A questão de saber se uma máquina pode nos enganar, fazendo-nos pensar que é humana, é o tema de um teste bastante conhecido , idealizado pelo cientista da computação inglês Alan Turing em 1950. Turing afirmou que, se uma máquina conseguisse passar no teste, deveríamos concluir que ela era genuinamente inteligente.



Em 1950, isso era pura especulação, mas de acordo com um estudo preliminar deste ano — ainda não revisado por pares —, o teste de Turing foi aprovado. O ChatGPT convenceu 73% dos participantes de que era humano.



O interessante é que ninguém está acreditando nisso. Os especialistas não só negam que o ChatGPT seja consciente , como aparentemente nem levam a ideia a sério . Devo admitir que concordo com eles. Simplesmente não me parece plausível.



A questão fundamental é: o que uma máquina teria que fazer, de fato, para nos convencer?



Os especialistas tendem a se concentrar no lado técnico dessa questão. Ou seja, em discernir quais características técnicas uma máquina ou programa precisaria ter para satisfazer nossas melhores teorias sobre a consciência. Um artigo de 2023 , por exemplo, conforme relatado no The Conversation , compilou uma lista de quatorze critérios técnicos ou “indicadores de consciência”, como aprender com feedback (o ChatGPT não atingiu esse critério).



Mas criar uma IA forte é um desafio tanto psicológico quanto técnico. Uma coisa é produzir uma máquina que satisfaça os vários critérios técnicos que estabelecemos em nossas teorias, mas é bem diferente supor que, quando finalmente nos depararmos com tal máquina, acreditaremos que ela é consciente.



O sucesso do ChatGPT já demonstrou esse problema. Para muitos, o teste de Turing era o parâmetro de referência para a inteligência artificial. Mas se ele foi superado, como sugere o estudo em pré-publicação, os critérios de avaliação mudaram. E podem continuar mudando à medida que a tecnologia avança.


Dificuldades com Myna

É aqui que entramos no terreno obscuro de um antigo dilema filosófico: o problema das outras mentes . Em última análise, nunca se pode ter certeza se algo além de si mesmo é consciente. No caso dos seres humanos, o problema se resume a pouco mais do que um ceticismo ingênuo. Nenhum de nós pode considerar seriamente a possibilidade de que outros humanos sejam autômatos sem pensamento, mas no caso das máquinas parece ocorrer o contrário. É difícil aceitar que elas possam ser algo diferente disso.


Faça parte do futuro

Seja um Membro do Board da ALGOR para ter acesso aos nossos programas de certficação por apenas R$ 193,00 mensais.




Um problema específico com IAs como o ChatGPT é que elas parecem meras máquinas de imitação. São como o pássaro mainá, que aprende a vocalizar palavras sem ter ideia do que está fazendo ou do que as palavras significam.



Isso não significa que jamais criaremos uma máquina consciente, é claro, mas sugere que talvez tenhamos dificuldade em aceitá-la caso isso aconteça. E essa talvez seja a maior ironia: ter sucesso em nossa busca por criar uma máquina consciente, mas nos recusarmos a acreditar que o fizemos. Quem sabe, talvez já tenha acontecido.



Então, o que uma máquina precisaria fazer para nos convencer? Uma sugestão provisória é que ela precisaria exibir o tipo de autonomia que observamos em muitos organismos vivos.



As IAs atuais, como o ChatGPT, são puramente responsivas. Se você tirar os dedos do teclado, elas ficam tão silenciosas quanto um túmulo. Os animais não são assim, pelo menos não aqueles que geralmente consideramos conscientes, como chimpanzés, golfinhos, gatos e cachorros. Eles têm seus próprios impulsos e inclinações (ou pelo menos aparentam ter), além do desejo de segui-los. Eles iniciam suas próprias ações, em seus próprios termos e por seus próprios motivos.



Talvez se pudéssemos criar uma máquina que demonstrasse esse tipo de autonomia — o tipo de autonomia que a levaria além de uma mera máquina imitadora — nós realmente aceitaríamos que ela é consciente?



É difícil saber com certeza. Talvez devêssemos perguntar ao ChatGPT.


LIVRO - ALGORITMIZAÇÃO - Guia Prático para Maturidade de Transformação Digital
R$193.00R$67.55
Comprar

 
 
 

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page