top of page

Evidências mostram que os sistemas de IA já são muito parecidos com os humanos. Isso será um problema?

  • Foto do escritor: Gestão do Curso
    Gestão do Curso
  • 28 de mai.
  • 4 min de leitura

O que acontece quando você não consegue diferenciar um chatbot humano de um de IA? Estamos prestes a descobrir.



E se pudéssemos projetar uma máquina que pudesse ler suas emoções e intenções, escrever respostas ponderadas, empáticas e perfeitamente cronometradas — e aparentemente saber exatamente o que você precisa ouvir? Uma máquina tão sedutora que você nem perceberia que é artificial. E se já a tivermos feito?



Em uma meta-análise abrangente, publicada no Proceedings of the National Academy of Sciences , mostramos que a última geração de chatbots baseados em modelos de linguagem de grande porte iguala e supera a maioria dos humanos em sua capacidade de comunicação. Um crescente corpo de pesquisas mostra que esses sistemas agora passam de forma confiável no teste de Turing , enganando os humanos, fazendo-os pensar que estão interagindo com outro humano.



Nenhum de nós esperava a chegada de supercomunicadores. A ficção científica nos ensinou que a inteligência artificial seria altamente racional e onisciente, mas careceria de humanidade.



No entanto, aqui estamos. Experimentos recentes mostraram que modelos como o GPT-4 superam os humanos na escrita persuasiva e também empática . Outro estudo descobriu que modelos de linguagem de grande porte (LLMs) são excelentes na avaliação de sentimentos diferenciados em mensagens escritas por humanos.



Os LLMs também são mestres em dramatização , assumindo uma ampla gama de personas e imitando estilos de personagens linguísticos diferenciados . Isso é amplificado por sua capacidade de inferir crenças e intenções humanas a partir de textos. É claro que os LLMs não possuem empatia ou compreensão social genuínas, mas são máquinas de imitação altamente eficazes.



Chamamos esses sistemas de "agentes antropomórficos". Tradicionalmente, o antropomorfismo se refere à atribuição de características humanas a entidades não humanas. No entanto, os LLMs genuinamente exibem qualidades altamente humanas, portanto, os apelos para evitar a antropomorfização dos LLMs serão inúteis.



Este é um momento marcante: quando você não consegue mais diferenciar entre falar com um humano ou com um chatbot de IA online.


Na Internet, ninguém sabe que você é uma IA


O que isso significa? Por um lado, os LLMs prometem tornar informações complexas mais amplamente acessíveis por meio de interfaces de bate-papo, adaptando as mensagens aos níveis de compreensão individuais . Isso tem aplicações em diversos domínios, como serviços jurídicos ou saúde pública. Na educação, as habilidades de dramatização podem ser usadas para criar tutores socráticos que fazem perguntas personalizadas e ajudam os alunos a aprender.



Ao mesmo tempo, esses sistemas são sedutores. Milhões de usuários já interagem com aplicativos complementares de IA diariamente. Muito se tem falado sobre os efeitos negativos dos aplicativos complementares , mas a sedução antropomórfica tem implicações muito mais amplas.





Pesquisas recentes da empresa de IA Anthropic mostram ainda que seu chatbot Claude 3 era mais persuasivo quando lhe era permitido fabricar informações e enganar. Dado que os chatbots de IA não têm inibições morais, eles estão prontos para serem muito melhores em enganar do que os humanos.



Isso abre caminho para manipulação em larga escala, com o objetivo de disseminar desinformação ou criar táticas de vendas altamente eficazes. O que poderia ser mais eficaz do que um parceiro de confiança recomendando casualmente um produto em uma conversa? O ChatGPT já começou a fornecer recomendações de produtos em resposta às perguntas dos usuários. É apenas um pequeno passo para inserir sutilmente recomendações de produtos nas conversas — sem que você sequer peça.



O que pode ser feito?


É fácil pedir regulamentação, mas é mais difícil resolver os detalhes.



O primeiro passo é aumentar a conscientização sobre essas capacidades. A regulamentação deve exigir a divulgação — os usuários precisam sempre saber que interagem com uma IA, como determina a Lei de IA da UE . Mas isso não será suficiente, dadas as qualidades sedutoras dos sistemas de IA.



O segundo passo deve ser compreender melhor as qualidades antropomórficas. Até o momento, os testes de LLM medem a "inteligência" e a recordação de conhecimento, mas nenhum mede o grau de "semelhança humana". Com um teste como este, as empresas de IA poderiam ser obrigadas a divulgar habilidades antropomórficas por meio de um sistema de classificação, e os legisladores poderiam determinar níveis de risco aceitáveis ​​para determinados contextos e faixas etárias.



O conto de advertência das mídias sociais, que eram em grande parte desregulamentadas até que muitos danos fossem causados, sugere que há alguma urgência. Se os governos adotarem uma abordagem mais passiva, a IA provavelmente ampliará os problemas existentes com a disseminação de informações falsas e desinformação , ou a epidemia de solidão . Aliás, o diretor executivo da Meta, Mark Zuckerberg, já sinalizou que gostaria de preencher o vazio do contato humano real com "amigos da IA".



Confiar em empresas de IA para que elas se abstenham de humanizar ainda mais seus sistemas parece imprudente. Todos os desenvolvimentos apontam na direção oposta. A OpenAI está trabalhando para tornar seus sistemas mais envolventes e personalizáveis, com a capacidade de dar à sua versão do ChatGPT uma "personalidade " específica.



O ChatGPT se tornou, em geral, mais comunicativo, frequentemente fazendo perguntas complementares para manter a conversa, e seu modo de voz acrescenta um apelo ainda mais sedutor.



Muito bem pode ser feito com agentes antropomórficos. Suas habilidades de persuasão podem ser usadas para causas boas e ruins, desde combater teorias da conspiração até incentivar usuários a doações e outros comportamentos pró-sociais.



No entanto, precisamos de uma agenda abrangente em todo o espectro de design e desenvolvimento, implantação e uso, e política e regulamentação de agentes conversacionais . Se a IA pode inerentemente nos pressionar, não devemos permitir que ela altere nossos sistemas.



Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original .


 
 
 

Posts Relacionados

Ver tudo

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page