Algo perturbador acontece quando você "aprende" algo com o ChatGPT.
- Time ALGOR

- 23 de nov.
- 3 min de leitura
O ChatGPT e outros chatbots de IA estão substituindo os mecanismos de busca. Em vez de fazer você sofrer com a árdua tarefa de procurar fontes de informação, esses poderosos modelos de linguagem simplesmente criarão uma resposta para você, com o pequeno risco de que ela seja totalmente inventada .

Acontece que existe outro perigo: embora obter as respostas dessa forma possa ser rápido, não é ideal para o aprendizado propriamente dito, de acordo com um novo estudo publicado na revista PNAS Nexus.
“Quando as pessoas dependem de grandes modelos de linguagem para resumir informações sobre um tópico, elas tendem a desenvolver um conhecimento mais superficial sobre ele em comparação com o aprendizado por meio de uma pesquisa padrão no Google”, escreveu Shiri Melumad, professora da Wharton School da Universidade da Pensilvânia e coautora principal do estudo, em um ensaio para o The Conversation sobre seu trabalho.
As conclusões baseiam-se na análise de sete estudos com mais de 10.000 participantes. A essência dos experimentos foi a seguinte: os participantes foram instruídos a pesquisar sobre um determinado tema e foram aleatoriamente designados para usar exclusivamente um chatbot de IA, como o ChatGPT, para realizar a pesquisa, ou um mecanismo de busca padrão, como o Google. Ao final, os participantes foram solicitados a escrever um conselho para um amigo sobre o que aprenderam.
Um padrão claro emergiu. Os participantes que usaram IA para fazer suas pesquisas escreveram conselhos mais curtos, com dicas genéricas e menos informações factuais, enquanto as pessoas que usaram uma busca no Google produziram dicas mais detalhadas e ponderadas. O padrão se manteve mesmo após controlar fatores como as informações que os usuários visualizaram durante a pesquisa, mostrando a cada grupo os mesmos fatos, ou quais ferramentas eles utilizaram.
“Os resultados confirmaram que, mesmo mantendo os fatos e a plataforma constantes, o aprendizado a partir de respostas sintetizadas do LLM levou a um conhecimento mais superficial em comparação com a coleta, interpretação e síntese de informações por conta própria através de links da web padrão”, escreveu Melumad.
Os cientistas ainda estão apenas começando a compreender os efeitos a longo prazo do uso da IA no cérebro, mas as evidências até agora sugerem riscos alarmantes. Um estudo importante que chamou a atenção foi conduzido por pesquisadores da Carnegie Mellon e da Microsoft, e descobriu que as pessoas que confiavam na precisão das ferramentas de IA tiveram suas habilidades de pensamento crítico atrofiadas . Outro estudo associou estudantes que dependiam muito do ChatGPT à perda de memória e à queda no rendimento escolar.
“Um dos princípios mais fundamentais do desenvolvimento de habilidades é que as pessoas aprendem melhor quando estão ativamente envolvidas com o material que estão tentando aprender”, explicou Melumad. “Quando aprendemos sobre um tópico por meio de uma busca no Google, enfrentamos muito mais ‘atrito’: precisamos navegar por diferentes links da web, ler fontes de informação e interpretá-las e sintetizá-las nós mesmos.”
“Mas com os LLMs”, acrescentou Meluad, “todo esse processo é feito em nome do usuário, transformando o aprendizado de um processo mais ativo para um processo passivo.”
Enquanto os cientistas continuam a explorar os riscos da IA, a tecnologia está a ganhar terreno rapidamente na educação, onde se tornou uma ferramenta popular para colar em trabalhos . Líderes como a OpenAI, a Microsoft e a Anthropic estão a investir milhões de dólares no treino de professores para utilizarem os seus produtos de IA, enquanto as universidades estabelecem parcerias com estas mesmas empresas para criarem chatbots personalizados para os seus alunos, como a colaboração criativamente denominada da Universidade de Duke com a OpenAI, “DukeGPT”.




Comentários