Depender da inteligência artificial (IA) no trabalho reduz o pensamento crítico dos humanos. Essa afirmação é baseada em um novo estudo feito pela Microsoft em parceria com a Universidade Carnegie Mellon, em Pittsburgh, no Estado da Pensilvânia, nos Estados Unidos. O resultado de ter uma “muleta” tecnológica é a “deterioração de faculdades cognitivas que deveriam ser preservadas”.
“Uma das ironias da automação é que, ao fazê-la em tarefas rotineiras e deixar a resolução para o usuário humano, você priva o usuário das oportunidades cotidianas de praticar seu julgamento e fortalecer sua musculatura cognitiva”, dizem os cientistas que assinam o levantamento, “Isso te deixa atrofiado e despreparado para quando as exceções de fato surgem”.
Os pesquisadores recrutaram 319 voluntários que trabalham com atividades intelectuais. A eles foram relatados 936 exemplos reais de uso da IA generativa em seus trabalhos e depois eles responderam um questionário sobre como utilizaram as ferramentas — inclusive os comandos que deram — e quão confiantes estavam na capacidade da IA em executar tarefas específicas. Além disso, eles precisaram avaliar a qualidade das respostas fornecidas pela inteligência artificial e mensurar se o resultado foi melhor do que se um humano tivesse realizado.
+ Leia mais notícias de Tecnologia em Oeste
Entre as tarefas citadas no estudo da Microsoft, um professor usou o gerador de imagens DALL-E para criar ilustrações para uma apresentação sobre higiene das mãos na escola. Dois exemplos que envolviam o ChatGPT foram destaque:
- um trader de commodities usou o modelo da OpenAI para “gerar recomendações de novos recursos e estratégias para aprimorar habilidades de negociação”, e
- uma enfermeira “verificou um panfleto educacional gerado pelo ChatGPT para pacientes recém-diagnosticados com diabetes”.
No geral, os participantes relataram que, quanto maior sua confiança na IA para realizar a tarefa, menor era sua percepção de exercitar algum tipo de pensamento crítico. Essa lógica se inverteu quando os voluntários desconfiavam da resposta gerada pelo ChatGPT, por exemplo. Nesse caso, eles se sentiam mais capazes de avaliar e melhorar a qualidade das respostas e mitigar suas consequências.
“Os dados mostram uma mudança no esforço cognitivo à medida que os trabalhadores com atividades intelectuais passam cada vez mais da execução de tarefas para a supervisão ao usar IA generativa”, dizem os pesquisadores. “Embora a IA possa melhorar a eficiência, ela também pode reduzir o engajamento crítico, especialmente em tarefas rotineiras ou de baixo risco, nas quais os usuários simplesmente confiam na inteligência artificial. Isso levanta preocupações sobre a dependência a longo prazo e a diminuição da capacidade de resolver problemas de forma independente.”
Também foi revelado pelo estudo da Microsoft que usuários com acesso a ferramentas de IA generativa criam um conjunto de resultados menos diversificado para a mesma tarefa, em comparação com aqueles que não utilizam.
Fatores que influenciam o pensamento crítico
Os pesquisadores notaram algumas condições previsíveis que fazem com que as pessoas exerçam mais ou menos o pensamento crítico. Por exemplo: trabalhadores sob pressão de tempo tendem a exercê-lo menos. No entanto, profissionais em cenários de alto risco ou em ambientes onde um erro pode causar danos tendem a pensar de forma mais crítica.
A IA nos deixa mais burros?

Com a diminuição do pensamento crítico, os humanos vão ficar menos inteligentes, e a IA devia ser abolida a fim de preservar a capacidade cognitiva das pessoas? É compreensível achar que a resposta vá ao encontro dos dados que indicam o declínio de raciocínio entre enfermeiros, professores e traders, por exemplo. No entanto, os pesquisadores oferecem uma visão mais complexa.
Eles entendem que a humanidade tem uma longa história de “transferência” de tarefas cognitivas para as novas tecnologias. Em perspectiva, analisam os pesquisadores, ao longo do tempo, a tese de que uma nova invenção pudesse destruir a inteligência humana assombrou — e assombra — as pessoas.
Leia mais:
“As ferramentas de IA generativa são as mais recentes em uma longa linha de tecnologias que levantam questões sobre seu efeito na qualidade do pensamento humano”, afirmam os pesquisadores. “Uma linha que inclui a escrita (criticada por Sócrates), a impressão (criticada pelo cronista alemão Trithemius), as calculadoras (criticadas por professores de aritmética) e a internet.”
“Essas preocupações não são infundadas”, prosseguem os responsáveis pelo estudo. “Quando usadas de forma inadequada, as tecnologias podem de fato resultar na deterioração de faculdades cognitivas que deveriam ser preservadas.”
Os autores dão exemplos pessoais — e identificados por quem os leu. No passado, eles memorizavam números de telefone de amigos e familiares e até da farmácia. Hoje, com todos os contatos armazenados no celular, mal lembram do próprio número. Outro exemplo é a dependência de GPS para chegar no destino, que antes era localizado pela memória.
Embora eles não se sintam burros por terceirizar suas agendas telefônicas para um aparelho digital, os pesquisadores reconhecem que a mesma lógica pode ser perigosa em trabalhos críticos, em que a dependência excessiva em modelos de IA pode levar as pessoas a aceitarem respostas erradas sem questionamento.
Como evitar a atrofia cognitiva, segundo a Microsoft

Financiadora da pesquisa, a Microsoft é uma das principais investidoras da OpenAI, responsável pelo desenvolvimento de inteligência artificial. Assim, os cientistas sugeriram que essas ferramentas também podem incentivar o pensamento crítico.
“Ferramentas de inteligência artificial generativa poderiam incorporar recursos que facilitem o aprendizado do usuário, como fornecer explicações sobre o raciocínio da IA, sugerir áreas para refinamento ou oferecer críticas guiadas”, disseram os pesquisadores.
“A ferramenta também poderia ajudar a desenvolver habilidades específicas de pensamento crítico, como análise de argumentos ou verificação de fatos em fontes confiáveis. Isso estaria alinhado com uma abordagem motivacional, posicionando a IA como uma parceira no desenvolvimento de habilidades”.
Leia também: “Entrevista com o ChatGPT”, reportagem de Dagomir Marquezi publicada na Edição 152 da Revista Oeste
Revista Oeste, com informações da Agência Estado