
Por Felipe Cicolin Vitte*
Uma pesquisa do Sindicato Educacional Nacional (NEU, na sigla em inglês) do REINO Unido revelou que alunos que usam ferramentas de inteligência artificial (IA) estão perdendo suas capacidades de pensamento crítico. Essa notícia, um prato cheio para os críticos da IA, não traz nada de novo sob o sol. Mas também não é motivo para ignorar os perigos do uso incorreto dessa tecnologia emergente.
Sabe-se que, de maneira simples, a educação é um fenômeno tripartite: envolve formação cognitiva (como se pensa), aquisição de habilidades (o que se pode fazer) e construção de julgamento (o que se escolhe fazer). Já o processo de aprender é intrinsecamente lento e ineficiente. Envolve frustração e muita tentativa e erro.
Na visão — consciente ou não — do estudante, a IA surge como uma panaceia. Elimina a fricção por completo; basta digitar (ou falar) algumas palavras (que podem fazer sentido ou não) e voilà. Não precisa sofrer diante de uma página em branco ou de um enunciado complexo. Confunde-se o resultado (um trabalho ou prova suficientemente bem feitos) com o verdadeiro valor da educação: o processo suado, o fazer, mesmo que imperfeito. Não o feito.
Mas não se deve negar a tentação de automatizar a educação. Em janeiro, o governo britânico anunciou planos para desenvolver ferramentas de IA para cerca de 450 mil estudantes desfavorecidos. De acordo com uma pesquisa com nove mil professores, 49% são contrários a esse plano, ante apenas 13% a favor.
Os professores estão certos. A IA pode ser uma aliada incomparável na luta a favor da educação, mas não sem ressalvas. No Reino Unido ou em qualquer outro país, ainda carecem políticas institucionais em massa sobre como docentes e discentes devem usar ferramentas de IA. Tampouco se entende com clareza onde acabam os benefícios e começam os danos. Em ambos os casos, precisa-se definir um norte claro, implementar programas de treinamento e orientação e definir diretrizes de uso para estudantes e professores. Cabe ao Estado, também, dialogar com o setor privado para definir políticas públicas que contemplem o problema de forma eficiente, evitando os maniqueísmos de apoiar ou criticar a IA incondicionalmente.
O autor é Graduando em Relações Internacionais pela ESPM–SP, foi Estudante Visitante na Universidade de Harvard







