Ensino superior, estudantes, professores e o uso responsável da inteligência artificial
Estudantes, professores e ferramentas de inteligência artificial estão, na prática, redesenhando o que significa aprender e ensinar no ensino superior. Em vez de só livros, anotações em papel e longas horas na biblioteca, a cena de hoje mistura cadernos, slides, PDFs e uma aba aberta com algum chatbot de IA, pronta para responder dúvidas em segundos.
Esse novo cenário é exatamente o que professores e alunos em faculdades e universidades dos Estados Unidos estão vivendo agora. A tecnologia já não é mais novidade: mais de três anos depois da chegada de sistemas como o ChatGPT, a IA generativa virou parte da rotina acadêmica, mesmo em áreas tradicionalmente ligadas à escrita e à argumentação, como as humanities – inglês, filosofia, estudos culturais, história e afins.
Uma pesquisa citada no artigo original, feita pela Inside Higher Ed em parceria com a Generation Lab, ilustra bem esse uso intenso: cerca de 85% dos estudantes de graduação entrevistados disseram que já usavam IA em atividades de curso, principalmente para brainstorming de ideias, criação de esboços de trabalhos, organização de estudos e preparação para provas. Aproximadamente 19% dos estudantes admitiram usar IA para escrever redações completas, o que acende alerta em muita gente da área de educação.
O dado mais curioso é que, mesmo com esse uso massivo, boa parte dos estudantes não vê a IA como solução mágica. Mais da metade dos que usam essas ferramentas relatou sentimentos mistos: de um lado, elas ajudam a aprender; de outro, fazem com que pensem menos profundamente sobre os temas, quase como se a etapa mais difícil do raciocínio fosse empurrada para o algoritmo.
É nessa tensão entre apoio e atalho perigoso que universidades, alunos e professores estão criando, na prática, suas próprias regras para o uso responsável da inteligência artificial no ensino superior.
Quando a IA parece um atalho fácil demais
Para o professor de inglês Dan Cryer, que leciona no Johnson County Community College, perto de Kansas City, recorrer a IA para escrever uma redação universitária é como levar uma empilhadeira para a academia. Ele resume a metáfora assim: se o único objetivo fosse mover os pesos de um lado para o outro, a máquina até resolveria o problema. Só que o foco da academia é desenvolver músculos. Na escrita acadêmica, o raciocínio é igual: o que interessa não é só ter um texto pronto, e sim o processo de pensar, pesquisar, organizar ideias e argumentar.
Depois de passar um período de licença se dedicando a estudar IA generativa, Cryer chegou a uma posição bem clara: na visão dele, professores deveriam usar essas ferramentas o mínimo possível em sala de aula, porque uma das funções centrais desses sistemas é justamente aliviar esforço cognitivo – e é esse esforço que faz parte essencial da formação universitária.
Ele também relata um impacto direto na carga de trabalho dos docentes. Com a popularização da IA, fica mais difícil entender se um texto foi mesmo escrito pela pessoa que assina. Ferramentas de detecção de IA não são infalíveis, podem cometer injustiças e não resolvem o problema sozinhas. Ao mesmo tempo, muitas faculdades fornecem acesso institucional a esses sistemas, o que torna o uso ainda mais disseminado. Resultado: professores gastam tempo extra tentando avaliar autenticidade e autoria, além do conteúdo em si.
Para os estudantes, o peso também aumentou. Agora, além de entregar trabalhos dentro do prazo e seguir normas de formatação, eles precisam encontrar, muitas vezes sozinhos, a linha que separa um uso responsável de um uso claramente inadequado da IA. Cryer considera isso injusto: não basta oferecer acesso às ferramentas, é preciso discutir com clareza o que faz sentido em termos pedagógicos.
Ele vem insistindo com suas turmas que o principal objetivo da faculdade não é produzir mais textos para encher o mundo de redações, mas usar a escrita como meio de treinar o pensamento. Nas palavras dele, a sociedade não está precisando de mais trabalhos de faculdade; está precisando de pessoas que saibam construir argumentos consistentes, diferenciar boa e má fonte de informação e articular ideias com clareza. Quando o estudante terceiriza tudo para a IA, pode estar se privando exatamente desse ganho intelectual, mesmo que tire uma boa nota no curto prazo.
Quando a IA vira parceira de aprendizado
No outro extremo do espectro, há professores enxergando a IA generativa como aliada para ampliar o aprendizado, desde que usada com critérios. Em Charlotte, na Carolina do Norte, a professora Leslie Clement, que leciona inglês, espanhol e estudos africanos na Johnson C. Smith University, trabalha com uma abordagem explícita de integração da IA no processo de ensino.
Ela não só permite que seus alunos recorram à inteligência artificial, como incentiva o uso responsável. O foco é bem específico: utilizar os modelos para organizar ideias, montar esboços de textos, comparar diferentes fontes de informação e testar interpretações de temas complexos. A escrita final, porém, deve ser fruto do pensamento do próprio estudante.
Clement também ajudou a criar uma disciplina chamada African Diaspora and AI, que discute o impacto da IA sobre pessoas da diáspora africana no mundo todo. A matéria trata, por exemplo, da mineração de cobalto na República Democrática do Congo, um elemento essencial na cadeia de suprimentos de baterias e equipamentos ligados à IA. O curso une crítica social, ética e tecnologia, destacando os riscos e, ao mesmo tempo, as possíveis oportunidades futuras desses sistemas para comunidades negras, além de reconhecer a contribuição de pesquisadores e cientistas negros nesse campo.
Um dos focos da disciplina é o afrofuturismo, explorando como estudantes podem usar IA para reimaginar seus futuros e contar novas narrativas sobre si mesmos e suas comunidades. A tecnologia entra tanto como ferramenta prática quanto como objeto de análise crítica, ajudando a desenvolver uma visão menos ingênua e mais informada sobre o papel dos algoritmos na sociedade.
Para Clement, o ponto central é formar pessoas com pensamento crítico, ético e inclusivo – e isso inclui saber fazer perguntas difíceis à própria tecnologia. Ela quer que os alunos entendam que não basta usar IA para o bem; é preciso também aprender a interrogar as respostas dos modelos, identificando possíveis vieses, erros factuais ou lacunas de perspectiva.
IA como tutora de bolso: o estudo com ajuda de chatbots
Em Durham, na Carolina do Norte, a estudante Anjali Tatini, de 19 anos, cursa dupla graduação em saúde global e neurociência na Duke University. Para ela, a IA virou uma espécie de parceira de estudos sob demanda. Em disciplinas mais puxadas, como biologia, ela recorreu ao Gemini, chatbot do Google, sempre que algum conceito parecia confuso.
O uso era bem direto: ela digitava o conceito que não estava claro e pedia uma explicação em linguagem acessível. Quando a resposta vinha técnica demais, ajustava a solicitação: pedia para simplificar, pedir exemplos, aproximar de situações do cotidiano. Dessa forma, criava um ciclo de pergunta e resposta que funcionava quase como uma aula particular rápida, adaptada ao seu nível de entendimento naquele momento.
Em química, Anjali usou IA para gerar exercícios extras e questões de prática, que a ajudassem a se preparar melhor para provas. Em marketing, a ferramenta entrou na fase de brainstorming de ideias para campanhas e projetos. Nas aulas de estatística, serviu como apoio para criar trechos de código em análises de dados, que ela depois revisava e adaptava.
O maior atrativo para ela é a flexibilidade. Com rotina cheia de aulas, estágios, atividades extracurriculares e trabalho, nem sempre sobrava tempo para ir a todos os horários de atendimento de professores. Ter um chatbot capaz de responder perguntas a qualquer hora, mesmo que com limitações, virou um grande diferencial.
Mas há um limite bem nítido na forma como Tatini usa a tecnologia: ela não delega à IA a autoria dos seus textos. A ferramenta pode até ajudar a organizar tópicos, sugerir estruturas de parágrafo ou apontar incoerências, mas a redação final é sempre dela. Ela valoriza a sensação de olhar para um trabalho e reconhecer ali sua própria voz: se o texto inteiro fosse gerado pela IA, diz que não conseguiria ter orgulho do resultado, porque não soaria como algo genuinamente seu.
Autoria, identidade e o valor de escrever à mão
Perto dali, em Chapel Hill, a estudante Hannah Elder, de 21 anos, cursa a University of North Carolina e se prepara para seguir carreira na área jurídica. Sua rotina inclui matérias como políticas públicas e filosofia, em que leitura densa e escrita argumentativa são centrais.
Ela até recorre à IA para tarefas específicas, como revisar gramática, checar se um texto está de acordo com o que o professor pediu no plano de avaliação ou identificar possíveis pontos fracos em um argumento. No entanto, traça uma linha clara: não usa a ferramenta para gerar ideias nem trechos de redação. Para Hannah, cultivar o próprio pensamento e aprender a articulá-lo com clareza é um dos aspectos mais valiosos da experiência universitária.
Um detalhe simbólico da rotina dela chama atenção: Hannah ainda prefere fazer suas anotações em papel, usando caderno e caneta. Na visão dela, o que uma pessoa escreve – o jeito de construir frases, escolhas de palavras, erros e acertos – funciona como uma espécie de impressão digital no mundo. Com o uso massivo de IA, ela sente que essa marca pessoal corre o risco de se diluir em textos cada vez mais padronizados, gerados por sistemas treinados em dados de muita gente ao mesmo tempo.
Apesar dessa postura cuidadosa, Hannah não defende a proibição total da IA na universidade. Ela tem uma visão pragmática: essas ferramentas já fazem parte da vida acadêmica e profissional, e não vão desaparecer. O que ela considera fundamental é que professores ensinem explicitamente como usar IA de forma benéfica, tanto para potencializar estudos quanto para evitar abusos.
Na visão dela, quando docentes incorporam a IA de maneira responsável nas disciplinas – por exemplo, mostrando exemplos de bom e mau uso, discutindo limites éticos e pedindo que os alunos justifiquem como utilizaram a tecnologia – a ferramenta deixa de ser vista como um tipo de código secreto para burlar o sistema e vira simplesmente parte da realidade digital que todo mundo precisa aprender a lidar.
Entre o risco de terceirizar o pensamento e a chance de inovar no ensino
As histórias de Cryer, Clement, Anjali e Hannah mostram facetas diferentes de um mesmo desafio no ensino superior: definir quais são as regras do jogo para o uso de inteligência artificial, sem cair em extremos. De um lado, há o medo bastante real de ver estudantes trocando o esforço de pensar por respostas geradas em segundos. De outro, existe a oportunidade de usar essas ferramentas para explicar melhor conteúdos difíceis, ampliar acesso a apoio educacional e provocar discussões mais ricas em sala de aula.
Em muitos campi, as soluções ainda estão em construção. Algumas instituições disponibilizam IA generativa oficialmente para alunos e professores, mas ao mesmo tempo atualizam políticas de integridade acadêmica, exigindo transparência do uso em trabalhos avaliativos. Outras estão criando disciplinas inteiras para discutir os impactos sociais, econômicos e éticos da tecnologia, conectando o tema com diferentes áreas do conhecimento.
No meio disso tudo, um ponto começa a ganhar consenso: o uso responsável de IA não significa simplesmente restringir ou liberar ferramentas. Significa ensinar, de forma prática, o que essas tecnologias fazem bem, onde costumam falhar, por que podem reproduzir preconceitos presentes nos dados em que foram treinadas e como podem ser usadas como apoio sem roubar do estudante a chance de desenvolver sua própria capacidade de pensar, argumentar e escrever.
O futuro da universidade passa por esse equilíbrio fino. Se a IA for tratada apenas como vilã, a tendência é que o uso continue existindo, mas de forma escondida, sem debate crítico. Se for abraçada sem critérios, existe o risco real de transformar a formação acadêmica em mera formalidade, com textos sofisticados na forma, porém vazios em conteúdo. Entre esses dois extremos, docentes e alunos estão, na prática, escrevendo um novo capítulo sobre como aprender em um mundo onde algoritmos também fazem parte da sala de aula.
