A construção coletiva das regras para IA nas universidades
Estudantes e professores espalhados por universidades dos Estados Unidos estão tomando a iniciativa de criar, juntos e de forma colaborativa, as diretrizes que vão determinar como a inteligência artificial pode e deve ser utilizada dentro das salas de aula do ensino superior. Mais de três anos após o lançamento do ChatGPT, essa continua sendo uma questão sem resposta definitiva, e a ausência de políticas institucionais claras está empurrando a comunidade acadêmica para uma construção que parte de baixo para cima, nascendo diretamente de quem vive o dia a dia do aprendizado.
Para dimensionar o cenário, cerca de 85% dos universitários americanos já utilizam ferramentas de IA em atividades acadêmicas, de acordo com uma pesquisa conduzida pelo Inside Higher Ed em parceria com o Generation Lab, realizada em julho. O número é alto, mas o que realmente chama atenção é o sentimento que acompanha esse dado. Mais da metade desses estudantes admite ter sentimentos mistos em relação ao uso dessas ferramentas. Eles reconhecem que a inteligência artificial facilita diversas tarefas do cotidiano acadêmico, como fazer brainstorming de ideias, estruturar trabalhos e estudar para provas, porém também percebem que a dependência excessiva pode enfraquecer a profundidade do próprio raciocínio. Além disso, aproximadamente 19% dos estudantes relataram usar IA para escrever redações inteiras, um dado que acende um alerta importante sobre os limites entre assistência e substituição do esforço intelectual.
O professor de inglês Dan Cryer, do Johnson County Community College, próximo a Kansas City, no Kansas, traduz esse dilema com uma analogia que ficou bastante conhecida entre educadores: usar IA generativa para escrever uma redação seria como levar uma empilhadeira para a academia 🏋️. Se o objetivo fosse apenas mover pesos de um lado para o outro, a máquina resolveria tudo com eficiência. Mas o propósito real de frequentar uma academia é desenvolver os músculos, e isso exige esforço, repetição e, principalmente, envolvimento pessoal. Da mesma forma, o objetivo de uma disciplina de escrita não é apenas entregar um texto finalizado, mas sim exercitar a capacidade crítica, argumentativa e criativa do estudante.
Cryer também destaca que a chegada da IA generativa trouxe um tipo novo de trabalho para professores como ele: tentar determinar se o trabalho entregue por um aluno é realmente dele. Segundo o professor, esse problema fica ainda mais complicado pelo fato de que sua faculdade comunitária, assim como muitas outras instituições de ensino superior nos Estados Unidos, fornece aos próprios estudantes acesso a ferramentas de IA. E não são apenas os docentes que carregam esse fardo extra. Os estudantes também precisam lidar com um desafio inédito: encontrar a linha que separa o uso responsável do uso irresponsável dessas tecnologias.
O papel dos professores na definição de limites
Após dedicar um período sabático ao estudo da inteligência artificial generativa, o professor Cryer chegou a uma conclusão pessoal: educadores deveriam usar ferramentas de IA o mínimo possível em suas práticas de ensino. Na visão dele, um dos principais propósitos dessas ferramentas é justamente evitar que as pessoas precisem pensar com profundidade, o que vai na contramão do que a educação deveria promover.
Cryer conta que agora dedica mais tempo a convencer seus alunos sobre o valor de investir esforço para se tornarem escritores melhores. Ele explica para as turmas que o objetivo da formação acadêmica está no processo, e não no produto final, porque a sociedade não precisa de mais redações universitárias. O que a sociedade precisa, segundo o professor, é que os estudantes passem pelo processo de escrever trabalhos de pesquisa para que possam se tornar pensadores melhores, capazes de construir argumentos coerentes e diferenciar uma fonte confiável de uma fonte duvidosa. Se os alunos dependerem da IA para fazer esse trabalho por eles, afirma Cryer, podem acabar sendo privados justamente da educação pela qual se matricularam.
Enquanto educadores como Cryer pedem cautela e alertam para os riscos de uma adoção irrefletida, outros professores enxergam na inteligência artificial uma aliada poderosa quando o uso responsável é colocado no centro da conversa. Essa divergência entre docentes, longe de ser um problema, está se mostrando produtiva.
A visão de quem aposta na IA como parceira de aprendizado
Em Charlotte, na Carolina do Norte, a professora Leslie Clement chegou a uma conclusão bem diferente da de Cryer. Para ela, a IA generativa pode funcionar como uma colaboradora poderosa capaz de enriquecer o aprendizado dos estudantes. Clement leciona inglês, espanhol e estudos africanos na Johnson C. Smith University, uma universidade historicamente negra, e permite que seus alunos usem IA para criar esboços de trabalhos, obter feedback sobre ideias e comparar diferentes fontes de informação.
A abordagem de Clement vai além do simples uso instrumental da tecnologia. Ela co-criou uma disciplina chamada African Diaspora and AI, que examina como a inteligência artificial impacta pessoas de ascendência africana ao redor do mundo. O curso aborda temas como a mineração perigosa de cobalto na República Democrática do Congo, um componente essencial nas tecnologias de IA, além de discutir potenciais benefícios futuros dessas ferramentas e as contribuições de pesquisadores e cientistas negros para o campo.
A disciplina também explora o conceito de afrofuturismo, incentivando os estudantes a utilizar ferramentas de IA para reimaginar seus próprios futuros. Clement diz que seu objetivo sempre foi fomentar o pensamento crítico, ético e inclusivo, e que deseja que seus alunos apliquem essas habilidades ao uso das ferramentas de IA. Ela quer que os estudantes não apenas utilizem a tecnologia para o bem, mas também a questionem e a examinem criticamente.
Essa abordagem descentralizada, em que cada professor define os limites para sua própria disciplina, tem ganhado força porque reconhece algo importante: não existe uma política única que funcione para todas as áreas do conhecimento. Um curso de ciência da computação pode se beneficiar enormemente do uso de assistentes de código baseados em IA, enquanto uma disciplina de filosofia ou literatura pode exigir restrições mais rígidas para preservar o exercício da argumentação original. O resultado é um mosaico de diretrizes que, embora não seja uniforme, reflete as necessidades reais de cada contexto de aprendizagem.
Estudantes como protagonistas do uso responsável
Um dos aspectos mais interessantes desse movimento é que os estudantes não estão apenas seguindo regras criadas por outros. Em diversas universidades, são os próprios alunos que estão definindo, na prática, como querem interagir com a inteligência artificial durante sua formação. E os relatos mostram que muitos estão fazendo escolhas bastante conscientes.
Quando a IA funciona como tutora sob demanda
Anjali Tatini, estudante de 19 anos que cursa dupla graduação em saúde global e neurociência na Duke University, em Durham, na Carolina do Norte, encontrou maneiras próprias de usar a IA de forma produtiva. No semestre passado, quando estava confusa com alguns conceitos de uma disciplina de biologia, ela recorreu ao Gemini, o chatbot de IA do Google, para pedir explicações.
Tatini conta que perguntava ao chatbot sobre um conceito e pedia que ele explicasse o significado. Se a resposta viesse em um nível técnico demais, ela simplesmente pedia para simplificar um pouco, o que se mostrava muito útil. Em outras disciplinas, como química, ela usou IA para criar problemas práticos e se preparar para provas. Em uma aula de marketing, a ferramenta ajudou no brainstorming de ideias. Em estatística, a IA auxiliou na geração de linhas de código para análises de dados.
Para Tatini, ter uma espécie de tutora sob demanda é valioso porque nem sempre ela consegue encontrar seus professores pessoalmente. Entre trabalhos, outras aulas e atividades extracurriculares, nem sempre sobra tempo para frequentar todos os horários de atendimento. Ter algo que responde no seu próprio tempo, de maneira similar a como uma pessoa responderia, faz diferença na rotina apertada de uma estudante de graduação.
Mas Tatini traça uma linha clara: ela nunca deixa a IA escrever por ela. Usa as ferramentas para ajudar a estruturar e organizar ideias, mas a redação final é inteiramente dela. A estudante explica que quando coloca algo para fora, quer que seja algo do qual tenha orgulho de dizer que é seu. Nunca usaria IA para escrever algo porque simplesmente não soaria como ela 🎯.
A escrita como impressão digital
Perto dali, em Chapel Hill, Hannah Elder, uma estudante de 21 anos no terceiro ano da University of North Carolina, compartilha uma filosofia parecida. Elder é estudante de pré-direito e cursa uma combinação de disciplinas que inclui políticas públicas e filosofia. Ela diz que usa IA generativa para revisar seus trabalhos e verificar se estão de acordo com as rubricas de avaliação dos cursos.
Porém, Elder afirma que jamais usaria a ferramenta para escrever ou gerar ideias em seu lugar. Para ela, aprender a formular suas próprias ideias e crenças e comunicá-las por meio da escrita tem sido uma das partes mais valiosas de toda a experiência universitária. Sua preocupação é que, se os estudantes passarem a depender da IA para fazer isso por eles, não vão aprender a pensar por conta própria.
Elder ainda faz suas anotações em papel, porque acredita profundamente que o que você escreve e o que você produz é como uma impressão digital para o mundo. E ela sente que, de certa forma, essa singularidade está sendo perdida com o avanço das ferramentas de geração de texto.
Apesar dessas convicções, Elder não acredita que a solução seja proibir a IA completamente. Ela reconhece que a tecnologia inevitavelmente fará parte da experiência universitária e defende que os educadores integrem a instrução sobre IA nos currículos. A ideia é que os estudantes aprendam a enxergar a linha entre o uso benéfico e o uso prejudicial. Se os professores incorporarem essas ferramentas de forma responsável ao ensino, diz Elder, a IA passará a ser vista menos como um atalho desonesto e mais como uma realidade com a qual é possível conviver de maneira inteligente e produtiva.
O caso de quem desistiu de usar IA
Nem todos os estudantes que experimentaram ferramentas de IA continuaram usando. Aysa Tarana, recém-formada pela University of Minnesota Twin Cities, estava no primeiro ano quando o ChatGPT foi lançado. Ela conta que começou a usar o chatbot para pequenas tarefas, como sugestões de temas para pesquisa. Mas com o tempo, Tarana decidiu parar de usar a ferramenta porque sentia que estava terceirizando seu próprio pensamento, e isso causava uma sensação estranha e desconfortável.
A experiência de Tarana ilustra algo que muitos educadores observam: o uso da IA no ambiente acadêmico não é uma via de mão única. Alguns estudantes experimentam, percebem que a ferramenta não se encaixa no tipo de aprendizado que buscam e optam por caminhos mais tradicionais. Essa diversidade de experiências reforça a importância de não tratar todos os alunos como um bloco monolítico e de permitir que cada um encontre seu próprio equilíbrio.
Transparência e diálogo aberto como pilares
Outro aspecto relevante nessa movimentação é a transparência. Diversos professores estão adotando a prática de conversar abertamente com suas turmas logo nas primeiras semanas de aula sobre o que consideram aceitável ou não em relação à inteligência artificial. Essa conversa franca ajuda a reduzir a ansiedade dos estudantes, que muitas vezes não sabem se estão cruzando alguma linha ética ao usar um chatbot para tirar dúvidas sobre um conceito ou para revisar a gramática de um trabalho. Quando as expectativas são claras desde o início, o ambiente se torna mais colaborativo e menos punitivo, o que favorece o aprendizado genuíno.
Essa participação ativa dos estudantes também está gerando um efeito colateral positivo: a alfabetização em inteligência artificial. Ao discutir limites, possibilidades e riscos, os alunos acabam entendendo melhor como essas ferramentas funcionam, quais são suas limitações e por que elas eventualmente produzem informações incorretas ou enviesadas. Esse tipo de conhecimento é valioso porque transforma o estudante de usuário passivo em alguém que consegue avaliar criticamente os resultados gerados por uma IA. E essa habilidade vai ser cada vez mais importante no mercado de trabalho e na vida cotidiana, independentemente da área de atuação.
Um movimento que pode inspirar universidades brasileiras
O cenário que está se formando no ensino superior americano pode servir de referência importante para universidades brasileiras e de outros países que enfrentam dilemas semelhantes. A lição mais clara até agora é que esperar por uma regulamentação que venha exclusivamente de cima, seja do governo ou das próprias redes de ensino, pode demorar demais. Enquanto isso, a construção coletiva de regras entre professores e estudantes está se mostrando um caminho viável, prático e surpreendentemente eficiente para garantir que a inteligência artificial seja incorporada ao processo educacional de maneira ética e produtiva.
O equilíbrio entre aproveitar o potencial da tecnologia e preservar a essência do aprendizado não é fácil de alcançar. Mas o fato de que a comunidade acadêmica está buscando esse ponto de forma aberta e colaborativa, com vozes tão diversas quanto as de Cryer, Clement, Tatini, Elder e Tarana, já é, por si só, um avanço significativo. O debate está longe de terminar, mas pelo menos está acontecendo nos lugares certos e com as pessoas certas na mesa 🧠.
