As universidades britânicas foram avisadas para “testar de estresse” todas as avaliações depois que novas pesquisas revelaram que “quase todos” os estudantes de graduação estão usando inteligência artificial generativa (GENAI) em seus estudos.
Uma pesquisa com 1.000 estudantes – nacional e internacional – descobriu que houve um “aumento explosivo” no uso de Genai nos últimos 12 meses. Quase nove em cada 10 (88%) na pesquisa de 2025 disseram que usavam ferramentas como o ChatGPT para suas avaliações, contra 53% no ano passado.
A proporção usando qualquer ferramenta de IA aumentou de 66% em 2024 para 92% em 2025, o que significa que apenas 8% dos estudantes não estão usando a IA, de acordo com um relatório publicado pelo Instituto de Políticas de Ensino Superior e Kortoxt, um provedor digital de livros ETEXT.
Josh Freeman, o autor do relatório, disse que essas mudanças dramáticas de comportamento em apenas 12 meses eram quase inéditas e alertaram: “As universidades deveriam prestar atenção: a IA generativa está aqui para ficar.
“Há lições urgentes aqui para instituições”, disse Freeman. “Toda avaliação deve ser revisada caso possa ser concluído facilmente usando a IA. Isso exigirá iniciativas de reciclagem em negrito para a equipe no poder e potencial da IA generativa.
“As instituições não resolverão nenhum desses problemas e devem procurar compartilhar as melhores práticas entre si. Por fim, as ferramentas de IA devem ser aproveitadas para avançar no aprendizado, em vez de inibi -lo. ”
Os alunos dizem que usam Genai para explicar conceitos, resumir os artigos e sugerir idéias de pesquisa, mas quase um em cada cinco (18%) admitiu incluir o texto gerado pela IA diretamente em seu trabalho.
“Quando perguntados por que eles usam a IA, os alunos costumam achar que economiza tempo (51%) e melhora a qualidade de seu trabalho (50%)”, afirmou o relatório. “Os principais fatores que os afastam usando a IA são o risco de serem acusados de má conduta acadêmica e o medo de obter resultados falsos ou tendenciosos”.
Um aluno disse aos pesquisadores: “Gosto de trabalhar com a IA, pois facilita a vida ao fazer tarefas; No entanto, fico com medo vou ser pego. ”
As mulheres estão mais preocupadas com esses fatores do que os homens, que mostram maior entusiasmo pela IA, assim como os estudantes mais ricos e os cursos de ciência, tecnologia, engenharia e matemática (STEM).
Segundo o relatório, metade dos estudantes dos antecedentes mais privilegiados usou a Genai para resumir os artigos, em comparação com 44% dos antecedentes menos privilegiados. “A divisão digital que identificamos em 2024 parece ter aumentado”, concluiu o relatório.
Os alunos geralmente acreditam que suas universidades responderam efetivamente a preocupações com a integridade acadêmica, com 80% dizendo que a política de sua instituição é “clara” e 76% acreditam que sua instituição identificaria o uso da IA nas avaliações. Apenas um terço (36%) dos estudantes recebeu treinamento em habilidades de IA de sua universidade.
“Eles dançam em torno do assunto”, disse um aluno. “Não é banido, mas não é aconselhado, é uma má conduta acadêmica se você o usar, mas os professores nos dizem que o usam. Mensagens muito mistas. ”
O Dr. Thomas Lancaster, cientista da computação do Imperial College London, que pesquisa a integridade acadêmica, disse: “Os estudantes que não usam ferramentas generativos de IA agora são uma minoria pequena.
“Sei que alguns estudantes são resistentes à IA e posso entender as preocupações éticas, mas estão realmente se colocando em uma desvantagem competitiva, tanto na educação quanto em se mostrarem prontos para futuras carreiras”.
Um porta -voz das Universidades do Reino Unido disse: “Para educar efetivamente a força de trabalho de amanhã, as universidades devem equipar cada vez mais os alunos para trabalhar em um mundo que será moldado pela IA, e seu claro progresso está sendo feito.
“Mas eles precisam equilibrar isso com os desafios representados por uma tecnologia em rápido desenvolvimento. Esta pesquisa mostra que universidades e estudantes estão vivos para os riscos potenciais representados pelas ferramentas de IA no contexto de exames e avaliação.
“Todos têm códigos de conduta que incluem penalidades graves para os alunos que estão enviando trabalhos que não são seus e envolvem os alunos desde o dia um nas implicações de trapaça”.