‘Eu, aluno, declaro que usei IA’: veja o que universidades permitem e proíbem em trabalhos e pesquisas

  • 16/03/2026
(Foto: Reprodução)
Unesp publicou manual com regras sobre o uso de IA Arquivo Pessoal Não adianta fingir que a inteligência artificial não existe, concluíram reitores e professores do ensino superior. Eles perceberam que qualquer tentativa de proibir 100% o uso de ferramentas como ChatGPT e Gemini pelos alunos seria em vão. Mas como garantir que esse tipo de tecnologia não vá prejudicar a formação dos jovens nem distorcer os resultados de avaliações? 📈Contexto: O Conselho Nacional de Educação (CNE) está discutindo um parecer que criará diretrizes nacionais para o emprego da IA na educação pública e privada, abrangendo todas as etapas de ensino. Até a última atualização desta reportagem, nesta segunda-feira (16), o texto ainda estava em aberto, aguardando as últimas recomendações do Ministério da Educação (MEC). Nos próximos dias, deve ser votado pelos conselheiros e encaminhado para consulta pública. Enquanto essa resolução não é finalizada, universidades públicas brasileiras optaram por elaborar e publicar seus próprios “manuais” com regras e recomendações sobre o uso de inteligência artificial no contexto acadêmico. Na última semana, por exemplo, a Universidade Estadual Paulista (Unesp) divulgou um guia para os alunos e os docentes da graduação, classificando as práticas em três categorias: ✅❌PODE Traduzir textos, parafrasear parágrafos, elaborar resumos e obter explicações adicionais; Revisar textos produzidos (gramática e ortografia); Criar esboços, roteiros, cronogramas e mapas mentais; Gerar imagens, vídeos e animações, compor músicas, criar apresentações e desenvolver jogos educativos; Traduzir textos para fins de pesquisa, desde que a tradução seja cuidadosamente revisada e validada. ❌NÃO PODE Submeter trabalhos gerados por IA como se fossem produções originais sem declaração explícita; Praticar plágio, deixando de citar adequadamente obras que a IA pode ter incluído nos resultados; Utilizar IA em provas, testes e avaliações sem autorização expressa do docente; Compartilhar informações confidenciais ou protegidas por direitos autorais; Produzir desinformação (deepfakes) ou simular resultados experimentais sem explicitar o uso da ferramenta. 😑DEPENDE: Gerar partes específicas de trabalhos (a permissão varia de acordo com a disciplina e as diretrizes do professor); Fazer tarefas em grupo (as diretrizes devem ser explicadas pelo docente e combinadas com transparência entre todos os integrantes da equipe). “Em um trabalho de conclusão de curso, o que nós esperamos é que o aluno não utilize de forma integral a inteligência artificial para a construção do seu texto. Ela não pode fazer a pesquisa por ele ou escrever por ele, mas pode corrigir erros gramaticais ou ajudar a encontrar referências”, explica Denis Salvadeo, professor da Unesp e um dos autores do guia. Em dezembro de 2025, a Universidade Federal de São Paulo (Unifesp) aprovou um documento com regras específicas para a pós-graduação. “A comunidade, tanto alunos quanto professores, não tinha uma orientação do que poderia ser feito. Até onde poderia usar IA em um trabalho ou uma pesquisa?”, afirma Luiz Leduíno de Salles Neto, docente do Instituto de Ciência e Tecnologia da Universidade Federal de São Paulo (ICT/Unifesp). “Agora, nossas diretrizes estabelecem que deve haver transparência: o autor deve indicar onde ele usou inteligência artificial. E aí, vai caber aos pares [outros pesquisadores da área], aos avaliadores e aos professores analisarem se o uso é adequado ou não.” Tudo documentado e combinado com o professor UFBA lançou guia com orientações sobre uso de IA por alunos e professores Reprodução Na Universidade Federal da Bahia (UFBA), o chamado “Guia para Uso Ético e Responsável da Inteligência Artificial Generativa” destaca a importância de o professor de cada disciplina estipular o que é permitido em determinada atividade. O docente pode exigir, por exemplo, que o estudante descreva: a ferramenta de IA utilizada em um trabalho; o prompt (comando) enviado e a resposta obtida. “Se você simplesmente dá um comando, recebe um texto de volta e entrega esse texto, as habilidades de raciocínio, de acúmulo, de ligação de ideias e de síntese não são desenvolvidas. Foi só a máquina. Você entrega a atividade, mas não desenvolve a aprendizagem”, diz Adriano Peixoto, professor e membro da comissão de IA da UFBA. “Para a universidade, o que a gente quer é justamente que o aluno aprenda, que ele desenvolva um senso crítico. Por isso, é importante exigir que ele explique por que usou a IA, qual foi o padrão de interação e qual a interpretação feita sobre a resposta.” Na resolução sobre IA na pesquisa e na pós-graduação, a Universidade Federal de São Paulo (Unifesp) também deixa claro: “É obrigatória a inclusão de uma declaração explícita sobre o uso de IAG [inteligência artificial generativa] em todos os documentos finais submetidos à avaliação na Unifesp ou encaminhados para publicação.” IA como assistente, não como ‘titular’ Em geral, o objetivo central das universidades é reforçar que a IA deve servir como uma “assistente”, sem jamais dispensar a supervisão humana. “A tecnologia deve ser usada para apoiar, complementar e potencializar as capacidades humanas, e não para substituí-las indiscriminadamente”, afirma o guia da Unifesp. Márcia Azevedo Coelho, pesquisadora de IA na Universidade de São Paulo (USP), ressalta que a principal preocupação com o uso indiscriminado dessas ferramentas é aceitar as respostas sem nenhum senso crítico, mas se fossem necessariamente imparciais. “As universidades precisam preparar os alunos e os professores para que eles entendam como cada sistema funciona e quais as estruturas culturais por trás deles. Não são máquinas neutras; elas têm determinada visão de mundo”, diz. “E estar no ensino superior é querer contribuir para alguma área. Se quero contribuir, preciso estar ali como pessoa, refletindo sobre determinado assunto, colocando minha marca, fazendo minhas conexões. O ChatGPT não dá conta disso”, diz. Como descobrir? Punir ou não punir? A Universidade Federal do Ceará (UFC), em portaria publicada em setembro de 2025, segue a mesma linha das demais citadas nesta reportagem: proíbe, por exemplo, que a IA sirva para “redigir seções substantivas do trabalho [de pesquisa] (métodos inéditos, testagens, resultados, discussão e conclusões)” ou “inserir referências não verificadas”. Um dos artigos estipula que os trabalhos de pós-graduação devem ser submetidos a sistemas como o Turnitin, criado para detectar o uso de IA em um texto. Mas, segundo especialistas ouvidos pelo g1, esse tipo de ferramenta não é 100% confiável. “Não existem recursos que garantam que a pessoa usou IA. Eles costumam dar 'falso positivo'. O ideal é que haja um protocolo de transparência entre professores e alunos, seguindo preceitos éticos”, afirma Tadeu da Ponte, pesquisador e especialista em inteligência artificial aplicada. Os únicos casos em que seria mais simples, por esses softwares, provar que a IA foi usada de maneira indevida são: plágio tradicional, quando há cópia quase integral de um texto, sem a devida menção aos autores; uso de referências falsas — o ChatGPT pode, por exemplo, “inventar” fontes e mencionar obras ou artigos científicos que sequer existem. “Sempre deve haver uma revisão humana”, diz Ponte. Não basta criar regras Tadeu da Ponte reforça que só guias ou manuais não bastarão: podem apontar diretrizes, mas devem ser acompanhados de uma mudança na cultura acadêmica. “A mentalidade precisa ser outra. Não dá mais para pensar que um aluno usa IA porque é preguiçoso. As ferramentas podem ser um recurso poderoso para o estudante e para os professores”, diz. “Não faria sentido pedir para alguém ir de São Paulo até Sorocaba, no interior, usando um mapa impresso, se temos hoje o Waze. É preciso mais do que proibir um recurso que já existe: é momento de pensar em como ele deve ser empregado de forma adequada para a aprendizagem.” É aí que entra a importância do letramento digital em IA, como explica a professora Márcia, da USP. “Precisamos ensinar não só os alunos, mas também os professores, a como usar essas ferramentas. Não faz mais sentido aplicar determinadas avaliações”, afirma. “Se for uma prova individual, tem de ser presencial, na sala de aula. Se for um seminário, mesmo que o aluno use IA para pesquisar, podemos exigir que ele apresente o que aprendeu para a sala ou associe algo a seu cotidiano. São formas de garantir o desenvolvimento de certas competências.” Tadeu da Ponte dá mais uma sugestão para a IA no ensino superior: exercícios de simulação de práticas profissionais. Em um curso de jornalismo, poderia haver um exercício de simulação de entrevista, em que o bot (“robô”) representaria um especialista. O aluno enviaria uma pergunta por vez a esse “entrevistado” e reagiria às respostas, como em um diálogo escrito. O professor da faculdade, nessa atividade, avaliaria justamente a conversa entre o estudante e a IA. “Seria uma forma de avaliar um número maior de alunos e conseguir dar devolutivas mais detalhadas. Simulações assim podem ser mais interessantes do que um formato antigo de prova”, diz. Pedagoga explica sobre o uso de inteligência artificial nas escolas

FONTE: https://g1.globo.com/educacao/noticia/2026/03/16/veja-o-que-universidades-permitem-e-proibem-em-trabalhos-e-pesquisas.ghtml


#Compartilhe

Aplicativos


Locutor no Ar

Peça Sua Música

Top 5

top1
1. Raridade

Anderson Freire

top2
2. Advogado Fiel

Bruna Karla

top3
3. Casa do pai

Aline Barros

top4
4. Acalma o meu coração

Anderson Freire

top5
5. Ressuscita-me

Aline Barros

Anunciantes