Guia para o uso ético e responsável da inteligência artificial generativa no âmbito acadêmico
DOI:
https://doi.org/10.5007/2175-8077.2025.e109536Palavras-chave:
Inteligência Artificial Generativa, Ética em Pesquisa, Integridade Científica, Autoria Humana, Governança AcadêmicaResumo
Objetivo Promover uma cultura de integridade científica e transparência na utilização de tecnologias generativas em pesquisas acadêmicas, fornecendo um referencial teórico e prático destinado a pesquisadores, docentes e instituições de ensino superior.
Metodologia O documento fundamenta-se em princípios éticos, epistemológicos e legais, estruturando-se a partir de diretrizes internacionais e nas políticas editoriais de grandes publicações científicas (Elsevier, Springer Nature, Taylor & Francis, SAGE e Emerald Publishing). Estabelece critérios de uso aceitável, sensível e inaceitável da GenIA, delimitando fronteiras claras entre assistência técnica e autoria intelectual.
Originalidade/Relevância O guia diferencia-se por equilibrar inovação tecnológica e responsabilidade epistêmica, incentivando o uso da GenIA como instrumento de apoio à pesquisa e não como substituto da reflexão humana. Sua relevância reside na resposta a uma lacuna crítica no contexto acadêmico contemporâneo: a necessidade de orientações éticas claras frente à adoção crescente de tecnologias generativas.
Resultados Propõe práticas pedagógicas e formativas para docentes e discentes voltadas à alfabetização digital crítica e à construção de competências éticas e cognitivas. Oferece protocolos institucionais de transparência, indicadores de maturidade digital e orientações para revisores e avaliadores.
Contribuições Teóricas Consolida um modelo de governança ética para o uso da IA na ciência, orientado pela integridade, responsabilidade compartilhada e valorização da autoria humana como núcleo inegociável da produção acadêmica.
Referências
Ajiye, O. T., & Omokhabi, A. A. (2025). The potential and ethical issues of artificial intelligence in improving academic writing. ShodhAI: Journal of Artificial Intelligence, 2(1), 1-9. https://doi.org/10.29121/shodhai.v2.i1.2025.24
ANPAD. (2023). Diretrizes para o uso ético de inteligência artificial em publicações científicas. Associação Nacional de Pós-Graduação e Pesquisa em Administração. https://doi.org/10.24883/eaglesustainable.v14i.409
Arar, K. H., Özen, H., Polat, G., & Turan, S. (2025). Artificial intelligence, generative artificial intelligence and research integrity: a hybrid systemic review. Smart Learning Environments, 12(1), 44. https://doi.org/10.1186/s40561-025-00403-3
BaHammam, A. S. (2025). Peer review in the artificial intelligence era: A call for developing responsible integration guidelines. Nature and Science of Sleep, 159-164. https://doi.org/10.2147/nss.s513872
Bardin, L. (2016). Análise de conteúdo. Edições 70.
Barthes, R. (2004). A morte do autor. O rumor da língua, 2(1), 57-64.
Batista, J., Mesquita, A., & Carnaz, G. (2024). Generative AI and higher education: Trends, challenges, and future directions from a systematic literature review. Information, 15(11), 676. https://doi.org/10.20944/preprints202409.1496.v1
Becher, T., & Trowler, P. (2001). Academic tribes and territories: Intellectual enquiry and the culture of disciplines (2nd ed.). Open University Press. https://doi.org/10.48059/uod.v15i3.838
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT), 610–623. https://doi.org/10.1145/3442188.3445922
Birhane, A. (2021). Algorithmic injustice: a relational ethics approach. Patterns, 2(2).
Bouter, L. M., Tijdink, J., Axelsen, N., Martinson, B. C., & ter Riet, G. (2022). Ranking major and minor research misbehaviors: Results from a survey among participants of four World Conferences on Research Integrity. Research Integrity and Peer Review, 7(4). https://doi.org/10.1186/s41073-016-0024-5
Cheng, A., Calhoun, A., & Reedy, G. (2025). Artificial intelligence-assisted academic writing: recommendations for ethical use. Advances in Simulation, 10(1), 22. https://doi.org/10.1186/s41077-025-00350-6
Chinoracky, R., & Stalmasekova, N. (2025). Ethical Problems in the Use of Artificial Intelligence by University Educators. Education Sciences, 15(10), 1322. https://doi.org/10.3390/educsci15101322
CNE/CES. (2018). Resolução nº 7, de 18 de dezembro de 2018. Ministério da Educação – Conselho Nacional de Educação. https://doi.org/10.56238/coneduca-095
CNS. (2016). Resolução nº 510, de 7 de abril de 2016. Conselho Nacional de Saúde.
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. https://doi.org/10.1080/23738871.2023.2237981
Delios, A., Tung, R. L., & van Witteloostuijn, A. (2025). How to intelligently embrace generative AI: The first guardrails for the use of GenAI in IB research. Journal of International Business Studies, 56(4), 451-460. https://doi.org/10.1057/s41267-024-00736-0
Dergaa, I., Chamari, K., Zmijewski, P., & Saad, H. B. (2023). From human writing to artificial intelligence generated text: examining the prospects and potential threats of ChatGPT in academic writing. Biology of sport, 40(2), 615-622. https://doi.org/10.5114/biolsport.2023.125623
Ebadi, S., Nejadghanbar, H., Salman, A. R., & Khosravi, H. (2025). Exploring the impact of generative AI on peer review: Insights from journal reviewers. Journal of Academic Ethics, 1-15. https://doi.org/10.1007/s10805-025-09604-4
Elsevier. (2024a). Generative AI policies for journals. Elsevier. Retrieved October 26, 2025, from https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals
Elsevier. (2024b). Responsible AI principles. Elsevier. Retrieved October 26, 2025, from https://www.elsevier.com/about/policies-and-standards/responsible-ai-principles
Elsevier. (2024c). The use of generative AI and AI-assisted technologies in writing for Elsevier. Elsevier. Retrieved October 26, 2025. https://doi.org/10.2139/ssrn.5509960
Emerald Publishing. (2023a). AI in action: Behind the scenes at Emerald Publishing. Emerald Group Publishing. Retrieved October 26, 2025. https://doi.org/10.1108/oxan-db292033
Emerald Publishing. (2023b). Emerald Publishing’s stance on AI tools and authorship. Emerald Group Publishing. Retrieved October 26, 2025. https://doi.org/10.1108/oxan-es201170
Emerald Publishing. (n.d.). Research and publishing ethics: Artificial intelligence (AI). Emerald Group Publishing. Retrieved October 26, 2025. https://doi.org/10.1016/b978-1-84334-669-2.50014-7
Feenberg, A. (2017). Technosystem: The social life of reason. Harvard University Press.
Floridi, L. (2020). The logic of information: A theory of philosophy as conceptual design. Oxford University Press.
Floridi, L. (2022). The ethics of artificial intelligence: Principles, challenges, and opportunities. Oxford University Press. https://doi.org/10.21555/top.v710.3275
Floridi, L., & Cowls, J. (2022). A unified framework of five principles for AI in society. Harvard Data Science Review, 2(1). https://doi.org/10.1162/99608f92.8cd550d1
Förster, S., & Skop, Y. (2025). Between fact and fairy: tracing the hallucination metaphor in AI discourse. AI & SOCIETY, 1-14. https://doi.org/10.1007/s00146-025-02392-w
Foucault, M. (1969). O que é um autor? In M. Foucault, Ditos e escritos (Vol. I). Gallimard.
Francis, N. J., Jones, S., & Smith, D. P. (2025). Generative AI in higher education: Balancing innovation and integrity. British Journal of Biomedical Science, 81, 14048. https://doi.org/10.3389/bjbs.2024.14048
Ganguly, A., Johri, A., Ali, A., & McDonald, N. (2025). Generative artificial intelligence for academic research: evidence from guidance issued for researchers by higher education institutions in the United States. AI and Ethics, 1-17. https://doi.org/10.1007/s43681-025-00688-7
Ganjavi, C., Eppler, M. B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G. S., ... & Cacciamani, G. E. (2024). Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis. bmj, 384. https://doi.org/10.1136/bmj-2023-077192
Hanafi, A. M., Al-mansi, M. M., & Al-Sharif, O. A. (2025). Generative AI in Academia: A Comprehensive Review of Applications and Implications for the Research Process. International Journal of Engineering and Applied Sciences-October 6 University, 2(1), 91-110. https://doi.org/10.21608/ijeasou.2025.349520.1041
Hanafi, A. M., Al-mansi, M. M., & Al-Sharif, O. A. (2025). Generative AI in Academia: A Comprehensive Review of Applications and Implications for the Research Process. International Journal of Engineering and Applied Sciences-October 6 University, 2(1), 91-110. https://doi.org/10.21608/ijeasou.2025.349520.1041
Hanafi, A. M., Al-mansi, M. M., & Al-Sharif, O. A. (2025). Generative AI in Academia: A Comprehensive Review of Applications and Implications for the Research Process. International Journal of Engineering and Applied Sciences-October 6 University, 2(1), 91-110. https://doi.org/10.21608/ijeasou.2025.349520.1041
Haraway, D. (2013). A cyborg manifesto: Science, technology, and socialist-feminism in the late twentieth century. In The transgender studies reader (pp. 103-118). Routledge. https://doi.org/10.1007/978-1-137-05194-3_10
Hosseini, M., & Resnik, D. B. (2025). Guidance needed for using artificial intelligence to screen journal submissions for misconduct. Research ethics, 21(1), 1-8. https://doi.org/10.1177/17470161241254052
IBGC. (2023). Código das melhores práticas de governança corporativa. Instituto Brasileiro de Governança Corporativa. https://doi.org/10.11606/issn.2178-2075.v14i2p157-174
Jin, Y., Yan, L., Echeverria, V., Gašević, D., & Martinez-Maldonado, R. (2025). Generative AI in higher education: A global perspective of institutional adoption policies and guidelines. Computers and Education: Artificial Intelligence, 8, 100348. https://doi.org/10.1016/j.caeai.2024.100348
Jones, M. S. (2025). Review of Algorithms of Oppression: How Search Engines Reinforce Racism, by Safiya Umoja Noble. Education Review, 32. https://doi.org/10.14507/er.v32.4117
Kamila, M. K., & Jasrotia, S. S. (2025). Ethical issues in the development of artificial intelligence: recognizing the risks. International Journal of Ethics and Systems, 41(1), 45-63. https://doi.org/10.1108/ijoes-05-2023-0107
Kundavaram, V. N. K. (2025). Optimizing Data Pipelines for Generative AI Workflows: Challenges and Best Practices. IJSAT-International Journal on Science and Technology, 16(1). https://doi.org/10.71097/ijsat.v16.i1.1527
Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet.
Leong, L. Y., Hew, T. S., Ooi, K. B., Tan, G. W. H., & Koohang, A. (2025). Generative AI: Current status and future directions. Journal of Computer Information Systems, 1-34. https://doi.org/10.1080/08874417.2025.2482571
Lévy, P. (2010). Inteligência coletiva: Por uma antropologia do ciberespaço. Loyola. https://doi.org/10.59616/cehd.v1i7.1940
LGPD – Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais. https://doi.org/10.47573/aya.5379.2.464.1
Linder, C., Nepogodiev, D., & GAIT 2024 Collaborative Group. (2025). Generative Artificial Intelligence Transparency in scientific writing: the GAIT 2024 guidance. Impact Surgery, 2(1), 6-11. https://doi.org/10.62463/surgery.134
Llerena-Izquierdo, J., & Ayala-Carabajo, R. (2025, October). Ethics of the Use of Artificial Intelligence in Academia and Research: The Most Relevant Approaches, Challenges and Topics. In Informatics (Vol. 12, No. 4, p. 111). MDPI. https://doi.org/10.3390/informatics12040111
Lund, B. D., Wang, T., Mannuru, N. R., Nie, B., Shimray, S., & Wang, Z. (2023). ChatGPT and a new academic reality: Artificial Intelligence‐written research papers and the ethics of the large language models in scholarly publishing. Journal of the Association for Information Science and Technology, 74(5), 570-581. https://doi.org/10.1002/asi.24750
McDonald, N., Johri, A., Ali, A., & Collier, A. H. (2025). Generative artificial intelligence in higher education: Evidence from an analysis of institutional policies and guidelines. Computers in Human Behavior: Artificial Humans, 3, 100121. https://doi.org/10.1016/j.chbah.2025.100121
Mijwil, M. M., Hiran, K. K., Doshi, R., Dadhich, M., Al-Mistarehi, A. H., & Bala, I. (2023). ChatGPT and the future of academic integrity in the artificial intelligence era: A new frontier. Al-Salam Journal for Engineering and Technology, 2(2), 116-127. https://doi.org/10.55145/ajest.2023.02.02.015
Mikroyannidis, A., Ekuban, A., Kwarteng, J., & Domingue, J. (2025, March). Best Practices for the Responsible Adoption of Generative AI in Higher Education. In Proceedings (Vol. 114, No. 1, p. 6). MDPI. https://doi.org/10.3390/proceedings2025114006
Mohammadi, E., Thelwall, M., Cai, Y., Collier, T., Tahamtan, I., & Eftekhar, A. (2026). Is generative AI reshaping academic practices worldwide? A survey of adoption, benefits, and concerns. Information Processing & Management, 63(1), 104350. https://doi.org/10.1016/j.ipm.2025.104350
Narayan, S. (2025). The Bridgerton Paradox in Artificial Intelligence: Balancing Diversity, Authenticity, and Responsible Innovation. Springer Nature. https://doi.org/10.1007/978-3-031-99493-7
OECD. (2023). AI principles and policy guidelines. Organisation for Economic Co-operation and Development. Oxford University Press. (n.d.). Author use of artificial intelligence. Oxford Academic. Retrieved October 26, 2025, from https://academic.oup.com/pages/for-authors/books/author-use-of-artificial-intelligence
Pasquale, F. (2020). New laws of robotics: Defending human expertise in the age of AI. Harvard University Press. https://doi.org/10.1007/s00146-021-01226-9
Radanliev, P. (2025). AI ethics: Integrating transparency, fairness, and privacy in AI development. Applied Artificial Intelligence, 39(1), 2463722. https://doi.org/10.1080/08839514.2025.2463722
Rahman, M. M., Terano, H. J., Rahman, M. N., Salamzadeh, A., & Rahaman, M. S. (2023). ChatGPT and academic research: A review and recommendations based on practical examples. Rahman, M., Terano, HJR, Rahman, N., Salamzadeh, A., Rahaman, S.(2023). ChatGPT and Academic Research: A Review and Recommendations Based on Practical Examples. Journal of Education, Management and Development Studies, 3(1), 1-12. https://doi.org/10.52631/jemds.v3i1.175
Rana, N. K. (2025). Generative AI and academic research: A review of the policies from selected HEIs. Higher Education for the Future, 12(1), 97-113. https://doi.org/10.1177/23476311241303800
Resnik, D. B., & Hosseini, M. (2025). The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. AI and Ethics, 5(2), 1499-1521. https://doi.org/10.1007/s43681-024-00493-8
Ryan, M., & Stahl, B. C. (2021). Artificial intelligence ethics guidelines for developers and users: clarifying their content and normative implications. Journal of Information, Communication and Ethics in Society, 19(1), 61-86. https://doi.org/10.1108/jices-12-2019-0138
SAGE Publishing. (2023a). AI author guidelines. SAGE Publications. Retrieved October 26, 2025, from https://www.sagepub.com/about/sage-policies/corporate-policies/ai-author-guidelines
SAGE Publishing. (2023b). Artificial intelligence policy. SAGE Publications. Retrieved October 26, 2025, from https://www.sagepub.com/journals/publication-ethics-policies/artificial-intelligence-policy
Sampaio, R. C., Sabbatini, M., & Limongi, R. (2025). Diretrizes para o uso ético e responsável da inteligência artificial generativa: um guia prático para pesquisadores. Boletim Técnico do PPEC, 10, e025003-e025003. https://doi.org/10.64628/ade.pfth4r4kt
Schlagwein, D., & Willcocks, L. (2023). ‘ChatGPT et al.’: The ethics of using (generative) artificial intelligence in research and science. Journal of Information Technology, 38(3), 232-238. https://doi.org/10.1177/02683962231200411
SemeAd. (2025). Diretrizes éticas para o uso de IA em submissões acadêmicas. Seminários em Administração da USP.
Springer Nature. (2024). Artificial Intelligence (AI) editorial policies. Springer Nature. Retrieved October 26, 2025, from https://www.springer.com/in/editorial-policies/artificial-intelligence--ai-/25428500
Steneck, N. H. (2003). ORI introduction to the responsible conduct of research. Department of Health and Human Services, Office of the Secretary, Office of Public Health and Science, Office of Research Integrity.
Tang, A., Li, K. K., Kwok, K. O., Cao, L., Luong, S., & Tam, W. (2024). The importance of transparency: Declaring the use of generative artificial intelligence (AI) in academic writing. Journal of nursing scholarship, 56(2), 314-318. https://doi.org/10.1111/jnu.12938
Tang, K. S., Cooper, G., & Nielsen, W. (2024). Philosophical, legal, ethical, and practical considerations in the emerging use of generative AI in academic journals: Guidelines for research in science education (RISE). Research in Science Education, 54(5), 797-807. https://doi.org/10.1007/s11165-024-10192-3
Tang, K. S., Cooper, G., & Nielsen, W. (2024). Philosophical, legal, ethical, and practical considerations in the emerging use of generative AI in academic journals: Guidelines for research in science education (RISE). Research in Science Education, 54(5), 797-807. https://doi.org/10.1007/s11165-024-10192-3
Taylor & Francis. (n.d.). Artificial Intelligence (AI) policy. Taylor & Francis Group. Retrieved October 26, 2025, from https://taylorandfrancis.com/our-policies/ai-policy/
Tingelhoff, F., Brugger, M., & Leimeister, J. M. (2025). A guide for structured literature reviews in business research: The state-of-the-art and how to integrate generative artificial intelligence. Journal of Information Technology, 40(1), 77-99. https://doi.org/10.1177/02683962241304105
UFMG. (2023). Diretrizes para o uso ético de ferramentas de IA em contextos acadêmicos. Universidade Federal de Minas Gerais. https://doi.org/10.14295/2596-2221.xviceel.2018.241
UFRGS. (2023). Guia institucional para uso responsável da inteligência artificial. Universidade Federal do Rio Grande do Sul. https://doi.org/10.21011/apn.2023.3208
UFSC. (2024). Código de conduta ética e integridade científica. Universidade Federal de Santa Catarina. https://doi.org/10.29183/2596-237x.ensus2023.v11.n4.p272-284
UNESCO. (2023). Ethical framework for generative AI in education. UNESCO. Disponível em: https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research. https://doi.org/10.2139/ssrn.5181859
UNESCO. (2025a). AI and education: Guidance for policy makers and institutions. UNESCO. Disponível em: https://www.unesco.org/en/articles/ai-and-education-guidance-policy-makers. https://doi.org/10.54675/pcsp7350
UNESCO. (2025b). Ethics of Artificial Intelligence. UNESCO. https://doi.org/10.54678/bgiv6160
UNICAMP. (2023). Normas éticas sobre o uso de IA em atividades acadêmicas. Universidade Estadual de Campinas.
Wang, H., Dang, A., Wu, Z., & Mac, S. (2024). Generative AI in higher education: Seeing ChatGPT through universities' policies, resources, and guidelines. Computers and Education: Artificial Intelligence, 7, 100326. https://doi.org/10.1016/j.caeai.2024.100326
Wiley. (n.d.). AI guidelines for authors. Wiley. Retrieved October 26, 2025, from https://www.wiley.com/en-us/publish/book/resources/ai-guidelines/
Yale University Press. (2024, September 18). Using and disclosing artificial intelligence (AI) tools. Yale University Press. Retrieved October 26, 2025. https://doi.org/10.18699/bgrs2024-1.2-05
Yin, S., Huang, S., Xue, P., Xu, Z., Lian, Z., Ye, C., ... & Li, C. (2025). Generative artificial intelligence (GAI) usage guidelines for scholarly publishing: a cross-sectional study of medical journals. BMC medicine, 23(1), 77. https://doi.org/10.1186/s12916-025-03899-1
Zaki, E. L., Karroum, J., Elouadi, A., & Moumen, A. (2025). Artificial intelligence in academic research: Benefits, challenges, and ethical dimensions in doctoral studies. Moroccan Journal of Quantitative and Qualitative Research, 7(2).
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Copyright (c) 2025 Janaína Gularte Cardoso, Igor de Jesus Lobato Pompeu Gammarano

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
O autor deve garantir:
- que haja um consenso completo de todos os coautores em aprovar a versão final do documento e sua submissão para publicação.
- que seu trabalho é original, e se o trabalho e/ou palavras de outras pessoas foram utilizados, estas foram devidamente reconhecidas.
Plágio em todas as suas formas constituem um comportamento antiético de publicação e é inaceitável. RCA reserva-se o direito de usar software ou quaisquer outros métodos de detecção de plágio.
Todas as submissões recebidas para avaliação na revista RCA passam por identificação de plágio e autoplágio. Plágios identificados em manuscritos durante o processo de avaliação acarretarão no arquivamento da submissão. No caso de identificação de plágio em um manuscrito publicado na revista, o Editor Chefe conduzirá uma investigação preliminar e, caso necessário, fará a retratação.
Os autores cedem à RCA os direitos exclusivos de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons (CC BY) 4.0 Internacional.

Os autores têm autorização para assumir contratos adicionais separadamente, para distribuição não exclusiva da versão do trabalho publicada neste periódico (ex.: publicar em repositório institucional, em site pessoal, publicar uma tradução, ou como capítulo de livro), com reconhecimento de autoria e publicação inicial neste periódico.
Esta licença permite que qualquer usuário tenha direito de:
Compartilhar – copiar, baixar, imprimir ou redistribuir o material em qualquer suporte ou formato.
Adaptar – remixar, transformar e criar a partir do material para qualquer fim, mesmo que comercial.
De acordo com os seguintes termos:
Atribuição – Você deve dar o crédito apropriado (citar e referenciar), prover um link para a licença e indicar se mudanças foram feitas. Você deve fazê-lo em qualquer circunstância razoável, mas de maneira alguma que sugira ao licenciante apoiar você ou o seu uso.
Sem restrições adicionais – Você não pode aplicar termos jurídicos ou medidas de caráter tecnológico que restrinjam legalmente outros de fazerem algo que a licença permita.