LIRA – Linguagem Intermodal de Reconhecimento Afetivo: uma base de dados multimodal para reconhecimento de emoções musicais

Autores/as

DOI:

https://doi.org/10.5007/1518-2924.2026.e107990

Palabras clave:

Banco de dados, Multimodal, Reconhecimento de emoções musicais, Extração de características musicais, Recuperação da informação

Resumen

Objetivo: este artigo apresenta a LIRA - Linguagem Intermodal de Reconhecimento Afetivo, uma base de dados multimodal desenvolvida para apoiar pesquisas em reconhecimento de emoções musicais. A LIRA preenche lacunas de bases existentes ao oferecer anotações emocionais e representações ricas em cinco modalidades.

Método: a base é composta por 1.412 segmentos de 30 segundos de músicas, cada um rotulado com uma das quatro emoções discretas: alegria, raiva/medo, serenidade ou tristeza. A LIRA inclui cinco modalidades: áudio, acordes, letras, atributos simbólicos e voz. A extração das características foi realizada com ferramentas como Librosa, Essentia, music21 e Spleeter.

Resultados: foram extraídas 171 características no total: 67 do áudio, 58 da voz, 25 dos acordes, 12 simbólicas e 9 das letras. Os dados emocionais e estruturais estão organizados em formato reutilizável. Todo o material e os scripts estão disponíveis publicamente no Mendeley Data e GitHub.

Conclusões: a LIRA é uma base de dados multimodal e anotada afetivamente, disponível publicamente, que favorece pesquisas robustas e reprodutíveis em reconhecimento de emoções musicais. Sua diversidade modal e formato padronizado permitem uma exploração aprofundada das respostas emocionais à música e apoiam o desenvolvimento de modelos computacionais mais expressivos.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Paulo Sergio da Conceição Moreira, Universidad Federal de Paraná

Doctor en Gestión de la Información (2023) por el Programa de Posgrado en Gestión de la Información de la Universidad Federal de Paraná (PPGGI/UFPR). Obtuvo una maestría (2019) y una licenciatura (2017) en Gestión de la Información por la misma institución. Investiga en las áreas de Análisis de Datos, Minería de Datos, Métricas de la Información, Reconocimiento de Emociones en Música y Recuperación de Información Musical. Actualmente es profesor y coordinador de los cursos de Ingeniería de Software y Sistemas de Información en UniSenai Paraná (campus São José dos Pinhais), así como profesor titular del Programa de Posgrado en Ciencia de Datos de la UFPR.

Denise Fukumi Tsunoda, Universidad Federal de Paraná

Profesora titular de la Universidad Federal de Paraná, Departamento de Ciencias de la Información y Gestión, trabajando en el programa de grado en Gestión de la Información y miembro permanente del cuerpo docente del Programa de Posgrado en Gestión de la Información (PPGGI) y del Programa de Maestría Profesional en Economía (PPGEcon). Es licenciada en Ciencias de la Computación por la Universidad Federal de Paraná (1992), Máster en Ingeniería Eléctrica e Informática Industrial por la Universidad Federal de Tecnología de Paraná (1996) y Doctora en Ingeniería Eléctrica e Informática Industrial - Ingeniería Biomédica por la Universidad Federal de Tecnología de Paraná (2004). Su trabajo se centra en inteligencia artificial, aprendizaje automático, aprendizaje profundo, descubrimiento de patrones en bases de datos, minería de datos, minería de procesos, minería de texto, computación evolutiva, algoritmos genéticos, programación genética y análisis de datos.

Marília Nunes-Silva, Universidad Federal de Minas Gerais

Tiene un doctorado en Neurociencia de la Universidad Federal de Minas Gerais (UFMG), una maestría en Psicología del Desarrollo de la UFMG, una especialista en Arteterapia de la Facultad Vicentina (FAVI) y una musicoterapeuta del Censupeg. Es licenciada en Música (flauta dulce) de la Universidad Estatal de Minas Gerais (UEMG) y una licenciatura en Psicología de la UFMG. Tiene experiencia en Psicología, con énfasis en Neuropsicología, Psicología y Educación, y Psicometría, y en Música, con énfasis en interpretación de música barroca (flauta dulce y canto). 

Citas

BIGAND, E. et al. Multidimensional scaling of emotional responses to music: the effect of musical expertise and of the duration of the excerpts. Cognition and Emotion, [s. l.], v. 19, n. 8, p. 1113-1139, 2005. Available at: https://doi.org/10.1080/02699930500204250. Accessed on: 11 July 2025. DOI: https://doi.org/10.1080/02699930500204250

CHATURVEDI, V. et al. Music mood and human emotion recognition based on physiological signals: a systematic review. Multimedia Systems, [s. l.], v. 28, n. 21, p. 21-44, apr. 2021. Available at: https://doi.org/10.1007/s00530-021-00786-6. Accessed on: 11 July 2025. DOI: https://doi.org/10.1007/s00530-021-00786-6

FAN, J. et al. Ranking-Based emotion recognition for experimental music. In: INTERNATIONAL SOCIETY FOR MUSIC INFORMATION RETRIEVAL CONFERENCE, 18., 2017, Suzhou. Proceedings [...]. Suzhou: ISMIR, 2017. p. 368-375. Available at: http://archives.ismir.net/ismir2017/paper/000217.pdf. Accessed on: 11 July 2025.

FLEISS, J. L. Measuring nominal scale agreement among many raters. Psychological Bulletin, [s. l.], v. 76, n. 5, p. 378-382, Nov. 1971. Available at: https://psycnet.apa.org/doi/10.1037/h0031619. Accessed on: 11 July 2025. DOI: https://doi.org/10.1037/h0031619

GÓMEZ-CAÑÓN, J. S. et al. Music emotion recognition: toward new, robust standards in personalized and context-sensitive applications. IEEE Signal Processing Magazine, [s. l.], v. 38, n. 6, p. 106-114, Oct. 2021. Available at: https://doi.org/10.1109/MSP.2021.3106232. Accessed on: 11 July 2025. DOI: https://doi.org/10.1109/MSP.2021.3106232

JUSLIN, P. N.; LAUKKA, P. Expression, perception, and induction of musical emotions: a review and a questionnaire study of everyday listening. Journal of New Music Research, [s. l.], v. 33, n. 3, p. 217-238, 2004. Available at: https://doi.org/10.1080/0929821042000317813. Accessed on: 11 July 2025. DOI: https://doi.org/10.1080/0929821042000317813

MCKAY, C. Automatic music classification with jMIR. 2010. 600 f. Tese (Doutorado) - Curso de Music Technology, Music, McGill University, Montreal, 2010. Available at: http://jmir.sourceforge.net/publications/PhD_Dissertation_2010.pdf. Accessed on: 27 July 2025.

MAUCH, M. Automatic chord transcription from audio using computational models of musical context. 2010. 168 f. Tese (Doutorado) - Curso de Electronic Engineering and Computer Science, University of London, Londres, 2010.

NUNES-SILVA, M. et al. Avaliação de músicas compostas para indução de relaxamento e de seus efeitos psicológicos. Psicologia: Ciência e Profissão, [s. l.], v. 36, n. 3, p. 709-725, July/Sept. 2016. Available at: https://doi.org/10.1590/1982-3703001672014. Accessed on: 11 July 2025. DOI: https://doi.org/10.1590/1982-3703001672014

PANDA, R. E. S. Emotion-based analysis and classification of audio music. 2019. 373 f. Tese (Doutorado) - Curso de Engenharia Informática, Universidade de Coimbra, Coimbra, 2019. Available at: https://hdl.handle.net/10316/87618. Accessed on: 04 Oct. 2025.

RAJESH, S.; NALINI, N. J. Musical instrument emotion recognition using deep recurrent neural network. Procedia Computer Science, [s. l.], v. 167, p. 16-25, 2020. Available at: https://doi.org/10.1016/j.procs.2020.03.178. Accessed on: 11 July 2025. DOI: https://doi.org/10.1016/j.procs.2020.03.178

RUSSO, M. et al. Cochleogram-based approach for detecting perceived emotions in music. Information Processing & Management, v. 57, n. 5, p. 1-17, Sept. 2020. Available at: https://doi.org/10.1016/j.ipm.2020.102270. Accessed on: 11 July 2025. DOI: https://doi.org/10.1016/j.ipm.2020.102270

YANG, D.; LEE, W.S. Music emotion identification from lyrics. In: IEEE INTERNATIONAL SYMPOSIUM ON MULTIMEDIA, 11., 2009, San Diego. Proceedings [...]. San Diego: IEEE, 2009. p. 624-629. Available at: https://doi.org/10.1109/ISM.2009.123. Accessed on: 11 July 2025. DOI: https://doi.org/10.1109/ISM.2009.123

YANG, X.; DONG, Y.; LI, J. Review of data features-based music emotion recognition methods. Multimedia Systems, [s. l.], v. 24, n. 4, p. 365-389, Aug. 2017. Available at: https://link.springer.com/article/10.1007/s00530-017-0559-4. Accessed on: 11 July 2025. DOI: https://doi.org/10.1007/s00530-017-0559-4

Publicado

2025-10-29

Cómo citar

MOREIRA, Paulo Sergio da Conceição; TSUNODA, Denise Fukumi; NUNES-SILVA, Marília. LIRA – Linguagem Intermodal de Reconhecimento Afetivo: uma base de dados multimodal para reconhecimento de emoções musicais. Encontros Bibli: Revista electrónica de bibliotecología, archivística y ciencias de la información., Florianópolis/SC, Brasil, v. 31, p. 1–16, 2025. DOI: 10.5007/1518-2924.2026.e107990. Disponível em: https://periodicos.ufsc.br/index.php/eb/article/view/107990. Acesso em: 28 dic. 2025.