LIRA – Linguagem Intermodal de Reconhecimento Afetivo: uma base de dados multimodal para reconhecimento de emoções musicais

Autores

DOI:

https://doi.org/10.5007/1518-2924.2026.e107990

Palavras-chave:

Banco de dados, Multimodal, Reconhecimento de emoções musicais, Extração de características musicais, Recuperação da informação

Resumo

Objetivo: este artigo apresenta a LIRA - Linguagem Intermodal de Reconhecimento Afetivo, uma base de dados multimodal desenvolvida para apoiar pesquisas em reconhecimento de emoções musicais. A LIRA preenche lacunas de bases existentes ao oferecer anotações emocionais e representações ricas em cinco modalidades.

Método: a base é composta por 1.412 segmentos de 30 segundos de músicas, cada um rotulado com uma das quatro emoções discretas: alegria, raiva/medo, serenidade ou tristeza. A LIRA inclui cinco modalidades: áudio, acordes, letras, atributos simbólicos e voz. A extração das características foi realizada com ferramentas como Librosa, Essentia, music21 e Spleeter.

Resultados: foram extraídas 171 características no total: 67 do áudio, 58 da voz, 25 dos acordes, 12 simbólicas e 9 das letras. Os dados emocionais e estruturais estão organizados em formato reutilizável. Todo o material e os scripts estão disponíveis publicamente no Mendeley Data e GitHub.

Conclusões: a LIRA é uma base de dados multimodal e anotada afetivamente, disponível publicamente, que favorece pesquisas robustas e reprodutíveis em reconhecimento de emoções musicais. Sua diversidade modal e formato padronizado permitem uma exploração aprofundada das respostas emocionais à música e apoiam o desenvolvimento de modelos computacionais mais expressivos.

Downloads

Não há dados estatísticos.

Biografia do Autor

Paulo Sergio da Conceição Moreira, Universidade Federal do Paraná

Doutor em Gestão da Informação (2023) pelo Programa de Pós-Graduação em Gestão da Informação da Universidade Federal do Paraná (PPGGI/UFPR). Mestre (2019) e bacharel (2017) em Gestão da Informação pela mesma instituição. Desenvolve pesquisas nas áreas de Análise de Dados, Mineração de Dados, Métricas de Informação, Reconhecimento de Emoções em Músicas e Recuperação de Informação Musical. Atualmente, é professor e coordenador dos cursos de Engenharia de Software e Sistemas de Informação no UniSenai Paraná (campus São José dos Pinhais), além de docente permanente no Programa de Pós-Graduação em Ciência de Dados da UFPR.

Denise Fukumi Tsunoda, Universidade Federal do Paraná

Professora titular na Universidade Federal do Paraná, Departamento de Ciência e Gestão da Informação com atuação no curso de graduação em Gestão da Informação e docente permanente no Programa de Pós-Graduação em Gestão da Informação (PPGGI) e Mestrado Profissional em Economia (PPGEcon). Graduada em Informática pela Universidade Federal do Paraná (1992), mestre em Engenharia Elétrica e Informática Industrial pela Universidade Tecnológica Federal do Paraná (1996) e doutora em Engenharia Elétrica e Informática Industrial - Engenharia Biomédica pela também Universidade Tecnológica Federal do Paraná (2004). Atua principalmente nos seguintes temas: inteligência artificial, machine learning, deep learning, descoberta de padrões em banco de dados, mineração de dados, mineração de processos, mineração de textos, computação evolucionária, algoritmos genéticos, programação genética e análise de dados.

Marília Nunes-Silva, Universidade Federal de Minas Gerais

Doutora em Neurociências pela Universidade Federal de Minas Gerais (UFMG), Mestre em Psicologia do Desenvolvimento pela UFMG, Especialista em Arteterapia pela Faculdade Vicentina (FAVI), Musicoterapeuta pela Censupeg, possui graduação em Música (Flauta doce) pela Universidade do Estado de Minas Gerais (UEMG) e graduação em Psicologia pela UFMG. Tem experiência na área de Psicologia, com ênfase em Neuropsicologia, Psicologia e Educação e Psicometria, e na área de Música, com ênfase em performance em música barroca (Flauta doce e canto). 

Referências

BIGAND, E. et al. Multidimensional scaling of emotional responses to music: the effect of musical expertise and of the duration of the excerpts. Cognition and Emotion, [s. l.], v. 19, n. 8, p. 1113-1139, 2005. Available at: https://doi.org/10.1080/02699930500204250. Accessed on: 11 July 2025. DOI: https://doi.org/10.1080/02699930500204250

CHATURVEDI, V. et al. Music mood and human emotion recognition based on physiological signals: a systematic review. Multimedia Systems, [s. l.], v. 28, n. 21, p. 21-44, apr. 2021. Available at: https://doi.org/10.1007/s00530-021-00786-6. Accessed on: 11 July 2025. DOI: https://doi.org/10.1007/s00530-021-00786-6

FAN, J. et al. Ranking-Based emotion recognition for experimental music. In: INTERNATIONAL SOCIETY FOR MUSIC INFORMATION RETRIEVAL CONFERENCE, 18., 2017, Suzhou. Proceedings [...]. Suzhou: ISMIR, 2017. p. 368-375. Available at: http://archives.ismir.net/ismir2017/paper/000217.pdf. Accessed on: 11 July 2025.

FLEISS, J. L. Measuring nominal scale agreement among many raters. Psychological Bulletin, [s. l.], v. 76, n. 5, p. 378-382, Nov. 1971. Available at: https://psycnet.apa.org/doi/10.1037/h0031619. Accessed on: 11 July 2025. DOI: https://doi.org/10.1037/h0031619

GÓMEZ-CAÑÓN, J. S. et al. Music emotion recognition: toward new, robust standards in personalized and context-sensitive applications. IEEE Signal Processing Magazine, [s. l.], v. 38, n. 6, p. 106-114, Oct. 2021. Available at: https://doi.org/10.1109/MSP.2021.3106232. Accessed on: 11 July 2025. DOI: https://doi.org/10.1109/MSP.2021.3106232

JUSLIN, P. N.; LAUKKA, P. Expression, perception, and induction of musical emotions: a review and a questionnaire study of everyday listening. Journal of New Music Research, [s. l.], v. 33, n. 3, p. 217-238, 2004. Available at: https://doi.org/10.1080/0929821042000317813. Accessed on: 11 July 2025. DOI: https://doi.org/10.1080/0929821042000317813

MCKAY, C. Automatic music classification with jMIR. 2010. 600 f. Tese (Doutorado) - Curso de Music Technology, Music, McGill University, Montreal, 2010. Available at: http://jmir.sourceforge.net/publications/PhD_Dissertation_2010.pdf. Accessed on: 27 July 2025.

MAUCH, M. Automatic chord transcription from audio using computational models of musical context. 2010. 168 f. Tese (Doutorado) - Curso de Electronic Engineering and Computer Science, University of London, Londres, 2010.

NUNES-SILVA, M. et al. Avaliação de músicas compostas para indução de relaxamento e de seus efeitos psicológicos. Psicologia: Ciência e Profissão, [s. l.], v. 36, n. 3, p. 709-725, July/Sept. 2016. Available at: https://doi.org/10.1590/1982-3703001672014. Accessed on: 11 July 2025. DOI: https://doi.org/10.1590/1982-3703001672014

PANDA, R. E. S. Emotion-based analysis and classification of audio music. 2019. 373 f. Tese (Doutorado) - Curso de Engenharia Informática, Universidade de Coimbra, Coimbra, 2019. Available at: https://hdl.handle.net/10316/87618. Accessed on: 04 Oct. 2025.

RAJESH, S.; NALINI, N. J. Musical instrument emotion recognition using deep recurrent neural network. Procedia Computer Science, [s. l.], v. 167, p. 16-25, 2020. Available at: https://doi.org/10.1016/j.procs.2020.03.178. Accessed on: 11 July 2025. DOI: https://doi.org/10.1016/j.procs.2020.03.178

RUSSO, M. et al. Cochleogram-based approach for detecting perceived emotions in music. Information Processing & Management, v. 57, n. 5, p. 1-17, Sept. 2020. Available at: https://doi.org/10.1016/j.ipm.2020.102270. Accessed on: 11 July 2025. DOI: https://doi.org/10.1016/j.ipm.2020.102270

YANG, D.; LEE, W.S. Music emotion identification from lyrics. In: IEEE INTERNATIONAL SYMPOSIUM ON MULTIMEDIA, 11., 2009, San Diego. Proceedings [...]. San Diego: IEEE, 2009. p. 624-629. Available at: https://doi.org/10.1109/ISM.2009.123. Accessed on: 11 July 2025. DOI: https://doi.org/10.1109/ISM.2009.123

YANG, X.; DONG, Y.; LI, J. Review of data features-based music emotion recognition methods. Multimedia Systems, [s. l.], v. 24, n. 4, p. 365-389, Aug. 2017. Available at: https://link.springer.com/article/10.1007/s00530-017-0559-4. Accessed on: 11 July 2025. DOI: https://doi.org/10.1007/s00530-017-0559-4

Publicado

29-10-2025

Como Citar

MOREIRA, Paulo Sergio da Conceição; TSUNODA, Denise Fukumi; NUNES-SILVA, Marília. LIRA – Linguagem Intermodal de Reconhecimento Afetivo: uma base de dados multimodal para reconhecimento de emoções musicais. Encontros Bibli: revista eletrônica de biblioteconomia e ciência da informação, Florianópolis/SC, Brasil, v. 31, p. 1–16, 2025. DOI: 10.5007/1518-2924.2026.e107990. Disponível em: https://periodicos.ufsc.br/index.php/eb/article/view/107990. Acesso em: 26 dez. 2025.