Aproximando resultados de tradução automática e imagens em documentos multimodais

Autores

DOI:

https://doi.org/10.5007/2175-7968.2021.e75483

Palavras-chave:

Multimodalidade, Tradução Automática, Classificação de Resultado de Tradução Automática, Textura Intersemiótica, Incompatibilidades Intersemióticas

Resumo

O objetivo deste artigo é relatar os recentes achados sobre o uso de resultados do Google Tradutor em contextos multimodais. O desenvolvimento e a avaliação da tradução automática geralmente se concentram no modo verbal, mas são raros os relatos da área sobre a exploração das relações texto-imagem em documentos multimodais traduzidos automaticamente. Assim, este trabalho busca caracterizar o que são tais relações e como descrevê-las. Para tal, esta investigação examina o problema através de uma interface interdisciplinar envolvendo tradução automática e multimodalidade para analisar alguns exemplos do site Wikihow; em seguida, este trabalho descreve estudos recentes sobre ferramentas e métodos adequados para a anotação destas questões com o propósito de construir um corpus a longo prazo. Finalmente, este artigo fornece uma discussão sobre os achados, incluindo algumas limitações e perspectivas para pesquisas futuras.

Biografia do Autor

Thiago Blanch Pires, Universidade de Brasília

Professor adjunto do curso bacharelado em Línguas Estrangeiras Aplicadas ao Multilinguismo e à Sociedade da Informação (LEA-MSI) no Departamento de Línguas Estrangeiras e Tradução (LET), vinculado ao Instituto de Letras (IL) da Universidade de Brasília (UnB). Foi coordenador do curso de graduação (LEA-MSI) de março de 2018 a março de 2020. Atua no ensino da língua inglesa, dos estudos de corpora, e do tratamento automatizado das línguas naturais. Doutor em Gestão da Informação pelo Programa de Pós-Graduação em Ciência da Informação (PPGCinf) da Universidade de Brasília, com período de bolsa sanduíche na Universität Bremen, Alemanha, sob supervisão do prof. dr. John Bateman. Possui interesse de estudo nas áreas da Linguística Computacional, Multimodalidade, Estudos de Corpora. Possui graduação e mestrado em Letras - Língua Inglesa e Literaturas pela Universidade Federal de Santa Catarina, tendo como foco a Análise Textual na interface dos campos dos Estudos de Tradução baseados em Corpus e da Linguística Sistêmico-Funcional.

Augusto Velloso dos Santos Espindola, Universidade de Brasília

Bacharel em Línguas Estrangeiras Aplicadas ao Multilinguismo e à Sociedade da Informação (LEA-MSI) pela Universidade de Brasília.

Referências

Asociación Española de Normalización y Certificación. UNE 153020: Audiodescripción para personas con discapacidad visual. Requisitos para la audiodescripción y elaboración de audioguías. Madrid: AENOR, 2005.

Bedny, Marina; Pascual-Leone, Alvaro; Dodell-Feder, David; Fedorenko, Evelina; e Saxe, Rebecca. “Language processing in the occipital cortex of congenitally blind adults”. Procedings of the National Academy of Science of the United States of America (PNAS) 108.11 (2011): 4429-4434. Portal PNAS. 17/02/20. https://www.pnas.org/content/108/11/4429.

Gabrilli, Mara. Cartilha da Lei Brasileira de Inclusão. N.p: n.p., 2016. Site da senadora Mara Gabrilli. https://maragabrilli.com.br/wp-content/uploads/2019/07/Guia-LBI-int.pdf.

Carletto, Ana Cláudia; Cambiaghi, Silvana. Desenho universal: um conceito para todos. São Paulo: Instituto Mara Gabrilli, 2008. Site da senadora Mara Gabrilli. 17/02/20. http://maragabrilli.com.br/wp-content/uploads/2016/01/universal_web-1.pdf.

Chauí, Marilena. “Janela da Alma, Espelho do Mundo”. O Olhar, Novaes, Adauto (org.). São Paulo: Companhia das Letras, 1998. 31-63.

Classen, Constance. Worlds of sense: exploring the senses in history and across cultures. London/New York: Routledge, 1993.

Costa, Larissa Magalhães. Audiodescrição em filmes: história, discussão conceitual e pesquisa de recepção. Tese de doutorado – PUC-Rio, 2014.

Díaz Cintas, Jorge. “Audiovisual translation today: a question of accessibility for all”. Translating Today. 4 (2005): 3-5. Impressa

Diniz, Débora; Barbosa, Lívia; Santos, Wenderson. “Deficiência, direitos humanos e justiça”. SUR – Revista Internacional de Direitos Humanos. 6.11 (2009): 65-77. Portal SciELO. 17/02/20. http://www.scielo.br/pdf/sur/v6n11/04.pdf.

Fryer, Louise. Putting it into words: the impact of visual impairment on perception, experience and presence. Tese de doutorado – University of London, 2013.

Hyks, Veronika. “Audio description and translation: two related but different skills”. Translating Today. 4 (2005): 6-8. Impressa

Kastrup, Virginia. “‘Será que cegos sonham?’: o caso das imagens táteis distais”. Psicologia em Estudo. 18.3 (2013): 431-440. Portal SciELO. 17/02/20. http://www.scielo.br/pdf/pe/v18n3/v18n3a04.pdf.

Lambert, S.; Sampaio, E.; Mauss, Y.; Scheiber, C. “Blindness and brain plasticity: contribution of mental imagery? An fMRI study”. Cognitive Brain Research. 20.1 (2004): 1-11. Portal do NCBI. 17/02/20. https://www.ncbi.nlm.nih.gov/pubmed/15130584.

Limbach, Christiane. La neutralidad en la audiodescripción fílmica desde un punto de vista traductológico. Tese de doutorado – Universidad de Granada, 2012.

Martins, Bruno S. E Se Eu Fosse Cego? Narrativas Silenciadas da Deficiência. Porto: Editora Afrontamento, 2006.

Röder, Brigitte; Stock, Oliver; Bien, Siegfried; Neville, Helen; e Rösler, Frank. “Speech processing activities visual cortex in congenitally blind humans”. European Journal of Neuroscience. 16.5 (2002): 930-936. Portal ResearchGate. 17/02/20. https://www.researchgate.net/publication/11087851_Speech_processing_activates_visual_cortex_in_congenitally_blind_humans.

Sacks, Oliver. O olhar da mente. Tradução de Laura Motta. São Paulo: Companhia das Letras, 2010.

Seoane, Alexandra Frazão. A priorização de informação em roteiros de audiodescrição: o que o rastreamento ocular nos tem a dizer? Dissertação de mestrado - UECE, 2012.

Silva, Manoela Cristina Correia Carvalho da. Com os olhos do coração: estudo acerca da audiodescrição de desenhos animados para o público infantil.” Dissertação de mestrado - UFBA, 2009.

Publicado

2021-05-25