Transcripción, indexación y análisis automático de declaraciones judiciales a partir de representaciones fonéticas y técnicas de lingüística forense
- Pedro J.Vivancos Vicente
- José Antonio García Díaz
- Ángela Almela Sánchez-Lafuente
- Fernando Molina
- Juan Salvador Castejón Garrido
- Rafael Valencia García
ISSN: 1135-5948
Year of publication: 2020
Issue: 65
Pages: 109-112
Type: Article
More publications in: Procesamiento del lenguaje natural
Sustainable development goals
Abstract
Recientes avances tecnológicos han permitido mejorar los procesos judiciales para la búsqueda de información en los expedientes judiciales asociados a un caso. Sin embargo, cuando técnicos y peritos deben revisar pruebas almacenadas en vídeos y fragmentos de audio, se ven obligados a realizar una búsqueda manual en el documento multimedia para localizar la parte que desean revisar, lo cual es una tarea tediosa y que consume bastante tiempo. Para poder facilitar el desempeño de los técnicos, el presente proyecto consiste en un sistema que permite la transcripción e indexación automática de contenido multimedia basado en tecnologías de deep-learning en entornos de ruido y con múltiples interlocutores, así como la posibilidad de realizar análisis de lingüística forense sobre los datos para ayudar a los peritos a analizar los testimonios de modo que se aporten evidencias sobre la veracidad del mismo.
Bibliographic References
- Almela, A., R. Valencia-García, y P. Cantos. 2012. Detectando la mentira en lenguaje escrito. Procesamiento del lenguaje natural, 48:65–72.
- Ballesteros, M. C. R. 2011. La necesaria modernización de la justicia: especial referencia al plan estrat´egico 2009-2012. Anuario jurídico y económico escurialense, (44):173–186.
- Hannun, A., C. Case, J. Casper, B. Catanzaro, G. Diamos, E. Elsen, R. Prenger, S. Satheesh, S. Sengupta, A. Coates, y others. 2014. Deep speech: Scaling up endto-end speech recognition. arXiv preprint arXiv:1412.5567.
- Jiménez-Zafra, S. M., R. Morante, M. Teresa Martín-Valdivia, y L. A. Ureña-López. 2020. Corpora annotated with negation: An overview. Computational Linguistics, 46(1):1–52.
- Pfeiffer, S. y I. Hickson. 2013. Webvtt: The web video text tracks format. Draft Community Group Specification, W3C.
- Ravanelli, M. y M. Omologo. 2017. Contaminated speech training methods for robust dnn-hmm distant speech recognition. arXiv preprint arXiv:1710.03538.
- Salas-Zárate, M. P., M. A. Paredes-Valverde, M. A. Rodríguez-Garc´ıa, R. Valencia-García, y G. Alor-Hernández. 2017. Automatic detection of satire in twitter: A psycholinguistic-ased approach. Knowl. Based Syst., 128:20–33.
- Snyder, D., D. Garcia-Romero, G. Sell, A. McCree, D. Povey, y S. Khudanpur. 2019. Speaker recognition for multispeaker conversations using x-vectors. En ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), p´aginas 5796–5800. IEEE.
- Sun, M., D. Snyder, Y. Gao, V. K. Nagaraja, M. Rodehorst, S. Panchapagesan, N. Strom, S. Matsoukas, y S. Vitaladevuni. 2017. Compressed time delay neural network for small-footprint keyword spotting. En INTERSPEECH, p´aginas 3607–3611.
- Zalman, M., L. L. Rubino, y B. Smith. 2019. Beyond police compliance with electronic recording of interrogation legislation: Toward error reduction. Criminal Justice Policy Review, 30(4):627–655. Zhang, Y., G. Chen, D. Yu, K. Yaco, S. Khudanpur, y J. Glass. 2016. Highway long short-term memory rnns for distant speech recognition. En 2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), páginas 5755–5759. IEEE.