Identificación automática de cantante en música polifónica
Supervisor(es): Rocamora, Martín - Cancela, Pablo
Resumen:
La aplicación de la tecnología digital a la producción y distribución de música ha dado lugar a una verdadera revolución, facilitando el acceso de los artistas a los estudios de grabación, y generando un crecimiento exponencial de la cantidad de registros fonográficos. Esto ha generado que los sistemas de clasificación y sugerencia, basados en herramientas de procesamiento de señales y aprendizaje automático, se hayan transformado en puntos clave en la gestión de la oferta musical. En este contexto, es de especial relevancia automatizar algunas tareas, como la identificación del cantante a partir de un archivo de audio. La voz cantada es sin duda el instrumento musical más antiguo y familiar para nuestro sistema auditivo. Además, la voz suele transmitir mucha información en la música, porque generalmente interpreta la melodía principal, trasmite la letra y contiene características expresivas. Pero varios aspectos dificultan la tarea de reconocer automáticamente al cantante, en particular, a diferencia de la identificación del hablante, el acompañamiento musical es una señal de un nivel de energía similar al de la voz y no puede ser modelado como un ruido aleatorio independiente. En este trabajo se exploran las técnicas existentes de identificación de cantantes en archivos de audio de música polifónica. Varios trabajos abordan el problema sin realizar separación de fuentes, debido a las dificultades que esto conlleva, lo que genera que los algoritmos de clasificación aprendan a reconocer al cantante junto con su acompañamiento musical. La selección de la instrumentación, efectos de audio, mezcla y masterizado juegan un rol importante en el sonido final de las canciones que integran un álbum. En trabajos previos, los efectos vinculados a estos aspectos de la producción fonográfica han sido poco explorados. Para mostrar estos efectos y poder cuantificarlos, en este trabajo se crea la base de datos VoicesUy, en la cual canciones populares rioplatenses son cantadas por artistas profesionales y grabadas en multipista. Los cantantes interpretan las mismas canciones de forma de poder realizar identificación de voces entre archivos donde la única diferencia es la voz. Esta base de datos permite evaluar tanto algoritmos de separación de fuentes como de clasificación de voces. El hecho de que los cantantes que participan en la grabación de la base tengan su propia discografía, permite además evaluar la incidencia de los efectos de diferentes etapas de la producción musical en la identificación de cantante. VoicesUy es la primer base de datos de música popular en castellano para identificación de cantante y separación de fuentes. Se presentan experimentos que muestran que, si bien el acompañamiento musical dificulta la identificación de cantante, un artista interpretando sus composiciones junto con su banda es más fácil de identificar que interpretando versiones. Denominamos a este comportamiento "efecto banda". Se muestra como mejora la clasificación del intérprete al utilizar técnicas de separación de fuentes. Se prueba una técnica de enmascaramiento sobre una representación tiempo-frecuencia no tradicional y se comparan los resultados utilizado representaciones clásicas como el espectrograma. Para aplicar estas técnicas se utiliza la información de la frecuencia fundamental de la voz. Los resultados de identificación de cantante obtenidos son comparables con otros trabajos de referencia. La clasificación de voces sobre VoicesUy, aplicando separación de fuentes, alcanza un acierto del 95.1 %.
2018 | |
Español | |
Universidad de la República | |
COLIBRI | |
http://hdl.handle.net/20.500.12008/20176 | |
Acceso abierto | |
Licencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND) |
_version_ | 1807522999047290880 |
---|---|
author | Massaferro Saquieres, Pablo |
author_facet | Massaferro Saquieres, Pablo |
author_role | author |
bitstream.checksum.fl_str_mv | 7f2e2c17ef6585de66da58d1bfa8b5e1 9833653f73f7853880c94a6fead477b1 4afdbb8c545fd630ea7db775da747b2f 9da0b6dfac957114c6a7714714b86306 c4e1d237598dd5e00fdc07a8db7efb40 |
bitstream.checksumAlgorithm.fl_str_mv | MD5 MD5 MD5 MD5 MD5 |
bitstream.url.fl_str_mv | http://localhost:8080/xmlui/bitstream/20.500.12008/20176/5/license.txt http://localhost:8080/xmlui/bitstream/20.500.12008/20176/2/license_text http://localhost:8080/xmlui/bitstream/20.500.12008/20176/3/license_url http://localhost:8080/xmlui/bitstream/20.500.12008/20176/4/license_rdf http://localhost:8080/xmlui/bitstream/20.500.12008/20176/1/Mas18.pdf |
collection | COLIBRI |
dc.creator.advisor.none.fl_str_mv | Rocamora, Martín Cancela, Pablo |
dc.creator.none.fl_str_mv | Massaferro Saquieres, Pablo |
dc.date.accessioned.none.fl_str_mv | 2019-02-21T20:55:40Z |
dc.date.available.none.fl_str_mv | 2019-02-21T20:55:40Z |
dc.date.issued.es.fl_str_mv | 2018 |
dc.date.submitted.es.fl_str_mv | 20190221 |
dc.description.abstract.none.fl_txt_mv | La aplicación de la tecnología digital a la producción y distribución de música ha dado lugar a una verdadera revolución, facilitando el acceso de los artistas a los estudios de grabación, y generando un crecimiento exponencial de la cantidad de registros fonográficos. Esto ha generado que los sistemas de clasificación y sugerencia, basados en herramientas de procesamiento de señales y aprendizaje automático, se hayan transformado en puntos clave en la gestión de la oferta musical. En este contexto, es de especial relevancia automatizar algunas tareas, como la identificación del cantante a partir de un archivo de audio. La voz cantada es sin duda el instrumento musical más antiguo y familiar para nuestro sistema auditivo. Además, la voz suele transmitir mucha información en la música, porque generalmente interpreta la melodía principal, trasmite la letra y contiene características expresivas. Pero varios aspectos dificultan la tarea de reconocer automáticamente al cantante, en particular, a diferencia de la identificación del hablante, el acompañamiento musical es una señal de un nivel de energía similar al de la voz y no puede ser modelado como un ruido aleatorio independiente. En este trabajo se exploran las técnicas existentes de identificación de cantantes en archivos de audio de música polifónica. Varios trabajos abordan el problema sin realizar separación de fuentes, debido a las dificultades que esto conlleva, lo que genera que los algoritmos de clasificación aprendan a reconocer al cantante junto con su acompañamiento musical. La selección de la instrumentación, efectos de audio, mezcla y masterizado juegan un rol importante en el sonido final de las canciones que integran un álbum. En trabajos previos, los efectos vinculados a estos aspectos de la producción fonográfica han sido poco explorados. Para mostrar estos efectos y poder cuantificarlos, en este trabajo se crea la base de datos VoicesUy, en la cual canciones populares rioplatenses son cantadas por artistas profesionales y grabadas en multipista. Los cantantes interpretan las mismas canciones de forma de poder realizar identificación de voces entre archivos donde la única diferencia es la voz. Esta base de datos permite evaluar tanto algoritmos de separación de fuentes como de clasificación de voces. El hecho de que los cantantes que participan en la grabación de la base tengan su propia discografía, permite además evaluar la incidencia de los efectos de diferentes etapas de la producción musical en la identificación de cantante. VoicesUy es la primer base de datos de música popular en castellano para identificación de cantante y separación de fuentes. Se presentan experimentos que muestran que, si bien el acompañamiento musical dificulta la identificación de cantante, un artista interpretando sus composiciones junto con su banda es más fácil de identificar que interpretando versiones. Denominamos a este comportamiento "efecto banda". Se muestra como mejora la clasificación del intérprete al utilizar técnicas de separación de fuentes. Se prueba una técnica de enmascaramiento sobre una representación tiempo-frecuencia no tradicional y se comparan los resultados utilizado representaciones clásicas como el espectrograma. Para aplicar estas técnicas se utiliza la información de la frecuencia fundamental de la voz. Los resultados de identificación de cantante obtenidos son comparables con otros trabajos de referencia. La clasificación de voces sobre VoicesUy, aplicando separación de fuentes, alcanza un acierto del 95.1 %. |
dc.format.mimetype.es.fl_str_mv | application/pdf |
dc.identifier.citation.es.fl_str_mv | MASSAFERRO SAQUIERES, P. "Identificación automática de cantante en música polifónica". Tesis de maestría, Universidad de la República (Uruguay). Facultad de Ingeniería, 2018. |
dc.identifier.uri.none.fl_str_mv | http://hdl.handle.net/20.500.12008/20176 |
dc.language.iso.none.fl_str_mv | es spa |
dc.publisher.es.fl_str_mv | UR. FING |
dc.rights.license.none.fl_str_mv | Licencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND) |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:COLIBRI instname:Universidad de la República instacron:Universidad de la República |
dc.title.none.fl_str_mv | Identificación automática de cantante en música polifónica |
dc.type.es.fl_str_mv | Tesis de maestría |
dc.type.none.fl_str_mv | info:eu-repo/semantics/masterThesis |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/acceptedVersion |
description | La aplicación de la tecnología digital a la producción y distribución de música ha dado lugar a una verdadera revolución, facilitando el acceso de los artistas a los estudios de grabación, y generando un crecimiento exponencial de la cantidad de registros fonográficos. Esto ha generado que los sistemas de clasificación y sugerencia, basados en herramientas de procesamiento de señales y aprendizaje automático, se hayan transformado en puntos clave en la gestión de la oferta musical. En este contexto, es de especial relevancia automatizar algunas tareas, como la identificación del cantante a partir de un archivo de audio. La voz cantada es sin duda el instrumento musical más antiguo y familiar para nuestro sistema auditivo. Además, la voz suele transmitir mucha información en la música, porque generalmente interpreta la melodía principal, trasmite la letra y contiene características expresivas. Pero varios aspectos dificultan la tarea de reconocer automáticamente al cantante, en particular, a diferencia de la identificación del hablante, el acompañamiento musical es una señal de un nivel de energía similar al de la voz y no puede ser modelado como un ruido aleatorio independiente. En este trabajo se exploran las técnicas existentes de identificación de cantantes en archivos de audio de música polifónica. Varios trabajos abordan el problema sin realizar separación de fuentes, debido a las dificultades que esto conlleva, lo que genera que los algoritmos de clasificación aprendan a reconocer al cantante junto con su acompañamiento musical. La selección de la instrumentación, efectos de audio, mezcla y masterizado juegan un rol importante en el sonido final de las canciones que integran un álbum. En trabajos previos, los efectos vinculados a estos aspectos de la producción fonográfica han sido poco explorados. Para mostrar estos efectos y poder cuantificarlos, en este trabajo se crea la base de datos VoicesUy, en la cual canciones populares rioplatenses son cantadas por artistas profesionales y grabadas en multipista. Los cantantes interpretan las mismas canciones de forma de poder realizar identificación de voces entre archivos donde la única diferencia es la voz. Esta base de datos permite evaluar tanto algoritmos de separación de fuentes como de clasificación de voces. El hecho de que los cantantes que participan en la grabación de la base tengan su propia discografía, permite además evaluar la incidencia de los efectos de diferentes etapas de la producción musical en la identificación de cantante. VoicesUy es la primer base de datos de música popular en castellano para identificación de cantante y separación de fuentes. Se presentan experimentos que muestran que, si bien el acompañamiento musical dificulta la identificación de cantante, un artista interpretando sus composiciones junto con su banda es más fácil de identificar que interpretando versiones. Denominamos a este comportamiento "efecto banda". Se muestra como mejora la clasificación del intérprete al utilizar técnicas de separación de fuentes. Se prueba una técnica de enmascaramiento sobre una representación tiempo-frecuencia no tradicional y se comparan los resultados utilizado representaciones clásicas como el espectrograma. Para aplicar estas técnicas se utiliza la información de la frecuencia fundamental de la voz. Los resultados de identificación de cantante obtenidos son comparables con otros trabajos de referencia. La clasificación de voces sobre VoicesUy, aplicando separación de fuentes, alcanza un acierto del 95.1 %. |
eu_rights_str_mv | openAccess |
format | masterThesis |
id | COLIBRI_fc34f8d8ccdc42e0b317a92681c86aec |
identifier_str_mv | MASSAFERRO SAQUIERES, P. "Identificación automática de cantante en música polifónica". Tesis de maestría, Universidad de la República (Uruguay). Facultad de Ingeniería, 2018. |
instacron_str | Universidad de la República |
institution | Universidad de la República |
instname_str | Universidad de la República |
language | spa |
language_invalid_str_mv | es |
network_acronym_str | COLIBRI |
network_name_str | COLIBRI |
oai_identifier_str | oai:colibri.udelar.edu.uy:20.500.12008/20176 |
publishDate | 2018 |
reponame_str | COLIBRI |
repository.mail.fl_str_mv | mabel.seroubian@seciu.edu.uy |
repository.name.fl_str_mv | COLIBRI - Universidad de la República |
repository_id_str | 4771 |
rights_invalid_str_mv | Licencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND) |
spelling | 2019-02-21T20:55:40Z2019-02-21T20:55:40Z201820190221MASSAFERRO SAQUIERES, P. "Identificación automática de cantante en música polifónica". Tesis de maestría, Universidad de la República (Uruguay). Facultad de Ingeniería, 2018.http://hdl.handle.net/20.500.12008/20176La aplicación de la tecnología digital a la producción y distribución de música ha dado lugar a una verdadera revolución, facilitando el acceso de los artistas a los estudios de grabación, y generando un crecimiento exponencial de la cantidad de registros fonográficos. Esto ha generado que los sistemas de clasificación y sugerencia, basados en herramientas de procesamiento de señales y aprendizaje automático, se hayan transformado en puntos clave en la gestión de la oferta musical. En este contexto, es de especial relevancia automatizar algunas tareas, como la identificación del cantante a partir de un archivo de audio. La voz cantada es sin duda el instrumento musical más antiguo y familiar para nuestro sistema auditivo. Además, la voz suele transmitir mucha información en la música, porque generalmente interpreta la melodía principal, trasmite la letra y contiene características expresivas. Pero varios aspectos dificultan la tarea de reconocer automáticamente al cantante, en particular, a diferencia de la identificación del hablante, el acompañamiento musical es una señal de un nivel de energía similar al de la voz y no puede ser modelado como un ruido aleatorio independiente. En este trabajo se exploran las técnicas existentes de identificación de cantantes en archivos de audio de música polifónica. Varios trabajos abordan el problema sin realizar separación de fuentes, debido a las dificultades que esto conlleva, lo que genera que los algoritmos de clasificación aprendan a reconocer al cantante junto con su acompañamiento musical. La selección de la instrumentación, efectos de audio, mezcla y masterizado juegan un rol importante en el sonido final de las canciones que integran un álbum. En trabajos previos, los efectos vinculados a estos aspectos de la producción fonográfica han sido poco explorados. Para mostrar estos efectos y poder cuantificarlos, en este trabajo se crea la base de datos VoicesUy, en la cual canciones populares rioplatenses son cantadas por artistas profesionales y grabadas en multipista. Los cantantes interpretan las mismas canciones de forma de poder realizar identificación de voces entre archivos donde la única diferencia es la voz. Esta base de datos permite evaluar tanto algoritmos de separación de fuentes como de clasificación de voces. El hecho de que los cantantes que participan en la grabación de la base tengan su propia discografía, permite además evaluar la incidencia de los efectos de diferentes etapas de la producción musical en la identificación de cantante. VoicesUy es la primer base de datos de música popular en castellano para identificación de cantante y separación de fuentes. Se presentan experimentos que muestran que, si bien el acompañamiento musical dificulta la identificación de cantante, un artista interpretando sus composiciones junto con su banda es más fácil de identificar que interpretando versiones. Denominamos a este comportamiento "efecto banda". Se muestra como mejora la clasificación del intérprete al utilizar técnicas de separación de fuentes. Se prueba una técnica de enmascaramiento sobre una representación tiempo-frecuencia no tradicional y se comparan los resultados utilizado representaciones clásicas como el espectrograma. Para aplicar estas técnicas se utiliza la información de la frecuencia fundamental de la voz. Los resultados de identificación de cantante obtenidos son comparables con otros trabajos de referencia. La clasificación de voces sobre VoicesUy, aplicando separación de fuentes, alcanza un acierto del 95.1 %.Made available in DSpace on 2019-02-21T20:55:40Z (GMT). No. of bitstreams: 5 Mas18.pdf: 4533919 bytes, checksum: c4e1d237598dd5e00fdc07a8db7efb40 (MD5) license_text: 21936 bytes, checksum: 9833653f73f7853880c94a6fead477b1 (MD5) license_url: 49 bytes, checksum: 4afdbb8c545fd630ea7db775da747b2f (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) license.txt: 4194 bytes, checksum: 7f2e2c17ef6585de66da58d1bfa8b5e1 (MD5) Previous issue date: 2018application/pdfesspaUR. FINGLas obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad De La República. (Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND)Identificación automática de cantante en música polifónicaTesis de maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaMassaferro Saquieres, PabloRocamora, MartínCancela, PabloUniversidad de la República (Uruguay). Facultad de IngenieríaMagíster en Ingeniería EléctricaProcesamiento de SeñalesProcesamiento de AudioLICENSElicense.txttext/plain4194http://localhost:8080/xmlui/bitstream/20.500.12008/20176/5/license.txt7f2e2c17ef6585de66da58d1bfa8b5e1MD55CC-LICENSElicense_textapplication/octet-stream21936http://localhost:8080/xmlui/bitstream/20.500.12008/20176/2/license_text9833653f73f7853880c94a6fead477b1MD52license_urlapplication/octet-stream49http://localhost:8080/xmlui/bitstream/20.500.12008/20176/3/license_url4afdbb8c545fd630ea7db775da747b2fMD53license_rdfapplication/octet-stream23148http://localhost:8080/xmlui/bitstream/20.500.12008/20176/4/license_rdf9da0b6dfac957114c6a7714714b86306MD54ORIGINALMas18.pdfapplication/pdf4533919http://localhost:8080/xmlui/bitstream/20.500.12008/20176/1/Mas18.pdfc4e1d237598dd5e00fdc07a8db7efb40MD5120.500.12008/201762024-07-29 17:24:09.918oai:colibri.udelar.edu.uy:20.500.12008/20176VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDvv71ibGljYS4gKFJlcy4gTu+/vSA5MSBkZSBDLkQuQy4gZGUgOC9JSUkvMTk5NCDvv70gRC5PLiA3L0lWLzE5OTQpIHkgIHBvciBsYSBPcmRlbmFuemEgZGVsIFJlcG9zaXRvcmlvIEFiaWVydG8gZGUgbGEgVW5pdmVyc2lkYWQgZGUgbGEgUmVw77+9YmxpY2EgKFJlcy4gTu+/vSAxNiBkZSBDLkQuQy4gZGUgMDcvMTAvMjAxNCkuIAoKQWNlcHRhbmRvIGVsIGF1dG9yIGVzdG9zIHTvv71ybWlub3MgeSBjb25kaWNpb25lcyBkZSBkZXDvv71zaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcO+/vWJsaWNhIHByb2NlZGVy77+9IGE6ICAKCmEpIGFyY2hpdmFyIG3vv71zIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nvv71uCmIpIGNvbnZlcnRpciBsYSBvYnJhIGEgb3Ryb3MgZm9ybWF0b3Mgc2kgZnVlcmEgbmVjZXNhcmlvICBwYXJhIGZhY2lsaXRhciBzdSBwcmVzZXJ2YWNp77+9biB5IGFjY2VzaWJpbGlkYWQgc2luIGFsdGVyYXIgc3UgY29udGVuaWRvLgpjKSByZWFsaXphciBsYSBjb211bmljYWNp77+9biBw77+9YmxpY2EgeSBkaXNwb25lciBlbCBhY2Nlc28gbGlicmUgeSBncmF0dWl0byBhIHRyYXbvv71zIGRlIEludGVybmV0IG1lZGlhbnRlIGxhIHB1YmxpY2Fjae+/vW4gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcu+/vSBzb2xpY2l0YXIgdW4gcGVy77+9b2RvIGRlIGVtYmFyZ28gc29icmUgbGEgZGlzcG9uaWJpbGlkYWQgcO+/vWJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFy77+9IGEgcGFydGlyIGRlIGxhIGFjZXB0YWNp77+9biBkZSBlc3RlIGRvY3VtZW50byB5IGhhc3RhIGxhIGZlY2hhIHF1ZSBpbmRpcXVlIC4KCkVsIGF1dG9yIGFzZWd1cmEgcXVlIGxhIG9icmEgbm8gaW5mcmlnZSBuaW5n77+9biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdO+/vSBjbGFyYW1lbnRlIGlkZW50aWZpY2FkbyB5IHJlY29ub2NpZG8gZW4gZWwgdGV4dG8gbyBjb250ZW5pZG8gZGVsIGRvY3VtZW50byBkZXBvc2l0YWRvIGVuIGVsIFJlcG9zaXRvcmlvLgoKRW4gb2JyYXMgZGUgYXV0b3Lvv71hIG3vv71sdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDvv71zdGUgZWwg77+9bmljbyByZXNwb25zYWJsZSBmcmVudGUgYSBjdWFscXVpZXIgdGlwbyBkZSByZWNsYW1hY2nvv71uIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLvv70gcmVzcG9uc2FibGUgZGVsIGNvbnRlbmlkbyBkZSBsb3MgZG9jdW1lbnRvcyBxdWUgZGVwb3NpdGEuIExhIFVERUxBUiBubyBzZXLvv70gcmVzcG9uc2FibGUgcG9yIGxhcyBldmVudHVhbGVzIHZpb2xhY2lvbmVzIGFsIGRlcmVjaG8gZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIGVuIHF1ZSBwdWVkYSBpbmN1cnJpciBlbCBhdXRvci4KCkFudGUgY3VhbHF1aWVyIGRlbnVuY2lhIGRlIHZpb2xhY2nvv71uIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFy77+9IHRvZGFzIGxhcyBtZWRpZGFzIG5lY2VzYXJpYXMgcGFyYSBldml0YXIgbGEgY29udGludWFjae+/vW4gZGUgZGljaGEgaW5mcmFjY2nvv71uLCBsYXMgcXVlIHBvZHLvv71uIGluY2x1aXIgZWwgcmV0aXJvIGRlbCBhY2Nlc28gYSBsb3MgY29udGVuaWRvcyB5L28gbWV0YWRhdG9zIGRlbCBkb2N1bWVudG8gcmVzcGVjdGl2by4KCkxhIG9icmEgc2UgcG9uZHLvv70gYSBkaXNwb3NpY2nvv71uIGRlbCBw77+9YmxpY28gYSB0cmF277+9cyBkZSBsYXMgbGljZW5jaWFzIENyZWF0aXZlIENvbW1vbnMsIGVsIGF1dG9yIHBvZHLvv70gc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjae+/vW4gKENDIC0gQnkpOiBQZXJtaXRlIHVzYXIgbGEgb2JyYSB5IGdlbmVyYXIgb2JyYXMgZGVyaXZhZGFzLCBpbmNsdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgc2llbXByZSBxdWUgc2UgcmVjb25vemNhIGFsIGF1dG9yLgoKQXRyaWJ1Y2nvv71uIO+/vSBDb21wYXJ0aXIgSWd1YWwgKENDIC0gQnktU0EpOiBQZXJtaXRlIHVzYXIgbGEgb2JyYSB5IGdlbmVyYXIgb2JyYXMgZGVyaXZhZGFzLCBpbmNsdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgcGVybyBsYSBkaXN0cmlidWNp77+9biBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTvv71udGljYSBhIGxhIGRlIGxhIG9icmEgb3JpZ2luYWwsIHJlY29ub2NpZW5kbyBhIGxvcyBhdXRvcmVzLgoKQXRyaWJ1Y2nvv71uIO+/vSBObyBDb21lcmNpYWwgKENDIC0gQnktTkMpOiBQZXJtaXRlIHVzYXIgbGEgb2JyYSB5IGdlbmVyYXIgb2JyYXMgZGVyaXZhZGFzLCBzaWVtcHJlIHkgY3VhbmRvIGVzb3MgdXNvcyBubyB0ZW5nYW4gZmluZXMgY29tZXJjaWFsZXMsIHJlY29ub2NpZW5kbyBhbCBhdXRvci4KCkF0cmlidWNp77+9biDvv70gU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNp77+9biDvv70gTm8gQ29tZXJjaWFsIO+/vSBDb21wYXJ0aXIgSWd1YWwgKENDIO+/vSBCeS1OQy1TQSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIHNpZW1wcmUgeSBjdWFuZG8gZXNvcyB1c29zIG5vIHRlbmdhbiBmaW5lcyBjb21lcmNpYWxlcyB5IGxhIGRpc3RyaWJ1Y2nvv71uIGRlIGxhcyBvYnJhcyBkZXJpdmFkYXMgc2UgaGFnYSBtZWRpYW50ZSBsaWNlbmNpYSBpZO+/vW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjae+/vW4g77+9IE5vIENvbWVyY2lhbCDvv70gU2luIERlcml2YWRhcyAoQ0MgLSBCeS1OQy1ORCk6IFBlcm1pdGUgdXNhciBsYSBvYnJhLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMgeSBubyBzZSBwZXJtaXRlIHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkxvcyB1c29zIHByZXZpc3RvcyBlbiBsYXMgbGljZW5jaWFzIGluY2x1eWVuIGxhIGVuYWplbmFjae+/vW4sIHJlcHJvZHVjY2nvv71uLCBjb211bmljYWNp77+9biwgcHVibGljYWNp77+9biwgZGlzdHJpYnVjae+/vW4geSBwdWVzdGEgYSBkaXNwb3NpY2nvv71uIGRlbCBw77+9YmxpY28uIExhIGNyZWFjae+/vW4gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nvv71uLCB0cmFkdWNjae+/vW4geSBlbCByZW1peC4KCkN1YW5kbyBzZSBzZWxlY2Npb25lIHVuYSBsaWNlbmNpYSBxdWUgaGFiaWxpdGUgdXNvcyBjb21lcmNpYWxlcywgZWwgZGVw77+9c2l0byBkZWJlcu+/vSBzZXIgYWNvbXBh77+9YWRvIGRlbCBhdmFsIGRlbCBqZXJhcmNhIG3vv714aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCgoKCgoKCgoKUniversidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-08-13T03:01:05.866591COLIBRI - Universidad de la Repúblicafalse |
spellingShingle | Identificación automática de cantante en música polifónica Massaferro Saquieres, Pablo |
status_str | acceptedVersion |
title | Identificación automática de cantante en música polifónica |
title_full | Identificación automática de cantante en música polifónica |
title_fullStr | Identificación automática de cantante en música polifónica |
title_full_unstemmed | Identificación automática de cantante en música polifónica |
title_short | Identificación automática de cantante en música polifónica |
title_sort | Identificación automática de cantante en música polifónica |
url | http://hdl.handle.net/20.500.12008/20176 |