Detección de antonimia en español con redes neuronales parasiamesas

Camacho, Juan - Cámera, Juan

Supervisor(es): Etcheverry, Mathias

Resumen:

La discriminación entre antónimos y sinónimos (ASD) es una tarea del área de PLN que consiste en determinar si un par de palabras es antónimos o sinónimos entre si. Esta tarea puede presentar una gran complejidad a la hora de realizarse de manera automática, ya que una palabra y su antónimo suelen aparecer en contextos similares, lo que por ejemplo, podrá derivar en errores en un sistema de implicancia textual. Este problema ha sido abordado en varios trabajos en los cuales se plantearon diferentes modelos para resolver el problema. Estos trabajos han sido enfocados principalmente para el idioma inglés, no existiendo, según nuestras investigaciones, un trabajo que aborde el problema para el español, así como tampoco la existencia de un dataset para ASD que sea en español. A partir de esto se plantea como objetivo abordar el problema en nuestro idioma mediante la creación de un dataset y la evaluación del modelo Parasiamesa presentado en Etcheverry and Wonsever (2019) utilizando el dataset creado. El dataset fue generado mediante la consulta WordNet en español (Fernández- Montraveta et al., 2008) y tres diccionarios web. De cada una de las fuentes se extrajeron palabras con sus sinónimos y antónimos generando tuplas por cada una de ellas. Posteriormente se realizó un análisis de calidad del mismo la cual consistió en realizar una anotación manual de 200 tuplas. Se evaluó la concordancia entre anotadores obteniendo un valor 0.899 de la medida Kappa de Cohen (1960) así como la accuracy entre los anotadores y el dataset obteniendo valores de 0.9. Utilizando las tuplas se dataset se analizó las relaciones de antonimia y sinonimia generando el grafo de las relaciones, en donde se vio que los grafos poseen una gran componente conexa conteniendo la mayoría de las palabras, lo que indica una gran conectividad con la existencia de camino entre la mayoría de las palabras. El particionamiento del dataset en entrenamiento, validación y test se realizó de tres maneras distintas, donde dos de ellas poseen separación léxica entre los conjuntos. En partición sin separación léxica se utilizó un particionamiento aleatorio estratificado, mientras que para las particiones con separación léxica se utilizó un algoritmo basado en el presentado en Shwartz et al. (2016) y un algoritmo diseñado a partir de las características observadas al analizar los grafos de las relaciones. Adicionalmente se realizó la simetrización de las tuplas de los conjuntos obteniendo dos variantes para cada uno. Para la evaluación de la red Parasiamesa se realizó nuestra propia implementación del modelo así como la implementación de dos modelos mas a ser comparados. Estos modelos son una red neuronal de tipo feed-fordward completamente conectado y una red Siamesa. Para cada combinación de particionamiento y modelo se realizo un Random Search para buscar los hiperparámetros que mejor desempeño den a los modelos. Finalmente se utilizaron los mejores modelos encontrados y se evaluaron utilizando los conjuntos de test. Utilizando la medida F1 pudo observarse que el modelo Parasiamesa en su versión preentrenada fue el modelo que obtuvo el mejor desempeño en la mayoría de los particionamientos obteniendo una medida F1 de hasta 0.9 para el particionamiento Random.


Detalles Bibliográficos
2022
Procesamiento del lenguaje natural
Redes neuronales parasiamesas
Detección de antonimia y sinonimia en español
Español
Universidad de la República
COLIBRI
https://hdl.handle.net/20.500.12008/34636
Acceso abierto
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
_version_ 1807523228849012736
author Camacho, Juan
author2 Cámera, Juan
author2_role author
author_facet Camacho, Juan
Cámera, Juan
author_role author
bitstream.checksum.fl_str_mv 6429389a7df7277b72b7924fdc7d47a9
a006180e3f5b2ad0b88185d14284c0e0
36c32e9c6da50e6d55578c16944ef7f6
1996b8461bc290aef6a27d78c67b6b52
925c76929ffec0af6c06482f40681d5c
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
bitstream.url.fl_str_mv http://localhost:8080/xmlui/bitstream/20.500.12008/34636/5/license.txt
http://localhost:8080/xmlui/bitstream/20.500.12008/34636/2/license_url
http://localhost:8080/xmlui/bitstream/20.500.12008/34636/3/license_text
http://localhost:8080/xmlui/bitstream/20.500.12008/34636/4/license_rdf
http://localhost:8080/xmlui/bitstream/20.500.12008/34636/1/CC22.pdf
collection COLIBRI
dc.contributor.filiacion.none.fl_str_mv Camacho Juan, Universidad de la República (Uruguay). Facultad de Ingeniería
Cámera Juan, Universidad de la República (Uruguay). Facultad de Ingeniería
dc.creator.advisor.none.fl_str_mv Etcheverry, Mathias
dc.creator.none.fl_str_mv Camacho, Juan
Cámera, Juan
dc.date.accessioned.none.fl_str_mv 2022-11-08T15:25:25Z
dc.date.available.none.fl_str_mv 2022-11-08T15:25:25Z
dc.date.issued.none.fl_str_mv 2022
dc.description.abstract.none.fl_txt_mv La discriminación entre antónimos y sinónimos (ASD) es una tarea del área de PLN que consiste en determinar si un par de palabras es antónimos o sinónimos entre si. Esta tarea puede presentar una gran complejidad a la hora de realizarse de manera automática, ya que una palabra y su antónimo suelen aparecer en contextos similares, lo que por ejemplo, podrá derivar en errores en un sistema de implicancia textual. Este problema ha sido abordado en varios trabajos en los cuales se plantearon diferentes modelos para resolver el problema. Estos trabajos han sido enfocados principalmente para el idioma inglés, no existiendo, según nuestras investigaciones, un trabajo que aborde el problema para el español, así como tampoco la existencia de un dataset para ASD que sea en español. A partir de esto se plantea como objetivo abordar el problema en nuestro idioma mediante la creación de un dataset y la evaluación del modelo Parasiamesa presentado en Etcheverry and Wonsever (2019) utilizando el dataset creado. El dataset fue generado mediante la consulta WordNet en español (Fernández- Montraveta et al., 2008) y tres diccionarios web. De cada una de las fuentes se extrajeron palabras con sus sinónimos y antónimos generando tuplas por cada una de ellas. Posteriormente se realizó un análisis de calidad del mismo la cual consistió en realizar una anotación manual de 200 tuplas. Se evaluó la concordancia entre anotadores obteniendo un valor 0.899 de la medida Kappa de Cohen (1960) así como la accuracy entre los anotadores y el dataset obteniendo valores de 0.9. Utilizando las tuplas se dataset se analizó las relaciones de antonimia y sinonimia generando el grafo de las relaciones, en donde se vio que los grafos poseen una gran componente conexa conteniendo la mayoría de las palabras, lo que indica una gran conectividad con la existencia de camino entre la mayoría de las palabras. El particionamiento del dataset en entrenamiento, validación y test se realizó de tres maneras distintas, donde dos de ellas poseen separación léxica entre los conjuntos. En partición sin separación léxica se utilizó un particionamiento aleatorio estratificado, mientras que para las particiones con separación léxica se utilizó un algoritmo basado en el presentado en Shwartz et al. (2016) y un algoritmo diseñado a partir de las características observadas al analizar los grafos de las relaciones. Adicionalmente se realizó la simetrización de las tuplas de los conjuntos obteniendo dos variantes para cada uno. Para la evaluación de la red Parasiamesa se realizó nuestra propia implementación del modelo así como la implementación de dos modelos mas a ser comparados. Estos modelos son una red neuronal de tipo feed-fordward completamente conectado y una red Siamesa. Para cada combinación de particionamiento y modelo se realizo un Random Search para buscar los hiperparámetros que mejor desempeño den a los modelos. Finalmente se utilizaron los mejores modelos encontrados y se evaluaron utilizando los conjuntos de test. Utilizando la medida F1 pudo observarse que el modelo Parasiamesa en su versión preentrenada fue el modelo que obtuvo el mejor desempeño en la mayoría de los particionamientos obteniendo una medida F1 de hasta 0.9 para el particionamiento Random.
dc.format.extent.es.fl_str_mv 70 p.
dc.format.mimetype.es.fl_str_mv application/pdf
dc.identifier.citation.es.fl_str_mv Camacho, J. y Cámera, J. Detección de antonimia en español con redes neuronales parasiamesas [en línea] Tesis de grado. Montevideo : Udelar. FI. INCO, 2022.
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12008/34636
dc.language.iso.none.fl_str_mv es
spa
dc.publisher.es.fl_str_mv Udelar.FI
dc.rights.license.none.fl_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:COLIBRI
instname:Universidad de la República
instacron:Universidad de la República
dc.subject.es.fl_str_mv Procesamiento del lenguaje natural
Redes neuronales parasiamesas
Detección de antonimia y sinonimia en español
dc.title.none.fl_str_mv Detección de antonimia en español con redes neuronales parasiamesas
dc.type.es.fl_str_mv Tesis de grado
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
description La discriminación entre antónimos y sinónimos (ASD) es una tarea del área de PLN que consiste en determinar si un par de palabras es antónimos o sinónimos entre si. Esta tarea puede presentar una gran complejidad a la hora de realizarse de manera automática, ya que una palabra y su antónimo suelen aparecer en contextos similares, lo que por ejemplo, podrá derivar en errores en un sistema de implicancia textual. Este problema ha sido abordado en varios trabajos en los cuales se plantearon diferentes modelos para resolver el problema. Estos trabajos han sido enfocados principalmente para el idioma inglés, no existiendo, según nuestras investigaciones, un trabajo que aborde el problema para el español, así como tampoco la existencia de un dataset para ASD que sea en español. A partir de esto se plantea como objetivo abordar el problema en nuestro idioma mediante la creación de un dataset y la evaluación del modelo Parasiamesa presentado en Etcheverry and Wonsever (2019) utilizando el dataset creado. El dataset fue generado mediante la consulta WordNet en español (Fernández- Montraveta et al., 2008) y tres diccionarios web. De cada una de las fuentes se extrajeron palabras con sus sinónimos y antónimos generando tuplas por cada una de ellas. Posteriormente se realizó un análisis de calidad del mismo la cual consistió en realizar una anotación manual de 200 tuplas. Se evaluó la concordancia entre anotadores obteniendo un valor 0.899 de la medida Kappa de Cohen (1960) así como la accuracy entre los anotadores y el dataset obteniendo valores de 0.9. Utilizando las tuplas se dataset se analizó las relaciones de antonimia y sinonimia generando el grafo de las relaciones, en donde se vio que los grafos poseen una gran componente conexa conteniendo la mayoría de las palabras, lo que indica una gran conectividad con la existencia de camino entre la mayoría de las palabras. El particionamiento del dataset en entrenamiento, validación y test se realizó de tres maneras distintas, donde dos de ellas poseen separación léxica entre los conjuntos. En partición sin separación léxica se utilizó un particionamiento aleatorio estratificado, mientras que para las particiones con separación léxica se utilizó un algoritmo basado en el presentado en Shwartz et al. (2016) y un algoritmo diseñado a partir de las características observadas al analizar los grafos de las relaciones. Adicionalmente se realizó la simetrización de las tuplas de los conjuntos obteniendo dos variantes para cada uno. Para la evaluación de la red Parasiamesa se realizó nuestra propia implementación del modelo así como la implementación de dos modelos mas a ser comparados. Estos modelos son una red neuronal de tipo feed-fordward completamente conectado y una red Siamesa. Para cada combinación de particionamiento y modelo se realizo un Random Search para buscar los hiperparámetros que mejor desempeño den a los modelos. Finalmente se utilizaron los mejores modelos encontrados y se evaluaron utilizando los conjuntos de test. Utilizando la medida F1 pudo observarse que el modelo Parasiamesa en su versión preentrenada fue el modelo que obtuvo el mejor desempeño en la mayoría de los particionamientos obteniendo una medida F1 de hasta 0.9 para el particionamiento Random.
eu_rights_str_mv openAccess
format bachelorThesis
id COLIBRI_5740f75e446e8904d372230e9d565328
identifier_str_mv Camacho, J. y Cámera, J. Detección de antonimia en español con redes neuronales parasiamesas [en línea] Tesis de grado. Montevideo : Udelar. FI. INCO, 2022.
instacron_str Universidad de la República
institution Universidad de la República
instname_str Universidad de la República
language spa
language_invalid_str_mv es
network_acronym_str COLIBRI
network_name_str COLIBRI
oai_identifier_str oai:colibri.udelar.edu.uy:20.500.12008/34636
publishDate 2022
reponame_str COLIBRI
repository.mail.fl_str_mv mabel.seroubian@seciu.edu.uy
repository.name.fl_str_mv COLIBRI - Universidad de la República
repository_id_str 4771
rights_invalid_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
spelling Camacho Juan, Universidad de la República (Uruguay). Facultad de IngenieríaCámera Juan, Universidad de la República (Uruguay). Facultad de Ingeniería2022-11-08T15:25:25Z2022-11-08T15:25:25Z2022Camacho, J. y Cámera, J. Detección de antonimia en español con redes neuronales parasiamesas [en línea] Tesis de grado. Montevideo : Udelar. FI. INCO, 2022.https://hdl.handle.net/20.500.12008/34636La discriminación entre antónimos y sinónimos (ASD) es una tarea del área de PLN que consiste en determinar si un par de palabras es antónimos o sinónimos entre si. Esta tarea puede presentar una gran complejidad a la hora de realizarse de manera automática, ya que una palabra y su antónimo suelen aparecer en contextos similares, lo que por ejemplo, podrá derivar en errores en un sistema de implicancia textual. Este problema ha sido abordado en varios trabajos en los cuales se plantearon diferentes modelos para resolver el problema. Estos trabajos han sido enfocados principalmente para el idioma inglés, no existiendo, según nuestras investigaciones, un trabajo que aborde el problema para el español, así como tampoco la existencia de un dataset para ASD que sea en español. A partir de esto se plantea como objetivo abordar el problema en nuestro idioma mediante la creación de un dataset y la evaluación del modelo Parasiamesa presentado en Etcheverry and Wonsever (2019) utilizando el dataset creado. El dataset fue generado mediante la consulta WordNet en español (Fernández- Montraveta et al., 2008) y tres diccionarios web. De cada una de las fuentes se extrajeron palabras con sus sinónimos y antónimos generando tuplas por cada una de ellas. Posteriormente se realizó un análisis de calidad del mismo la cual consistió en realizar una anotación manual de 200 tuplas. Se evaluó la concordancia entre anotadores obteniendo un valor 0.899 de la medida Kappa de Cohen (1960) así como la accuracy entre los anotadores y el dataset obteniendo valores de 0.9. Utilizando las tuplas se dataset se analizó las relaciones de antonimia y sinonimia generando el grafo de las relaciones, en donde se vio que los grafos poseen una gran componente conexa conteniendo la mayoría de las palabras, lo que indica una gran conectividad con la existencia de camino entre la mayoría de las palabras. El particionamiento del dataset en entrenamiento, validación y test se realizó de tres maneras distintas, donde dos de ellas poseen separación léxica entre los conjuntos. En partición sin separación léxica se utilizó un particionamiento aleatorio estratificado, mientras que para las particiones con separación léxica se utilizó un algoritmo basado en el presentado en Shwartz et al. (2016) y un algoritmo diseñado a partir de las características observadas al analizar los grafos de las relaciones. Adicionalmente se realizó la simetrización de las tuplas de los conjuntos obteniendo dos variantes para cada uno. Para la evaluación de la red Parasiamesa se realizó nuestra propia implementación del modelo así como la implementación de dos modelos mas a ser comparados. Estos modelos son una red neuronal de tipo feed-fordward completamente conectado y una red Siamesa. Para cada combinación de particionamiento y modelo se realizo un Random Search para buscar los hiperparámetros que mejor desempeño den a los modelos. Finalmente se utilizaron los mejores modelos encontrados y se evaluaron utilizando los conjuntos de test. Utilizando la medida F1 pudo observarse que el modelo Parasiamesa en su versión preentrenada fue el modelo que obtuvo el mejor desempeño en la mayoría de los particionamientos obteniendo una medida F1 de hasta 0.9 para el particionamiento Random.Submitted by Cabrera Gabriela (gfcabrerarossi@gmail.com) on 2022-11-08T13:13:22Z No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) CC22.pdf: 2776495 bytes, checksum: 925c76929ffec0af6c06482f40681d5c (MD5)Approved for entry into archive by Machado Jimena (jmachado@fing.edu.uy) on 2022-11-08T15:23:47Z (GMT) No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) CC22.pdf: 2776495 bytes, checksum: 925c76929ffec0af6c06482f40681d5c (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2022-11-08T15:25:25Z (GMT). No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) CC22.pdf: 2776495 bytes, checksum: 925c76929ffec0af6c06482f40681d5c (MD5) Previous issue date: 202270 p.application/pdfesspaUdelar.FILas obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Procesamiento del lenguaje naturalRedes neuronales parasiamesasDetección de antonimia y sinonimia en españolDetección de antonimia en español con redes neuronales parasiamesasTesis de gradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaCamacho, JuanCámera, JuanEtcheverry, MathiasUniversidad de la República (Uruguay). Facultad de IngenieríaIngeniero en ComputaciónLICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/34636/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/34636/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-838616http://localhost:8080/xmlui/bitstream/20.500.12008/34636/3/license_text36c32e9c6da50e6d55578c16944ef7f6MD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-823149http://localhost:8080/xmlui/bitstream/20.500.12008/34636/4/license_rdf1996b8461bc290aef6a27d78c67b6b52MD54ORIGINALCC22.pdfCC22.pdfapplication/pdf2776495http://localhost:8080/xmlui/bitstream/20.500.12008/34636/1/CC22.pdf925c76929ffec0af6c06482f40681d5cMD5120.500.12008/346362024-04-12 14:06:40.883oai:colibri.udelar.edu.uy:20.500.12008/34636VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:46:27.127270COLIBRI - Universidad de la Repúblicafalse
spellingShingle Detección de antonimia en español con redes neuronales parasiamesas
Camacho, Juan
Procesamiento del lenguaje natural
Redes neuronales parasiamesas
Detección de antonimia y sinonimia en español
status_str acceptedVersion
title Detección de antonimia en español con redes neuronales parasiamesas
title_full Detección de antonimia en español con redes neuronales parasiamesas
title_fullStr Detección de antonimia en español con redes neuronales parasiamesas
title_full_unstemmed Detección de antonimia en español con redes neuronales parasiamesas
title_short Detección de antonimia en español con redes neuronales parasiamesas
title_sort Detección de antonimia en español con redes neuronales parasiamesas
topic Procesamiento del lenguaje natural
Redes neuronales parasiamesas
Detección de antonimia y sinonimia en español
url https://hdl.handle.net/20.500.12008/34636