PredGenIA : Transformers para Predicción Genómica.

Castro, Graciana - Hoffman, Romina - Musitelli, Mateo

Supervisor(es): Fariello, María Inés - Lecumberry, Federico

Resumen:

Se define el genotipo como la descripción del material físico real conformado por el ADN de un organismo y el fenotipo como cualquier característica observable del organismo (Rival, et al.). La predicción genómica busca predecir un determinado fenotipo de un individuo a partir del genotipo. Para eso, se cuenta con una base de datos genotípicos a los que se les asocia el fenotipo a predecir. Al ser los datos genotípicos una secuencia de letras, se puede tomar cada secuencia como si fuera un enunciado y las bases que lo componen (adenina (A), timina (T), citosina (C) y guanina (G)) las palabras que lo forman. Debido al reciente auge de las redes neuronales bidireccionales para el trabajo en Procesamiento de Lenguaje Natural (“Natural Languaje Processing”, NLP), surge la interrogante de si estos algoritmos, como las redes neuronales, redes neuronales recurrentes o Transformers, son igualmente eficientes en dominios que comparten similitudes en términos de estructuras de datos. En este proyecto, se plantea el objetivo de entrenar un modelo para predicción genómica basado en Transformers. Se toma como secuencia de entrada el genotipo de individuos de una especie haploide para comparar su desempeño con el de los modelos más utilizados en esta área, haciendo énfasis en comprender el funcionamiento del modelo. ¿Obtiene el modelo mejores resultados que los modelos ya existentes? Además, ¿es capaz de identificar las porciones importantes de esta secuencia, para realizar la predicción deseada? Para esta investigación se realizó un estudio del algoritmo Transformers, su funcionamiento y aplicaciones en el campo del NLP. Comprendido esto, se procedió a realizar el análisis de cómo adaptar un algoritmo de Transformers para su funcionamiento con datos genómicos de levadura con el objetivo de predecir el crecimiento de los individuos en distintos ambientes. Se estudió el modelo GPTransformers, propuesto por Jubair et al., 2021, en el cual se propone una estructura de Transformers basada solamente en el Encoder, debido a que para la predicción de un fenotipo es necesario contar con el conocimiento de la estructura local del ADN, la cual es determinada por este módulo. Se realizó el preprocesamiento de la base de datos de levadura, búsqueda de hiperparámetros óptimos y entrenamiento del modelo realizando validación cruzada. Se simularon dos fenotipos (lineal y nolinealmente) a partir de los genotipos que componen la base de datos, con los que se buscó evaluar cómo funciona el modelo con este tipo de datos. Luego se entrenaron modelos para realizar predicciones del crecimiento de levadura en los ambientes Lactato y Lactosa. También se realizaron predicciones conjuntas (Multitrait) para Lactato y Lactosa a la vez. Se concluyó en base a los resultados obtenidos, que el algoritmo de Transformers, basado en mecanismos de atención, presenta resultados prometedores para el campo de la predicción genómica.


Detalles Bibliográficos
2023
Predicción Genómica
SNPs
Genotipo
Fenotipo
Redes Neuronales
Transformers
Español
Universidad de la República
COLIBRI
https://hdl.handle.net/20.500.12008/41011
Acceso abierto
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
_version_ 1807523106420424704
author Castro, Graciana
author2 Hoffman, Romina
Musitelli, Mateo
author2_role author
author
author_facet Castro, Graciana
Hoffman, Romina
Musitelli, Mateo
author_role author
bitstream.checksum.fl_str_mv 6429389a7df7277b72b7924fdc7d47a9
a006180e3f5b2ad0b88185d14284c0e0
1274339f512f00ecc522a4c5febd859e
489f03e71d39068f329bdec8798bce58
b8efd20718427e911c254dd3e8438fad
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
bitstream.url.fl_str_mv http://localhost:8080/xmlui/bitstream/20.500.12008/41011/5/license.txt
http://localhost:8080/xmlui/bitstream/20.500.12008/41011/2/license_url
http://localhost:8080/xmlui/bitstream/20.500.12008/41011/3/license_text
http://localhost:8080/xmlui/bitstream/20.500.12008/41011/4/license_rdf
http://localhost:8080/xmlui/bitstream/20.500.12008/41011/1/CHM23.pdf
collection COLIBRI
dc.contributor.filiacion.none.fl_str_mv Castro Graciana, Universidad de la República (Uruguay). Facultad de Ingeniería.
Hoffman Romina, Universidad de la República (Uruguay). Facultad de Ingeniería.
Musitelli Mateo, Universidad de la República (Uruguay). Facultad de Ingeniería.
dc.creator.advisor.none.fl_str_mv Fariello, María Inés
Lecumberry, Federico
dc.creator.none.fl_str_mv Castro, Graciana
Hoffman, Romina
Musitelli, Mateo
dc.date.accessioned.none.fl_str_mv 2023-11-08T18:18:11Z
dc.date.available.none.fl_str_mv 2023-11-08T18:18:11Z
dc.date.issued.none.fl_str_mv 2023
dc.description.abstract.none.fl_txt_mv Se define el genotipo como la descripción del material físico real conformado por el ADN de un organismo y el fenotipo como cualquier característica observable del organismo (Rival, et al.). La predicción genómica busca predecir un determinado fenotipo de un individuo a partir del genotipo. Para eso, se cuenta con una base de datos genotípicos a los que se les asocia el fenotipo a predecir. Al ser los datos genotípicos una secuencia de letras, se puede tomar cada secuencia como si fuera un enunciado y las bases que lo componen (adenina (A), timina (T), citosina (C) y guanina (G)) las palabras que lo forman. Debido al reciente auge de las redes neuronales bidireccionales para el trabajo en Procesamiento de Lenguaje Natural (“Natural Languaje Processing”, NLP), surge la interrogante de si estos algoritmos, como las redes neuronales, redes neuronales recurrentes o Transformers, son igualmente eficientes en dominios que comparten similitudes en términos de estructuras de datos. En este proyecto, se plantea el objetivo de entrenar un modelo para predicción genómica basado en Transformers. Se toma como secuencia de entrada el genotipo de individuos de una especie haploide para comparar su desempeño con el de los modelos más utilizados en esta área, haciendo énfasis en comprender el funcionamiento del modelo. ¿Obtiene el modelo mejores resultados que los modelos ya existentes? Además, ¿es capaz de identificar las porciones importantes de esta secuencia, para realizar la predicción deseada? Para esta investigación se realizó un estudio del algoritmo Transformers, su funcionamiento y aplicaciones en el campo del NLP. Comprendido esto, se procedió a realizar el análisis de cómo adaptar un algoritmo de Transformers para su funcionamiento con datos genómicos de levadura con el objetivo de predecir el crecimiento de los individuos en distintos ambientes. Se estudió el modelo GPTransformers, propuesto por Jubair et al., 2021, en el cual se propone una estructura de Transformers basada solamente en el Encoder, debido a que para la predicción de un fenotipo es necesario contar con el conocimiento de la estructura local del ADN, la cual es determinada por este módulo. Se realizó el preprocesamiento de la base de datos de levadura, búsqueda de hiperparámetros óptimos y entrenamiento del modelo realizando validación cruzada. Se simularon dos fenotipos (lineal y nolinealmente) a partir de los genotipos que componen la base de datos, con los que se buscó evaluar cómo funciona el modelo con este tipo de datos. Luego se entrenaron modelos para realizar predicciones del crecimiento de levadura en los ambientes Lactato y Lactosa. También se realizaron predicciones conjuntas (Multitrait) para Lactato y Lactosa a la vez. Se concluyó en base a los resultados obtenidos, que el algoritmo de Transformers, basado en mecanismos de atención, presenta resultados prometedores para el campo de la predicción genómica.
dc.format.extent.es.fl_str_mv 63 p.
dc.format.mimetype.es.fl_str_mv application/pdf
dc.identifier.citation.es.fl_str_mv Castro, G., Hoffman, R. y Musitelli, M. PredGenIA : Transformers para Predicción Genómica [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023.
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12008/41011
dc.language.iso.none.fl_str_mv es
spa
dc.publisher.es.fl_str_mv Udelar.FI.
dc.rights.license.none.fl_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:COLIBRI
instname:Universidad de la República
instacron:Universidad de la República
dc.subject.es.fl_str_mv Predicción Genómica
SNPs
Genotipo
Fenotipo
Redes Neuronales
Transformers
dc.title.none.fl_str_mv PredGenIA : Transformers para Predicción Genómica.
dc.type.es.fl_str_mv Tesis de grado
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
description Se define el genotipo como la descripción del material físico real conformado por el ADN de un organismo y el fenotipo como cualquier característica observable del organismo (Rival, et al.). La predicción genómica busca predecir un determinado fenotipo de un individuo a partir del genotipo. Para eso, se cuenta con una base de datos genotípicos a los que se les asocia el fenotipo a predecir. Al ser los datos genotípicos una secuencia de letras, se puede tomar cada secuencia como si fuera un enunciado y las bases que lo componen (adenina (A), timina (T), citosina (C) y guanina (G)) las palabras que lo forman. Debido al reciente auge de las redes neuronales bidireccionales para el trabajo en Procesamiento de Lenguaje Natural (“Natural Languaje Processing”, NLP), surge la interrogante de si estos algoritmos, como las redes neuronales, redes neuronales recurrentes o Transformers, son igualmente eficientes en dominios que comparten similitudes en términos de estructuras de datos. En este proyecto, se plantea el objetivo de entrenar un modelo para predicción genómica basado en Transformers. Se toma como secuencia de entrada el genotipo de individuos de una especie haploide para comparar su desempeño con el de los modelos más utilizados en esta área, haciendo énfasis en comprender el funcionamiento del modelo. ¿Obtiene el modelo mejores resultados que los modelos ya existentes? Además, ¿es capaz de identificar las porciones importantes de esta secuencia, para realizar la predicción deseada? Para esta investigación se realizó un estudio del algoritmo Transformers, su funcionamiento y aplicaciones en el campo del NLP. Comprendido esto, se procedió a realizar el análisis de cómo adaptar un algoritmo de Transformers para su funcionamiento con datos genómicos de levadura con el objetivo de predecir el crecimiento de los individuos en distintos ambientes. Se estudió el modelo GPTransformers, propuesto por Jubair et al., 2021, en el cual se propone una estructura de Transformers basada solamente en el Encoder, debido a que para la predicción de un fenotipo es necesario contar con el conocimiento de la estructura local del ADN, la cual es determinada por este módulo. Se realizó el preprocesamiento de la base de datos de levadura, búsqueda de hiperparámetros óptimos y entrenamiento del modelo realizando validación cruzada. Se simularon dos fenotipos (lineal y nolinealmente) a partir de los genotipos que componen la base de datos, con los que se buscó evaluar cómo funciona el modelo con este tipo de datos. Luego se entrenaron modelos para realizar predicciones del crecimiento de levadura en los ambientes Lactato y Lactosa. También se realizaron predicciones conjuntas (Multitrait) para Lactato y Lactosa a la vez. Se concluyó en base a los resultados obtenidos, que el algoritmo de Transformers, basado en mecanismos de atención, presenta resultados prometedores para el campo de la predicción genómica.
eu_rights_str_mv openAccess
format bachelorThesis
id COLIBRI_51313f226f9093815b0434fe972903f1
identifier_str_mv Castro, G., Hoffman, R. y Musitelli, M. PredGenIA : Transformers para Predicción Genómica [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023.
instacron_str Universidad de la República
institution Universidad de la República
instname_str Universidad de la República
language spa
language_invalid_str_mv es
network_acronym_str COLIBRI
network_name_str COLIBRI
oai_identifier_str oai:colibri.udelar.edu.uy:20.500.12008/41011
publishDate 2023
reponame_str COLIBRI
repository.mail.fl_str_mv mabel.seroubian@seciu.edu.uy
repository.name.fl_str_mv COLIBRI - Universidad de la República
repository_id_str 4771
rights_invalid_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
spelling Castro Graciana, Universidad de la República (Uruguay). Facultad de Ingeniería.Hoffman Romina, Universidad de la República (Uruguay). Facultad de Ingeniería.Musitelli Mateo, Universidad de la República (Uruguay). Facultad de Ingeniería.2023-11-08T18:18:11Z2023-11-08T18:18:11Z2023Castro, G., Hoffman, R. y Musitelli, M. PredGenIA : Transformers para Predicción Genómica [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023.https://hdl.handle.net/20.500.12008/41011Se define el genotipo como la descripción del material físico real conformado por el ADN de un organismo y el fenotipo como cualquier característica observable del organismo (Rival, et al.). La predicción genómica busca predecir un determinado fenotipo de un individuo a partir del genotipo. Para eso, se cuenta con una base de datos genotípicos a los que se les asocia el fenotipo a predecir. Al ser los datos genotípicos una secuencia de letras, se puede tomar cada secuencia como si fuera un enunciado y las bases que lo componen (adenina (A), timina (T), citosina (C) y guanina (G)) las palabras que lo forman. Debido al reciente auge de las redes neuronales bidireccionales para el trabajo en Procesamiento de Lenguaje Natural (“Natural Languaje Processing”, NLP), surge la interrogante de si estos algoritmos, como las redes neuronales, redes neuronales recurrentes o Transformers, son igualmente eficientes en dominios que comparten similitudes en términos de estructuras de datos. En este proyecto, se plantea el objetivo de entrenar un modelo para predicción genómica basado en Transformers. Se toma como secuencia de entrada el genotipo de individuos de una especie haploide para comparar su desempeño con el de los modelos más utilizados en esta área, haciendo énfasis en comprender el funcionamiento del modelo. ¿Obtiene el modelo mejores resultados que los modelos ya existentes? Además, ¿es capaz de identificar las porciones importantes de esta secuencia, para realizar la predicción deseada? Para esta investigación se realizó un estudio del algoritmo Transformers, su funcionamiento y aplicaciones en el campo del NLP. Comprendido esto, se procedió a realizar el análisis de cómo adaptar un algoritmo de Transformers para su funcionamiento con datos genómicos de levadura con el objetivo de predecir el crecimiento de los individuos en distintos ambientes. Se estudió el modelo GPTransformers, propuesto por Jubair et al., 2021, en el cual se propone una estructura de Transformers basada solamente en el Encoder, debido a que para la predicción de un fenotipo es necesario contar con el conocimiento de la estructura local del ADN, la cual es determinada por este módulo. Se realizó el preprocesamiento de la base de datos de levadura, búsqueda de hiperparámetros óptimos y entrenamiento del modelo realizando validación cruzada. Se simularon dos fenotipos (lineal y nolinealmente) a partir de los genotipos que componen la base de datos, con los que se buscó evaluar cómo funciona el modelo con este tipo de datos. Luego se entrenaron modelos para realizar predicciones del crecimiento de levadura en los ambientes Lactato y Lactosa. También se realizaron predicciones conjuntas (Multitrait) para Lactato y Lactosa a la vez. Se concluyó en base a los resultados obtenidos, que el algoritmo de Transformers, basado en mecanismos de atención, presenta resultados prometedores para el campo de la predicción genómica.Submitted by Ribeiro Jorge (jribeiro@fing.edu.uy) on 2023-11-06T23:07:40Z No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) CHM23.pdf: 7099185 bytes, checksum: b8efd20718427e911c254dd3e8438fad (MD5)Approved for entry into archive by Machado Jimena (jmachado@fing.edu.uy) on 2023-11-08T18:00:41Z (GMT) No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) CHM23.pdf: 7099185 bytes, checksum: b8efd20718427e911c254dd3e8438fad (MD5)Made available in DSpace by Seroubian Mabel (mabel.seroubian@seciu.edu.uy) on 2023-11-08T18:18:11Z (GMT). No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) CHM23.pdf: 7099185 bytes, checksum: b8efd20718427e911c254dd3e8438fad (MD5) Previous issue date: 202363 p.application/pdfesspaUdelar.FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Predicción GenómicaSNPsGenotipoFenotipoRedes NeuronalesTransformersPredGenIA : Transformers para Predicción Genómica.Tesis de gradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaCastro, GracianaHoffman, RominaMusitelli, MateoFariello, María InésLecumberry, FedericoUniversidad de la República (Uruguay). Facultad de Ingeniería.Ingeniero Electricista e Ingeniero en Sistemas de ComunicaciónLICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/41011/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/41011/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-814403http://localhost:8080/xmlui/bitstream/20.500.12008/41011/3/license_text1274339f512f00ecc522a4c5febd859eMD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-825790http://localhost:8080/xmlui/bitstream/20.500.12008/41011/4/license_rdf489f03e71d39068f329bdec8798bce58MD54ORIGINALCHM23.pdfCHM23.pdfapplication/pdf7099185http://localhost:8080/xmlui/bitstream/20.500.12008/41011/1/CHM23.pdfb8efd20718427e911c254dd3e8438fadMD5120.500.12008/410112024-04-12 14:05:07.079oai:colibri.udelar.edu.uy:20.500.12008/41011VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:40:54.890050COLIBRI - Universidad de la Repúblicafalse
spellingShingle PredGenIA : Transformers para Predicción Genómica.
Castro, Graciana
Predicción Genómica
SNPs
Genotipo
Fenotipo
Redes Neuronales
Transformers
status_str acceptedVersion
title PredGenIA : Transformers para Predicción Genómica.
title_full PredGenIA : Transformers para Predicción Genómica.
title_fullStr PredGenIA : Transformers para Predicción Genómica.
title_full_unstemmed PredGenIA : Transformers para Predicción Genómica.
title_short PredGenIA : Transformers para Predicción Genómica.
title_sort PredGenIA : Transformers para Predicción Genómica.
topic Predicción Genómica
SNPs
Genotipo
Fenotipo
Redes Neuronales
Transformers
url https://hdl.handle.net/20.500.12008/41011