DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.

Alcalde Gillespie, Martín - Ferreira Echenique, Matías - González, Pablo

Supervisor(es): Andrade, Federico - Tejera, Gonzalo

Resumen:

El mapeo y la localización son unos de los desafíos fundamentales de los robots móviles, junto a la planificación de trayectorias forman la base de los problemas de navegación en robots móviles autónomos. En esta Tesis se aborda el problema de SLAM (Localización y Mapeo Simultáneos, por sus siglas en inglés), el cual es el problema de construir un mapa de un entorno previamente desconocido de forma incremental y al mismo tiempo localizar el robot dentro de ese mapa. Uno no puede desacoplar ambas tareas y resolverlas de forma independiente. En los últimos años, RL (Aprendizaje por Refuerzo, por sus siglas en inglés) se ha utilizado para abordar y resolver varias tareas de robótica diferentes, como estabilización, manipulación, locomoción y navegación. En el contexto de la navegación, los agentes basados en RL no suelen depender de ningún mapa o SLAM y, aunque tienen mucho éxito, no aprovechan la información importante almacenada en los mapas. En cuanto al problema de SLAM activo con RL, se plantea la necesidad de contar con funciones de recompensa que permitan: reducir la incertidumbre del mapa y motivar la exploración del mapa Este trabajo presenta mejoras sobre los algoritmos existentes en el estado del arte, para la planificación y exploración en entornos complejos desconocidos utilizando DRL (Aprendizaje por Refuerzo Profundo, por sus siglas en inglés). Este trabajo presenta un enfoque novedoso, el cual introduce dos funciones de recompensa que toman en consideración: (i) la información del mapa, el cual es construido en tiempo real por el robot utilizando un algoritmo de SLAM, y (ii) la incertidumbre de la pose del robot, lo que lleva al cerrado activo de ciclos para incentivar la exploración y mejorar la generación de los mapas, respectivamente. Los resultados obtenidos muestran que la función de recompensa basada en la completitud del mapa obtiene trayectorias más cortas, respecto a las presentadas por la literatura; mientras que la función de recompensa basada en incertidumbre de la pose obtiene mapas más fieles al entorno real. Además, ambos agentes probaron su capacidad tanto de realizar SLAM activo en entornos complejos como de generalización a mapas desconocidos.


Detalles Bibliográficos
2023
Español
Universidad de la República
COLIBRI
https://hdl.handle.net/20.500.12008/37216
Acceso abierto
Licencia Creative Commons Atribución (CC - By 4.0)
_version_ 1807523229288366080
author Alcalde Gillespie, Martín
author2 Ferreira Echenique, Matías
González, Pablo
author2_role author
author
author_facet Alcalde Gillespie, Martín
Ferreira Echenique, Matías
González, Pablo
author_role author
bitstream.checksum.fl_str_mv 6429389a7df7277b72b7924fdc7d47a9
a0ebbeafb9d2ec7cbb19d7137ebc392c
2fc523bba4df4b71d4fa008ef2dea84b
9fdbed07f52437945402c4e70fa4773e
778ffc98534e03f7859198c3c6987aaf
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
bitstream.url.fl_str_mv http://localhost:8080/xmlui/bitstream/20.500.12008/37216/5/license.txt
http://localhost:8080/xmlui/bitstream/20.500.12008/37216/2/license_url
http://localhost:8080/xmlui/bitstream/20.500.12008/37216/3/license_text
http://localhost:8080/xmlui/bitstream/20.500.12008/37216/4/license_rdf
http://localhost:8080/xmlui/bitstream/20.500.12008/37216/1/AFG23.pdf
collection COLIBRI
dc.contributor.filiacion.none.fl_str_mv Alcalde Gillespie Martín, Universidad de la República (Uruguay). Facultad de Ingeniería
Ferreira Echenique Matías, Universidad de la República (Uruguay). Facultad de Ingeniería
González Pablo, Universidad de la República (Uruguay). Facultad de Ingeniería
dc.creator.advisor.none.fl_str_mv Andrade, Federico
Tejera, Gonzalo
dc.creator.none.fl_str_mv Alcalde Gillespie, Martín
Ferreira Echenique, Matías
González, Pablo
dc.date.accessioned.none.fl_str_mv 2023-05-24T12:11:51Z
dc.date.available.none.fl_str_mv 2023-05-24T12:11:51Z
dc.date.issued.none.fl_str_mv 2023
dc.description.abstract.none.fl_txt_mv El mapeo y la localización son unos de los desafíos fundamentales de los robots móviles, junto a la planificación de trayectorias forman la base de los problemas de navegación en robots móviles autónomos. En esta Tesis se aborda el problema de SLAM (Localización y Mapeo Simultáneos, por sus siglas en inglés), el cual es el problema de construir un mapa de un entorno previamente desconocido de forma incremental y al mismo tiempo localizar el robot dentro de ese mapa. Uno no puede desacoplar ambas tareas y resolverlas de forma independiente. En los últimos años, RL (Aprendizaje por Refuerzo, por sus siglas en inglés) se ha utilizado para abordar y resolver varias tareas de robótica diferentes, como estabilización, manipulación, locomoción y navegación. En el contexto de la navegación, los agentes basados en RL no suelen depender de ningún mapa o SLAM y, aunque tienen mucho éxito, no aprovechan la información importante almacenada en los mapas. En cuanto al problema de SLAM activo con RL, se plantea la necesidad de contar con funciones de recompensa que permitan: reducir la incertidumbre del mapa y motivar la exploración del mapa Este trabajo presenta mejoras sobre los algoritmos existentes en el estado del arte, para la planificación y exploración en entornos complejos desconocidos utilizando DRL (Aprendizaje por Refuerzo Profundo, por sus siglas en inglés). Este trabajo presenta un enfoque novedoso, el cual introduce dos funciones de recompensa que toman en consideración: (i) la información del mapa, el cual es construido en tiempo real por el robot utilizando un algoritmo de SLAM, y (ii) la incertidumbre de la pose del robot, lo que lleva al cerrado activo de ciclos para incentivar la exploración y mejorar la generación de los mapas, respectivamente. Los resultados obtenidos muestran que la función de recompensa basada en la completitud del mapa obtiene trayectorias más cortas, respecto a las presentadas por la literatura; mientras que la función de recompensa basada en incertidumbre de la pose obtiene mapas más fieles al entorno real. Además, ambos agentes probaron su capacidad tanto de realizar SLAM activo en entornos complejos como de generalización a mapas desconocidos.
dc.format.extent.es.fl_str_mv 76 p.
dc.format.mimetype.es.fl_str_mv application/pdf
dc.identifier.citation.es.fl_str_mv Alcalde Gillespie, M., Ferreira Echenique, M. y González, P. DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning [en línea] Tesis de grado. Montevideo : Udelar. FI. INCO, 2023.
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12008/37216
dc.language.iso.none.fl_str_mv es
spa
dc.publisher.es.fl_str_mv Udelar. FI.
dc.rights.license.none.fl_str_mv Licencia Creative Commons Atribución (CC - By 4.0)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:COLIBRI
instname:Universidad de la República
instacron:Universidad de la República
dc.title.none.fl_str_mv DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
dc.type.es.fl_str_mv Tesis de grado
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
description El mapeo y la localización son unos de los desafíos fundamentales de los robots móviles, junto a la planificación de trayectorias forman la base de los problemas de navegación en robots móviles autónomos. En esta Tesis se aborda el problema de SLAM (Localización y Mapeo Simultáneos, por sus siglas en inglés), el cual es el problema de construir un mapa de un entorno previamente desconocido de forma incremental y al mismo tiempo localizar el robot dentro de ese mapa. Uno no puede desacoplar ambas tareas y resolverlas de forma independiente. En los últimos años, RL (Aprendizaje por Refuerzo, por sus siglas en inglés) se ha utilizado para abordar y resolver varias tareas de robótica diferentes, como estabilización, manipulación, locomoción y navegación. En el contexto de la navegación, los agentes basados en RL no suelen depender de ningún mapa o SLAM y, aunque tienen mucho éxito, no aprovechan la información importante almacenada en los mapas. En cuanto al problema de SLAM activo con RL, se plantea la necesidad de contar con funciones de recompensa que permitan: reducir la incertidumbre del mapa y motivar la exploración del mapa Este trabajo presenta mejoras sobre los algoritmos existentes en el estado del arte, para la planificación y exploración en entornos complejos desconocidos utilizando DRL (Aprendizaje por Refuerzo Profundo, por sus siglas en inglés). Este trabajo presenta un enfoque novedoso, el cual introduce dos funciones de recompensa que toman en consideración: (i) la información del mapa, el cual es construido en tiempo real por el robot utilizando un algoritmo de SLAM, y (ii) la incertidumbre de la pose del robot, lo que lleva al cerrado activo de ciclos para incentivar la exploración y mejorar la generación de los mapas, respectivamente. Los resultados obtenidos muestran que la función de recompensa basada en la completitud del mapa obtiene trayectorias más cortas, respecto a las presentadas por la literatura; mientras que la función de recompensa basada en incertidumbre de la pose obtiene mapas más fieles al entorno real. Además, ambos agentes probaron su capacidad tanto de realizar SLAM activo en entornos complejos como de generalización a mapas desconocidos.
eu_rights_str_mv openAccess
format bachelorThesis
id COLIBRI_3858c77282b9414aad1db44c38b2d634
identifier_str_mv Alcalde Gillespie, M., Ferreira Echenique, M. y González, P. DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning [en línea] Tesis de grado. Montevideo : Udelar. FI. INCO, 2023.
instacron_str Universidad de la República
institution Universidad de la República
instname_str Universidad de la República
language spa
language_invalid_str_mv es
network_acronym_str COLIBRI
network_name_str COLIBRI
oai_identifier_str oai:colibri.udelar.edu.uy:20.500.12008/37216
publishDate 2023
reponame_str COLIBRI
repository.mail.fl_str_mv mabel.seroubian@seciu.edu.uy
repository.name.fl_str_mv COLIBRI - Universidad de la República
repository_id_str 4771
rights_invalid_str_mv Licencia Creative Commons Atribución (CC - By 4.0)
spelling Alcalde Gillespie Martín, Universidad de la República (Uruguay). Facultad de IngenieríaFerreira Echenique Matías, Universidad de la República (Uruguay). Facultad de IngenieríaGonzález Pablo, Universidad de la República (Uruguay). Facultad de Ingeniería2023-05-24T12:11:51Z2023-05-24T12:11:51Z2023Alcalde Gillespie, M., Ferreira Echenique, M. y González, P. DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning [en línea] Tesis de grado. Montevideo : Udelar. FI. INCO, 2023.https://hdl.handle.net/20.500.12008/37216El mapeo y la localización son unos de los desafíos fundamentales de los robots móviles, junto a la planificación de trayectorias forman la base de los problemas de navegación en robots móviles autónomos. En esta Tesis se aborda el problema de SLAM (Localización y Mapeo Simultáneos, por sus siglas en inglés), el cual es el problema de construir un mapa de un entorno previamente desconocido de forma incremental y al mismo tiempo localizar el robot dentro de ese mapa. Uno no puede desacoplar ambas tareas y resolverlas de forma independiente. En los últimos años, RL (Aprendizaje por Refuerzo, por sus siglas en inglés) se ha utilizado para abordar y resolver varias tareas de robótica diferentes, como estabilización, manipulación, locomoción y navegación. En el contexto de la navegación, los agentes basados en RL no suelen depender de ningún mapa o SLAM y, aunque tienen mucho éxito, no aprovechan la información importante almacenada en los mapas. En cuanto al problema de SLAM activo con RL, se plantea la necesidad de contar con funciones de recompensa que permitan: reducir la incertidumbre del mapa y motivar la exploración del mapa Este trabajo presenta mejoras sobre los algoritmos existentes en el estado del arte, para la planificación y exploración en entornos complejos desconocidos utilizando DRL (Aprendizaje por Refuerzo Profundo, por sus siglas en inglés). Este trabajo presenta un enfoque novedoso, el cual introduce dos funciones de recompensa que toman en consideración: (i) la información del mapa, el cual es construido en tiempo real por el robot utilizando un algoritmo de SLAM, y (ii) la incertidumbre de la pose del robot, lo que lleva al cerrado activo de ciclos para incentivar la exploración y mejorar la generación de los mapas, respectivamente. Los resultados obtenidos muestran que la función de recompensa basada en la completitud del mapa obtiene trayectorias más cortas, respecto a las presentadas por la literatura; mientras que la función de recompensa basada en incertidumbre de la pose obtiene mapas más fieles al entorno real. Además, ambos agentes probaron su capacidad tanto de realizar SLAM activo en entornos complejos como de generalización a mapas desconocidos.Submitted by Cabrera Gabriela (gfcabrerarossi@gmail.com) on 2023-05-23T14:23:44Z No. of bitstreams: 2 license_rdf: 19875 bytes, checksum: 9fdbed07f52437945402c4e70fa4773e (MD5) AFG23.pdf: 2883803 bytes, checksum: 778ffc98534e03f7859198c3c6987aaf (MD5)Rejected by Berón Cecilia (cberon@fing.edu.uy), reason: No tiene palabras clave on 2023-05-23T18:29:42Z (GMT)Submitted by Cabrera Gabriela (gfcabrerarossi@gmail.com) on 2023-05-23T18:39:32Z No. of bitstreams: 2 license_rdf: 19875 bytes, checksum: 9fdbed07f52437945402c4e70fa4773e (MD5) AFG23.pdf: 2883803 bytes, checksum: 778ffc98534e03f7859198c3c6987aaf (MD5)Approved for entry into archive by Berón Cecilia (cberon@fing.edu.uy) on 2023-05-23T18:45:08Z (GMT) No. of bitstreams: 2 license_rdf: 19875 bytes, checksum: 9fdbed07f52437945402c4e70fa4773e (MD5) AFG23.pdf: 2883803 bytes, checksum: 778ffc98534e03f7859198c3c6987aaf (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2023-05-24T12:11:51Z (GMT). No. of bitstreams: 2 license_rdf: 19875 bytes, checksum: 9fdbed07f52437945402c4e70fa4773e (MD5) AFG23.pdf: 2883803 bytes, checksum: 778ffc98534e03f7859198c3c6987aaf (MD5) Previous issue date: 202376 p.application/pdfesspaUdelar. FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución (CC - By 4.0)DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.Tesis de gradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaAlcalde Gillespie, MartínFerreira Echenique, MatíasGonzález, PabloAndrade, FedericoTejera, GonzaloUniversidad de la República (Uruguay). Facultad de IngenieríaIngeniero en Computación.LICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/37216/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-844http://localhost:8080/xmlui/bitstream/20.500.12008/37216/2/license_urla0ebbeafb9d2ec7cbb19d7137ebc392cMD52license_textlicense_texttext/html; charset=utf-838552http://localhost:8080/xmlui/bitstream/20.500.12008/37216/3/license_text2fc523bba4df4b71d4fa008ef2dea84bMD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-819875http://localhost:8080/xmlui/bitstream/20.500.12008/37216/4/license_rdf9fdbed07f52437945402c4e70fa4773eMD54ORIGINALAFG23.pdfAFG23.pdfapplication/pdf2883803http://localhost:8080/xmlui/bitstream/20.500.12008/37216/1/AFG23.pdf778ffc98534e03f7859198c3c6987aafMD5120.500.12008/372162024-04-12 14:06:40.983oai:colibri.udelar.edu.uy:20.500.12008/37216VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:46:28.368966COLIBRI - Universidad de la Repúblicafalse
spellingShingle DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
Alcalde Gillespie, Martín
status_str acceptedVersion
title DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
title_full DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
title_fullStr DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
title_full_unstemmed DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
title_short DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
title_sort DA-SLAM: Deep Active SLAM based on Deep Reinforcement Learning.
url https://hdl.handle.net/20.500.12008/37216