Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.

Belzarena, Diego - Boccarato, Florencia - Lefebre, Ricardo

Supervisor(es): Preciozzi, Javier

Resumen:

Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original.


Detalles Bibliográficos
2023
Aplicaciones de computadoras
Control por computador
Visión por ordenador
Sensores de imágenes
Español
Universidad de la República
COLIBRI
https://hdl.handle.net/20.500.12008/39726
Acceso abierto
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
_version_ 1807523106274672640
author Belzarena, Diego
author2 Boccarato, Florencia
Lefebre, Ricardo
author2_role author
author
author_facet Belzarena, Diego
Boccarato, Florencia
Lefebre, Ricardo
author_role author
bitstream.checksum.fl_str_mv 6429389a7df7277b72b7924fdc7d47a9
a006180e3f5b2ad0b88185d14284c0e0
1df05be915d5c44b48b8b2e7a082b91a
1996b8461bc290aef6a27d78c67b6b52
215ad54cc00a386861424f16f2c0beab
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
bitstream.url.fl_str_mv http://localhost:8080/xmlui/bitstream/20.500.12008/39726/5/license.txt
http://localhost:8080/xmlui/bitstream/20.500.12008/39726/2/license_url
http://localhost:8080/xmlui/bitstream/20.500.12008/39726/3/license_text
http://localhost:8080/xmlui/bitstream/20.500.12008/39726/4/license_rdf
http://localhost:8080/xmlui/bitstream/20.500.12008/39726/1/BBL23.pdf
collection COLIBRI
dc.contributor.filiacion.none.fl_str_mv Belzarena Diego, Universidad de la República (Uruguay). Facultad de Ingeniería.
Boccarato Florencia, Universidad de la República (Uruguay). Facultad de Ingeniería.
Lefebre Ricardo, Universidad de la República (Uruguay). Facultad de Ingeniería.
dc.creator.advisor.none.fl_str_mv Preciozzi, Javier
dc.creator.none.fl_str_mv Belzarena, Diego
Boccarato, Florencia
Lefebre, Ricardo
dc.date.accessioned.none.fl_str_mv 2023-08-29T17:41:22Z
dc.date.available.none.fl_str_mv 2023-08-29T17:41:22Z
dc.date.issued.none.fl_str_mv 2023
dc.description.abstract.none.fl_txt_mv Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original.
dc.format.extent.es.fl_str_mv 222 p.
dc.format.mimetype.es.fl_str_mv application/pdf
dc.identifier.citation.es.fl_str_mv Belzarena, D., Boccarato, F. y Lefebre, R. Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023.
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12008/39726
dc.language.iso.none.fl_str_mv es
spa
dc.publisher.es.fl_str_mv Udelar. FI.
dc.rights.license.none.fl_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:COLIBRI
instname:Universidad de la República
instacron:Universidad de la República
dc.subject.other.es.fl_str_mv Aplicaciones de computadoras
Control por computador
Visión por ordenador
Sensores de imágenes
dc.title.none.fl_str_mv Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
dc.type.es.fl_str_mv Tesis de grado
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
description Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original.
eu_rights_str_mv openAccess
format bachelorThesis
id COLIBRI_c5da17d7e64aa11f390c219aaf823161
identifier_str_mv Belzarena, D., Boccarato, F. y Lefebre, R. Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023.
instacron_str Universidad de la República
institution Universidad de la República
instname_str Universidad de la República
language spa
language_invalid_str_mv es
network_acronym_str COLIBRI
network_name_str COLIBRI
oai_identifier_str oai:colibri.udelar.edu.uy:20.500.12008/39726
publishDate 2023
reponame_str COLIBRI
repository.mail.fl_str_mv mabel.seroubian@seciu.edu.uy
repository.name.fl_str_mv COLIBRI - Universidad de la República
repository_id_str 4771
rights_invalid_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
spelling Belzarena Diego, Universidad de la República (Uruguay). Facultad de Ingeniería.Boccarato Florencia, Universidad de la República (Uruguay). Facultad de Ingeniería.Lefebre Ricardo, Universidad de la República (Uruguay). Facultad de Ingeniería.2023-08-29T17:41:22Z2023-08-29T17:41:22Z2023Belzarena, D., Boccarato, F. y Lefebre, R. Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023.https://hdl.handle.net/20.500.12008/39726Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original.Submitted by Ribeiro Jorge (jribeiro@fing.edu.uy) on 2023-08-29T15:24:12Z No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) BBL23.pdf: 54753050 bytes, checksum: 215ad54cc00a386861424f16f2c0beab (MD5)Approved for entry into archive by Berón Cecilia (cberon@fing.edu.uy) on 2023-08-29T17:39:51Z (GMT) No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) BBL23.pdf: 54753050 bytes, checksum: 215ad54cc00a386861424f16f2c0beab (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2023-08-29T17:41:22Z (GMT). No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) BBL23.pdf: 54753050 bytes, checksum: 215ad54cc00a386861424f16f2c0beab (MD5) Previous issue date: 2023222 p.application/pdfesspaUdelar. FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Aplicaciones de computadorasControl por computadorVisión por ordenadorSensores de imágenesAplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.Tesis de gradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaBelzarena, DiegoBoccarato, FlorenciaLefebre, RicardoPreciozzi, JavierUniversidad de la República (Uruguay). Facultad de Ingeniería.Ingeniero Electricista.LICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/39726/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/39726/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-838767http://localhost:8080/xmlui/bitstream/20.500.12008/39726/3/license_text1df05be915d5c44b48b8b2e7a082b91aMD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-823149http://localhost:8080/xmlui/bitstream/20.500.12008/39726/4/license_rdf1996b8461bc290aef6a27d78c67b6b52MD54ORIGINALBBL23.pdfBBL23.pdfapplication/pdf54753050http://localhost:8080/xmlui/bitstream/20.500.12008/39726/1/BBL23.pdf215ad54cc00a386861424f16f2c0beabMD5120.500.12008/397262024-04-12 14:05:07.094oai:colibri.udelar.edu.uy:20.500.12008/39726VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:40:54.461948COLIBRI - Universidad de la Repúblicafalse
spellingShingle Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
Belzarena, Diego
Aplicaciones de computadoras
Control por computador
Visión por ordenador
Sensores de imágenes
status_str acceptedVersion
title Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
title_full Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
title_fullStr Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
title_full_unstemmed Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
title_short Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
title_sort Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
topic Aplicaciones de computadoras
Control por computador
Visión por ordenador
Sensores de imágenes
url https://hdl.handle.net/20.500.12008/39726