Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.
Supervisor(es): Preciozzi, Javier
Resumen:
Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original.
2023 | |
Aplicaciones de computadoras Control por computador Visión por ordenador Sensores de imágenes |
|
Español | |
Universidad de la República | |
COLIBRI | |
https://hdl.handle.net/20.500.12008/39726 | |
Acceso abierto | |
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
_version_ | 1807523106274672640 |
---|---|
author | Belzarena, Diego |
author2 | Boccarato, Florencia Lefebre, Ricardo |
author2_role | author author |
author_facet | Belzarena, Diego Boccarato, Florencia Lefebre, Ricardo |
author_role | author |
bitstream.checksum.fl_str_mv | 6429389a7df7277b72b7924fdc7d47a9 a006180e3f5b2ad0b88185d14284c0e0 1df05be915d5c44b48b8b2e7a082b91a 1996b8461bc290aef6a27d78c67b6b52 215ad54cc00a386861424f16f2c0beab |
bitstream.checksumAlgorithm.fl_str_mv | MD5 MD5 MD5 MD5 MD5 |
bitstream.url.fl_str_mv | http://localhost:8080/xmlui/bitstream/20.500.12008/39726/5/license.txt http://localhost:8080/xmlui/bitstream/20.500.12008/39726/2/license_url http://localhost:8080/xmlui/bitstream/20.500.12008/39726/3/license_text http://localhost:8080/xmlui/bitstream/20.500.12008/39726/4/license_rdf http://localhost:8080/xmlui/bitstream/20.500.12008/39726/1/BBL23.pdf |
collection | COLIBRI |
dc.contributor.filiacion.none.fl_str_mv | Belzarena Diego, Universidad de la República (Uruguay). Facultad de Ingeniería. Boccarato Florencia, Universidad de la República (Uruguay). Facultad de Ingeniería. Lefebre Ricardo, Universidad de la República (Uruguay). Facultad de Ingeniería. |
dc.creator.advisor.none.fl_str_mv | Preciozzi, Javier |
dc.creator.none.fl_str_mv | Belzarena, Diego Boccarato, Florencia Lefebre, Ricardo |
dc.date.accessioned.none.fl_str_mv | 2023-08-29T17:41:22Z |
dc.date.available.none.fl_str_mv | 2023-08-29T17:41:22Z |
dc.date.issued.none.fl_str_mv | 2023 |
dc.description.abstract.none.fl_txt_mv | Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original. |
dc.format.extent.es.fl_str_mv | 222 p. |
dc.format.mimetype.es.fl_str_mv | application/pdf |
dc.identifier.citation.es.fl_str_mv | Belzarena, D., Boccarato, F. y Lefebre, R. Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023. |
dc.identifier.uri.none.fl_str_mv | https://hdl.handle.net/20.500.12008/39726 |
dc.language.iso.none.fl_str_mv | es spa |
dc.publisher.es.fl_str_mv | Udelar. FI. |
dc.rights.license.none.fl_str_mv | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:COLIBRI instname:Universidad de la República instacron:Universidad de la República |
dc.subject.other.es.fl_str_mv | Aplicaciones de computadoras Control por computador Visión por ordenador Sensores de imágenes |
dc.title.none.fl_str_mv | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. |
dc.type.es.fl_str_mv | Tesis de grado |
dc.type.none.fl_str_mv | info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/acceptedVersion |
description | Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original. |
eu_rights_str_mv | openAccess |
format | bachelorThesis |
id | COLIBRI_c5da17d7e64aa11f390c219aaf823161 |
identifier_str_mv | Belzarena, D., Boccarato, F. y Lefebre, R. Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023. |
instacron_str | Universidad de la República |
institution | Universidad de la República |
instname_str | Universidad de la República |
language | spa |
language_invalid_str_mv | es |
network_acronym_str | COLIBRI |
network_name_str | COLIBRI |
oai_identifier_str | oai:colibri.udelar.edu.uy:20.500.12008/39726 |
publishDate | 2023 |
reponame_str | COLIBRI |
repository.mail.fl_str_mv | mabel.seroubian@seciu.edu.uy |
repository.name.fl_str_mv | COLIBRI - Universidad de la República |
repository_id_str | 4771 |
rights_invalid_str_mv | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
spelling | Belzarena Diego, Universidad de la República (Uruguay). Facultad de Ingeniería.Boccarato Florencia, Universidad de la República (Uruguay). Facultad de Ingeniería.Lefebre Ricardo, Universidad de la República (Uruguay). Facultad de Ingeniería.2023-08-29T17:41:22Z2023-08-29T17:41:22Z2023Belzarena, D., Boccarato, F. y Lefebre, R. Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma [en línea]. Tesis de grado. Montevideo : Udelar. FI. IIE, 2023.https://hdl.handle.net/20.500.12008/39726Una cámara de eventos es un sensor de imagen que responde a los cambios locales en el brillo. Las cámaras de eventos no capturan imágenes con un obturador como lo hacen las cámaras convencionales. En su lugar, cada píxel dentro de una cámara de eventos funciona de forma independiente y asincrónica, informando de los cambios en el brillo a medida que ocurren y permaneciendo en silencio de lo contrario. Las cámaras de eventos modernas tienen una resolución temporal de microsegundos, un rango dinámico de 120dB y menos subexposición/sobreexposición y desenfoque de movimiento que las cámaras tradicionales. Esta capacidad de las cámaras de eventos para detectar cambios en la escena a muy alta velocidad, la hacen sumamente atractiva como sensor de movimiento para vehículos autónomos. En este escenario, se realizó un estudio exhaustivo de los fundamentos de las cámaras de eventos: sus características más relevantes (diseño de arquitecturas de píxeles, configuración, proceso de generación de eventos), las diferencias con las cámaras convencionales y las distintas maneras prácticas de trabajar con eventos. Luego, se seleccionaron dos tareas de navegación autónoma sobre las cuales realizar pruebas de concepto: Detección de Objetos y Odometría. Para dichas pruebas se utilizó una cámara de eventos EVK3 Gen4.1 de Prophesee. Para la aplicación de la tecnología en el problema de Detección de Objetos, se estudiaron los distintos enfoques del estado del arte. Del enfoque basado en Redes Neuronales en Grafos (GNNs), se optó por realizar un estudio en detalle del método AEGNN por su balance entre eficiencia y desempeño. Como análisis experimental, se entrenó este algoritmo y se corroboró la eficiencia computacional del procesamiento asíncrono que propone este método. Por otro lado, se realizó una comparación cualitativa sobre datos propios entre algoritmos de Detección de Objetos basados en eventos (RED y RVT) y algoritmos de Detección de Objetos basados en cámaras convencionales (YOLOv5). De aquí, se observó que la utilización de las cámaras de eventos provee grandes ventajas, como la robustez frente a cambios de iluminación, mientras que presenta algunas dificultades, como la pérdida de detecciones en escenas estáticas. También, se verificó que esta dificultad puede sobrellevarse mediante la incorporación de recurrencia en las redes (RNNs), como se plantea en algunos trabajos recientes. Por último, se evaluó el uso de las cámaras de eventos en el problema de Odometría Visual. Para ello, se utilizó una implementación de código abierto de un sistema de Odometría Visual Inercial basada en eventos, publicada por investigadores de la Universidad de Zúrich, denominada Ultimate SLAM. Esto implicó la necesidad de integrar un sensor de medidas inerciales (IMU) a la cámara de eventos, teniendo que sincronizarlos temporalmente y calibrarlos espacialmente. El algoritmo Ultimate SLAM se usó en la modalidad eventos más IMU, y se evaluó en dos conjuntos de datos. Por un lado, se tomaron datos de trayectorias simples controladas, comparando los resultados obtenidos con las trayectorias teóricas del movimiento realizado. Por otro lado, se tomaron datos integrando el sistema neurómorfico a un vehículo autónomo en funcionamiento. Dicho vehículo cuenta con un sistema de Odometría clásico, basado en la medición del giro de las ruedas y un sensor inercial, que fue usado como referencia. Para el conjunto de datos de trayectorias simples controladas, la estimación de la posición instantánea obtuvo valores de error que duplican a los reportados en el artículo original. En cuanto a la estimación de la orientación instantánea, los valores obtenidos están un grado de magnitud por encima de los valores reportados en el trabajo original. En los datos tomados con el vehículo en funcionamiento, no se logró que el algoritmo estime correctamente la posición instantánea. No obstante, la estimación de orientación obtuvo mejores resultados que el conjunto de trayectorias controladas, alcanzando en el mejor caso el rango de errores reportados en el artículo original.Submitted by Ribeiro Jorge (jribeiro@fing.edu.uy) on 2023-08-29T15:24:12Z No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) BBL23.pdf: 54753050 bytes, checksum: 215ad54cc00a386861424f16f2c0beab (MD5)Approved for entry into archive by Berón Cecilia (cberon@fing.edu.uy) on 2023-08-29T17:39:51Z (GMT) No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) BBL23.pdf: 54753050 bytes, checksum: 215ad54cc00a386861424f16f2c0beab (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2023-08-29T17:41:22Z (GMT). No. of bitstreams: 2 license_rdf: 23149 bytes, checksum: 1996b8461bc290aef6a27d78c67b6b52 (MD5) BBL23.pdf: 54753050 bytes, checksum: 215ad54cc00a386861424f16f2c0beab (MD5) Previous issue date: 2023222 p.application/pdfesspaUdelar. FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Aplicaciones de computadorasControl por computadorVisión por ordenadorSensores de imágenesAplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma.Tesis de gradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaBelzarena, DiegoBoccarato, FlorenciaLefebre, RicardoPreciozzi, JavierUniversidad de la República (Uruguay). Facultad de Ingeniería.Ingeniero Electricista.LICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/39726/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/39726/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-838767http://localhost:8080/xmlui/bitstream/20.500.12008/39726/3/license_text1df05be915d5c44b48b8b2e7a082b91aMD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-823149http://localhost:8080/xmlui/bitstream/20.500.12008/39726/4/license_rdf1996b8461bc290aef6a27d78c67b6b52MD54ORIGINALBBL23.pdfBBL23.pdfapplication/pdf54753050http://localhost:8080/xmlui/bitstream/20.500.12008/39726/1/BBL23.pdf215ad54cc00a386861424f16f2c0beabMD5120.500.12008/397262024-04-12 14:05:07.094oai:colibri.udelar.edu.uy:20.500.12008/39726VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:40:54.461948COLIBRI - Universidad de la Repúblicafalse |
spellingShingle | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. Belzarena, Diego Aplicaciones de computadoras Control por computador Visión por ordenador Sensores de imágenes |
status_str | acceptedVersion |
title | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. |
title_full | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. |
title_fullStr | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. |
title_full_unstemmed | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. |
title_short | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. |
title_sort | Aplicación de visión basada en eventos en problemas relacionados con la navegación vehicular autónoma. |
topic | Aplicaciones de computadoras Control por computador Visión por ordenador Sensores de imágenes |
url | https://hdl.handle.net/20.500.12008/39726 |