Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
Supervisor(es): Gómez, Alvaro - Capdehourat, Germán
Resumen:
Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado.
Electronic devices, such as laptops and tablets, are massively used for work, entertainment and socializing. The keyboard and mouse set is the most widely used input interface but can present difficulties for people with motor disabilities. Alternative interfaces have been developed in the industry to solve this problem. This is the case of eye trackers that can control devices as if they were a mouse based on eye movements. However, these systems are composed of specialized hardware and software that can be expensive for the general population. Eye-tracking systems can be in the form of frame glasses, be a device that is placed next to the display to be used, or be embedded in the system to be controlled. In the latter case they use the hardware and software resources of the system. They can make use of near-infrared spectrum (NIR) illumination that is not perceived by the user and also provides information regarding the location of the system in the acquired image. This is achieved by capturing with the image sensor the flashes, called glints, produced by the reflection of light on the cornea. Image processing may consist solely of the use of pixel intensity, known as appearance methods. Descriptors other than intensity or mathematical models can also be used. In this work, different gaze estimation techniques focused on embedded systems of modest computational power were analyzed. We worked on the basis of two methods: geometric model and appearance method. The first one requires an accurate estimation of the center of the pupils and glints so that a 3D mathematical model of the eye can be used to estimate the gaze coordinates on the screen. The second uses cutouts of the face, the eyes and the two-dimensional location of the face in the full image. This data is processed with a convolutional neural network. A prototype was developed with a Raspberry Pi 4, an AR1820HS camera, infrared LEDs and a tensor processing unit (Coral TPU). This allowed the development of a dataset consisting of 540 images of ten subjects with fixed calibration pattern and five thousand images of five subjects with random pattern. A real-time evaluation was also performed with ten users under controlled lighting conditions. The prototype was evaluated objectively with 30 seconds of use and 180 images acquired using a nine-point pattern. Each subject was able to evaluate the usability of the prototype subjectively by answering questions with their eye movements in a trivia application. It was possible to verify that the prototype allows performing actions on the screen with the eyes and at a distance of 50 cm in a satisfactory way in interfaces with square buttons of at least 40 mm on each side.
2024 | |
Seguimiento ocular Accesibilidad Sistema embebido Procesamiento de imágenes Redes neuronales Raspberry Pi 4b Coral Edge TPU |
|
Español | |
Universidad de la República | |
COLIBRI | |
https://hdl.handle.net/20.500.12008/43890 | |
Acceso abierto | |
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
_version_ | 1807523179806064640 |
---|---|
author | Martínez Hornak, Leonardo |
author_facet | Martínez Hornak, Leonardo |
author_role | author |
bitstream.checksum.fl_str_mv | 6429389a7df7277b72b7924fdc7d47a9 a006180e3f5b2ad0b88185d14284c0e0 6d6e490f4468ecf5055a84af48d45653 489f03e71d39068f329bdec8798bce58 802c3989496d5476b64db568960fffa6 |
bitstream.checksumAlgorithm.fl_str_mv | MD5 MD5 MD5 MD5 MD5 |
bitstream.url.fl_str_mv | http://localhost:8080/xmlui/bitstream/20.500.12008/43890/5/license.txt http://localhost:8080/xmlui/bitstream/20.500.12008/43890/2/license_url http://localhost:8080/xmlui/bitstream/20.500.12008/43890/3/license_text http://localhost:8080/xmlui/bitstream/20.500.12008/43890/4/license_rdf http://localhost:8080/xmlui/bitstream/20.500.12008/43890/1/Mar24.pdf |
collection | COLIBRI |
dc.contributor.filiacion.none.fl_str_mv | Martínez Hornak Leonardo, Universidad de la República (Uruguay). Facultad de Ingeniería. |
dc.creator.advisor.none.fl_str_mv | Gómez, Alvaro Capdehourat, Germán |
dc.creator.none.fl_str_mv | Martínez Hornak, Leonardo |
dc.date.accessioned.none.fl_str_mv | 2024-05-22T18:29:50Z |
dc.date.available.none.fl_str_mv | 2024-05-22T18:29:50Z |
dc.date.issued.none.fl_str_mv | 2024 |
dc.description.abstract.none.fl_txt_mv | Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado. Electronic devices, such as laptops and tablets, are massively used for work, entertainment and socializing. The keyboard and mouse set is the most widely used input interface but can present difficulties for people with motor disabilities. Alternative interfaces have been developed in the industry to solve this problem. This is the case of eye trackers that can control devices as if they were a mouse based on eye movements. However, these systems are composed of specialized hardware and software that can be expensive for the general population. Eye-tracking systems can be in the form of frame glasses, be a device that is placed next to the display to be used, or be embedded in the system to be controlled. In the latter case they use the hardware and software resources of the system. They can make use of near-infrared spectrum (NIR) illumination that is not perceived by the user and also provides information regarding the location of the system in the acquired image. This is achieved by capturing with the image sensor the flashes, called glints, produced by the reflection of light on the cornea. Image processing may consist solely of the use of pixel intensity, known as appearance methods. Descriptors other than intensity or mathematical models can also be used. In this work, different gaze estimation techniques focused on embedded systems of modest computational power were analyzed. We worked on the basis of two methods: geometric model and appearance method. The first one requires an accurate estimation of the center of the pupils and glints so that a 3D mathematical model of the eye can be used to estimate the gaze coordinates on the screen. The second uses cutouts of the face, the eyes and the two-dimensional location of the face in the full image. This data is processed with a convolutional neural network. A prototype was developed with a Raspberry Pi 4, an AR1820HS camera, infrared LEDs and a tensor processing unit (Coral TPU). This allowed the development of a dataset consisting of 540 images of ten subjects with fixed calibration pattern and five thousand images of five subjects with random pattern. A real-time evaluation was also performed with ten users under controlled lighting conditions. The prototype was evaluated objectively with 30 seconds of use and 180 images acquired using a nine-point pattern. Each subject was able to evaluate the usability of the prototype subjectively by answering questions with their eye movements in a trivia application. It was possible to verify that the prototype allows performing actions on the screen with the eyes and at a distance of 50 cm in a satisfactory way in interfaces with square buttons of at least 40 mm on each side. |
dc.format.extent.es.fl_str_mv | 119 p. |
dc.format.mimetype.es.fl_str_mv | application/pdf |
dc.identifier.citation.es.fl_str_mv | Martínez Hornak, L. Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2024. |
dc.identifier.issn.none.fl_str_mv | 1688-2806 |
dc.identifier.uri.none.fl_str_mv | https://hdl.handle.net/20.500.12008/43890 |
dc.language.iso.none.fl_str_mv | es spa |
dc.publisher.es.fl_str_mv | Udelar.FI. |
dc.rights.license.none.fl_str_mv | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:COLIBRI instname:Universidad de la República instacron:Universidad de la República |
dc.subject.es.fl_str_mv | Seguimiento ocular Accesibilidad Sistema embebido Procesamiento de imágenes Redes neuronales Raspberry Pi 4b Coral Edge TPU |
dc.title.none.fl_str_mv | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. |
dc.type.es.fl_str_mv | Tesis de maestría |
dc.type.none.fl_str_mv | info:eu-repo/semantics/masterThesis |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/acceptedVersion |
description | Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado. |
eu_rights_str_mv | openAccess |
format | masterThesis |
id | COLIBRI_bcc35827e57854e06ad142978675a984 |
identifier_str_mv | Martínez Hornak, L. Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2024. 1688-2806 |
instacron_str | Universidad de la República |
institution | Universidad de la República |
instname_str | Universidad de la República |
language | spa |
language_invalid_str_mv | es |
network_acronym_str | COLIBRI |
network_name_str | COLIBRI |
oai_identifier_str | oai:colibri.udelar.edu.uy:20.500.12008/43890 |
publishDate | 2024 |
reponame_str | COLIBRI |
repository.mail.fl_str_mv | mabel.seroubian@seciu.edu.uy |
repository.name.fl_str_mv | COLIBRI - Universidad de la República |
repository_id_str | 4771 |
rights_invalid_str_mv | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |
spelling | Martínez Hornak Leonardo, Universidad de la República (Uruguay). Facultad de Ingeniería.2024-05-22T18:29:50Z2024-05-22T18:29:50Z2024Martínez Hornak, L. Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2024.1688-2806https://hdl.handle.net/20.500.12008/43890Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado.Electronic devices, such as laptops and tablets, are massively used for work, entertainment and socializing. The keyboard and mouse set is the most widely used input interface but can present difficulties for people with motor disabilities. Alternative interfaces have been developed in the industry to solve this problem. This is the case of eye trackers that can control devices as if they were a mouse based on eye movements. However, these systems are composed of specialized hardware and software that can be expensive for the general population. Eye-tracking systems can be in the form of frame glasses, be a device that is placed next to the display to be used, or be embedded in the system to be controlled. In the latter case they use the hardware and software resources of the system. They can make use of near-infrared spectrum (NIR) illumination that is not perceived by the user and also provides information regarding the location of the system in the acquired image. This is achieved by capturing with the image sensor the flashes, called glints, produced by the reflection of light on the cornea. Image processing may consist solely of the use of pixel intensity, known as appearance methods. Descriptors other than intensity or mathematical models can also be used. In this work, different gaze estimation techniques focused on embedded systems of modest computational power were analyzed. We worked on the basis of two methods: geometric model and appearance method. The first one requires an accurate estimation of the center of the pupils and glints so that a 3D mathematical model of the eye can be used to estimate the gaze coordinates on the screen. The second uses cutouts of the face, the eyes and the two-dimensional location of the face in the full image. This data is processed with a convolutional neural network. A prototype was developed with a Raspberry Pi 4, an AR1820HS camera, infrared LEDs and a tensor processing unit (Coral TPU). This allowed the development of a dataset consisting of 540 images of ten subjects with fixed calibration pattern and five thousand images of five subjects with random pattern. A real-time evaluation was also performed with ten users under controlled lighting conditions. The prototype was evaluated objectively with 30 seconds of use and 180 images acquired using a nine-point pattern. Each subject was able to evaluate the usability of the prototype subjectively by answering questions with their eye movements in a trivia application. It was possible to verify that the prototype allows performing actions on the screen with the eyes and at a distance of 50 cm in a satisfactory way in interfaces with square buttons of at least 40 mm on each side.Submitted by Ribeiro Jorge (jribeiro@fing.edu.uy) on 2024-05-21T22:53:08Z No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) Mar24.pdf: 54689995 bytes, checksum: 802c3989496d5476b64db568960fffa6 (MD5)Approved for entry into archive by Machado Jimena (jmachado@fing.edu.uy) on 2024-05-22T13:54:25Z (GMT) No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) Mar24.pdf: 54689995 bytes, checksum: 802c3989496d5476b64db568960fffa6 (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2024-05-22T18:29:50Z (GMT). No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) Mar24.pdf: 54689995 bytes, checksum: 802c3989496d5476b64db568960fffa6 (MD5) Previous issue date: 2024119 p.application/pdfesspaUdelar.FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Seguimiento ocularAccesibilidadSistema embebidoProcesamiento de imágenesRedes neuronalesRaspberry Pi 4bCoral Edge TPUTécnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.Tesis de maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaMartínez Hornak, LeonardoGómez, AlvaroCapdehourat, GermánUniversidad de la República (Uruguay). Facultad de Ingeniería.Magíster en Ingeniería EléctricaLICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/43890/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/43890/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-822465http://localhost:8080/xmlui/bitstream/20.500.12008/43890/3/license_text6d6e490f4468ecf5055a84af48d45653MD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-825790http://localhost:8080/xmlui/bitstream/20.500.12008/43890/4/license_rdf489f03e71d39068f329bdec8798bce58MD54ORIGINALMar24.pdfMar24.pdfapplication/pdf54689995http://localhost:8080/xmlui/bitstream/20.500.12008/43890/1/Mar24.pdf802c3989496d5476b64db568960fffa6MD5120.500.12008/438902024-05-22 15:29:50.408oai:colibri.udelar.edu.uy:20.500.12008/43890VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:44:19.647459COLIBRI - Universidad de la Repúblicafalse |
spellingShingle | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. Martínez Hornak, Leonardo Seguimiento ocular Accesibilidad Sistema embebido Procesamiento de imágenes Redes neuronales Raspberry Pi 4b Coral Edge TPU |
status_str | acceptedVersion |
title | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. |
title_full | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. |
title_fullStr | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. |
title_full_unstemmed | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. |
title_short | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. |
title_sort | Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad. |
topic | Seguimiento ocular Accesibilidad Sistema embebido Procesamiento de imágenes Redes neuronales Raspberry Pi 4b Coral Edge TPU |
url | https://hdl.handle.net/20.500.12008/43890 |