Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.

Martínez Hornak, Leonardo

Supervisor(es): Gómez, Alvaro - Capdehourat, Germán

Resumen:

Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado.


Electronic devices, such as laptops and tablets, are massively used for work, entertainment and socializing. The keyboard and mouse set is the most widely used input interface but can present difficulties for people with motor disabilities. Alternative interfaces have been developed in the industry to solve this problem. This is the case of eye trackers that can control devices as if they were a mouse based on eye movements. However, these systems are composed of specialized hardware and software that can be expensive for the general population. Eye-tracking systems can be in the form of frame glasses, be a device that is placed next to the display to be used, or be embedded in the system to be controlled. In the latter case they use the hardware and software resources of the system. They can make use of near-infrared spectrum (NIR) illumination that is not perceived by the user and also provides information regarding the location of the system in the acquired image. This is achieved by capturing with the image sensor the flashes, called glints, produced by the reflection of light on the cornea. Image processing may consist solely of the use of pixel intensity, known as appearance methods. Descriptors other than intensity or mathematical models can also be used. In this work, different gaze estimation techniques focused on embedded systems of modest computational power were analyzed. We worked on the basis of two methods: geometric model and appearance method. The first one requires an accurate estimation of the center of the pupils and glints so that a 3D mathematical model of the eye can be used to estimate the gaze coordinates on the screen. The second uses cutouts of the face, the eyes and the two-dimensional location of the face in the full image. This data is processed with a convolutional neural network. A prototype was developed with a Raspberry Pi 4, an AR1820HS camera, infrared LEDs and a tensor processing unit (Coral TPU). This allowed the development of a dataset consisting of 540 images of ten subjects with fixed calibration pattern and five thousand images of five subjects with random pattern. A real-time evaluation was also performed with ten users under controlled lighting conditions. The prototype was evaluated objectively with 30 seconds of use and 180 images acquired using a nine-point pattern. Each subject was able to evaluate the usability of the prototype subjectively by answering questions with their eye movements in a trivia application. It was possible to verify that the prototype allows performing actions on the screen with the eyes and at a distance of 50 cm in a satisfactory way in interfaces with square buttons of at least 40 mm on each side.


Detalles Bibliográficos
2024
Seguimiento ocular
Accesibilidad
Sistema embebido
Procesamiento de imágenes
Redes neuronales
Raspberry Pi 4b
Coral Edge TPU
Español
Universidad de la República
COLIBRI
https://hdl.handle.net/20.500.12008/43890
Acceso abierto
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
_version_ 1807523179806064640
author Martínez Hornak, Leonardo
author_facet Martínez Hornak, Leonardo
author_role author
bitstream.checksum.fl_str_mv 6429389a7df7277b72b7924fdc7d47a9
a006180e3f5b2ad0b88185d14284c0e0
6d6e490f4468ecf5055a84af48d45653
489f03e71d39068f329bdec8798bce58
802c3989496d5476b64db568960fffa6
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
bitstream.url.fl_str_mv http://localhost:8080/xmlui/bitstream/20.500.12008/43890/5/license.txt
http://localhost:8080/xmlui/bitstream/20.500.12008/43890/2/license_url
http://localhost:8080/xmlui/bitstream/20.500.12008/43890/3/license_text
http://localhost:8080/xmlui/bitstream/20.500.12008/43890/4/license_rdf
http://localhost:8080/xmlui/bitstream/20.500.12008/43890/1/Mar24.pdf
collection COLIBRI
dc.contributor.filiacion.none.fl_str_mv Martínez Hornak Leonardo, Universidad de la República (Uruguay). Facultad de Ingeniería.
dc.creator.advisor.none.fl_str_mv Gómez, Alvaro
Capdehourat, Germán
dc.creator.none.fl_str_mv Martínez Hornak, Leonardo
dc.date.accessioned.none.fl_str_mv 2024-05-22T18:29:50Z
dc.date.available.none.fl_str_mv 2024-05-22T18:29:50Z
dc.date.issued.none.fl_str_mv 2024
dc.description.abstract.none.fl_txt_mv Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado.
Electronic devices, such as laptops and tablets, are massively used for work, entertainment and socializing. The keyboard and mouse set is the most widely used input interface but can present difficulties for people with motor disabilities. Alternative interfaces have been developed in the industry to solve this problem. This is the case of eye trackers that can control devices as if they were a mouse based on eye movements. However, these systems are composed of specialized hardware and software that can be expensive for the general population. Eye-tracking systems can be in the form of frame glasses, be a device that is placed next to the display to be used, or be embedded in the system to be controlled. In the latter case they use the hardware and software resources of the system. They can make use of near-infrared spectrum (NIR) illumination that is not perceived by the user and also provides information regarding the location of the system in the acquired image. This is achieved by capturing with the image sensor the flashes, called glints, produced by the reflection of light on the cornea. Image processing may consist solely of the use of pixel intensity, known as appearance methods. Descriptors other than intensity or mathematical models can also be used. In this work, different gaze estimation techniques focused on embedded systems of modest computational power were analyzed. We worked on the basis of two methods: geometric model and appearance method. The first one requires an accurate estimation of the center of the pupils and glints so that a 3D mathematical model of the eye can be used to estimate the gaze coordinates on the screen. The second uses cutouts of the face, the eyes and the two-dimensional location of the face in the full image. This data is processed with a convolutional neural network. A prototype was developed with a Raspberry Pi 4, an AR1820HS camera, infrared LEDs and a tensor processing unit (Coral TPU). This allowed the development of a dataset consisting of 540 images of ten subjects with fixed calibration pattern and five thousand images of five subjects with random pattern. A real-time evaluation was also performed with ten users under controlled lighting conditions. The prototype was evaluated objectively with 30 seconds of use and 180 images acquired using a nine-point pattern. Each subject was able to evaluate the usability of the prototype subjectively by answering questions with their eye movements in a trivia application. It was possible to verify that the prototype allows performing actions on the screen with the eyes and at a distance of 50 cm in a satisfactory way in interfaces with square buttons of at least 40 mm on each side.
dc.format.extent.es.fl_str_mv 119 p.
dc.format.mimetype.es.fl_str_mv application/pdf
dc.identifier.citation.es.fl_str_mv Martínez Hornak, L. Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2024.
dc.identifier.issn.none.fl_str_mv 1688-2806
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12008/43890
dc.language.iso.none.fl_str_mv es
spa
dc.publisher.es.fl_str_mv Udelar.FI.
dc.rights.license.none.fl_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:COLIBRI
instname:Universidad de la República
instacron:Universidad de la República
dc.subject.es.fl_str_mv Seguimiento ocular
Accesibilidad
Sistema embebido
Procesamiento de imágenes
Redes neuronales
Raspberry Pi 4b
Coral Edge TPU
dc.title.none.fl_str_mv Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
dc.type.es.fl_str_mv Tesis de maestría
dc.type.none.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
description Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado.
eu_rights_str_mv openAccess
format masterThesis
id COLIBRI_bcc35827e57854e06ad142978675a984
identifier_str_mv Martínez Hornak, L. Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2024.
1688-2806
instacron_str Universidad de la República
institution Universidad de la República
instname_str Universidad de la República
language spa
language_invalid_str_mv es
network_acronym_str COLIBRI
network_name_str COLIBRI
oai_identifier_str oai:colibri.udelar.edu.uy:20.500.12008/43890
publishDate 2024
reponame_str COLIBRI
repository.mail.fl_str_mv mabel.seroubian@seciu.edu.uy
repository.name.fl_str_mv COLIBRI - Universidad de la República
repository_id_str 4771
rights_invalid_str_mv Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)
spelling Martínez Hornak Leonardo, Universidad de la República (Uruguay). Facultad de Ingeniería.2024-05-22T18:29:50Z2024-05-22T18:29:50Z2024Martínez Hornak, L. Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad [en línea]. Tesis de maestría. Montevideo : Udelar. FI. IIE, 2024.1688-2806https://hdl.handle.net/20.500.12008/43890Dispositivos electrónicos, como laptops y tablets, se utilizan masivamente para trabajar, divertirse y socializar. El conjunto teclado y mouse es la interfaz de entrada más utilizada pero puede presentar dificultades para personas con discapacidad motriz. Se han desarrollado en la industria interfaces alternativas que resolverían esta problemática. Este es el caso de los seguidores oculares que a partir del movimiento de los ojos pueden controlar dispositivos como si fueran un mouse. De todas formas, estos sistemas están compuestos de hardware y software especializado que puede resultar caro para la población general. Los sistemas de seguimiento ocular pueden tener la forma de lentes de armazón, ser un dispositivo que se coloca al lado de la pantalla a utilizar o estar embebidos en el sistema a controlar. En este último caso utilizan los recursos de hardware y software del sistema. Pueden hacer uso de iluminación con espectro cercano al infrarrojo (NIR) que no es percibida por el usuario y además brinda información relativa a la ubicación del sistema en la imagen adquirida. Esto se logra capturando con el sensor de imagen los destellos, denominados glints, producidos por la reflexión de la luz en la córnea. El procesamiento de las imágenes puede consistir únicamente en el uso de la intensidad de los píxeles, conocidos como métodos de apariencia. También se pueden utilizar otros descriptores, aparte de la intensidad, o modelos matemáticos. En este trabajo se analizaron distintas técnicas de estimación de mirada enfocadas en sistemas embebidos de poder computacional modesto. Se trabajó en base a dos métodos : modelo geométrico y método de apariencia. El primero necesita una estimación precisa del centro de las pupilas y de los glints para que con un modelo matemático 3D del ojo se pueda estimar las coordenadas de la mirada en la pantalla. El segundo utiliza recortes de la cara, los ojos y la ubicación en dos dimensiones de la cara en la imagen completa. Estos datos son procesados con una red neuronal convolucional. Se desarrolló un prototipo con un Raspberry Pi 4, una cámara AR1820HS, LEDs infrarrojos y un acelerador de operaciones de tensores (TPU de Coral). Esto permitió elaborar un conjunto de datos que consiste en 540 imágenes de diez sujetos con patrón de calibración fijo y cinco mil imágenes de cinco sujetos con patrón aleatorio. Se realizó además una evaluación en tiempo real con diez usuarios en condiciones de iluminación controlada. Se evaluó el prototipo de forma objetiva con 30 segundos de uso y 180 imágenes adquiridas utilizando un patrón de nueve puntos. Cada sujeto pudo evaluar la usabilidad del prototipo de forma subjetiva contestando preguntas con el movimiento de sus ojos en una aplicación de trivia. Se pudo comprobar que el prototipo permite realizar acciones en la pantalla con los ojos y a 50 cm de distancia de forma satisfactoria en interfaces con botones cuadrados de al menos 40 mm de lado.Electronic devices, such as laptops and tablets, are massively used for work, entertainment and socializing. The keyboard and mouse set is the most widely used input interface but can present difficulties for people with motor disabilities. Alternative interfaces have been developed in the industry to solve this problem. This is the case of eye trackers that can control devices as if they were a mouse based on eye movements. However, these systems are composed of specialized hardware and software that can be expensive for the general population. Eye-tracking systems can be in the form of frame glasses, be a device that is placed next to the display to be used, or be embedded in the system to be controlled. In the latter case they use the hardware and software resources of the system. They can make use of near-infrared spectrum (NIR) illumination that is not perceived by the user and also provides information regarding the location of the system in the acquired image. This is achieved by capturing with the image sensor the flashes, called glints, produced by the reflection of light on the cornea. Image processing may consist solely of the use of pixel intensity, known as appearance methods. Descriptors other than intensity or mathematical models can also be used. In this work, different gaze estimation techniques focused on embedded systems of modest computational power were analyzed. We worked on the basis of two methods: geometric model and appearance method. The first one requires an accurate estimation of the center of the pupils and glints so that a 3D mathematical model of the eye can be used to estimate the gaze coordinates on the screen. The second uses cutouts of the face, the eyes and the two-dimensional location of the face in the full image. This data is processed with a convolutional neural network. A prototype was developed with a Raspberry Pi 4, an AR1820HS camera, infrared LEDs and a tensor processing unit (Coral TPU). This allowed the development of a dataset consisting of 540 images of ten subjects with fixed calibration pattern and five thousand images of five subjects with random pattern. A real-time evaluation was also performed with ten users under controlled lighting conditions. The prototype was evaluated objectively with 30 seconds of use and 180 images acquired using a nine-point pattern. Each subject was able to evaluate the usability of the prototype subjectively by answering questions with their eye movements in a trivia application. It was possible to verify that the prototype allows performing actions on the screen with the eyes and at a distance of 50 cm in a satisfactory way in interfaces with square buttons of at least 40 mm on each side.Submitted by Ribeiro Jorge (jribeiro@fing.edu.uy) on 2024-05-21T22:53:08Z No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) Mar24.pdf: 54689995 bytes, checksum: 802c3989496d5476b64db568960fffa6 (MD5)Approved for entry into archive by Machado Jimena (jmachado@fing.edu.uy) on 2024-05-22T13:54:25Z (GMT) No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) Mar24.pdf: 54689995 bytes, checksum: 802c3989496d5476b64db568960fffa6 (MD5)Made available in DSpace by Luna Fabiana (fabiana.luna@seciu.edu.uy) on 2024-05-22T18:29:50Z (GMT). No. of bitstreams: 2 license_rdf: 25790 bytes, checksum: 489f03e71d39068f329bdec8798bce58 (MD5) Mar24.pdf: 54689995 bytes, checksum: 802c3989496d5476b64db568960fffa6 (MD5) Previous issue date: 2024119 p.application/pdfesspaUdelar.FI.Las obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)Seguimiento ocularAccesibilidadSistema embebidoProcesamiento de imágenesRedes neuronalesRaspberry Pi 4bCoral Edge TPUTécnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.Tesis de maestríainfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaMartínez Hornak, LeonardoGómez, AlvaroCapdehourat, GermánUniversidad de la República (Uruguay). Facultad de Ingeniería.Magíster en Ingeniería EléctricaLICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/43890/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-850http://localhost:8080/xmlui/bitstream/20.500.12008/43890/2/license_urla006180e3f5b2ad0b88185d14284c0e0MD52license_textlicense_texttext/html; charset=utf-822465http://localhost:8080/xmlui/bitstream/20.500.12008/43890/3/license_text6d6e490f4468ecf5055a84af48d45653MD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-825790http://localhost:8080/xmlui/bitstream/20.500.12008/43890/4/license_rdf489f03e71d39068f329bdec8798bce58MD54ORIGINALMar24.pdfMar24.pdfapplication/pdf54689995http://localhost:8080/xmlui/bitstream/20.500.12008/43890/1/Mar24.pdf802c3989496d5476b64db568960fffa6MD5120.500.12008/438902024-05-22 15:29:50.408oai:colibri.udelar.edu.uy:20.500.12008/43890VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:44:19.647459COLIBRI - Universidad de la Repúblicafalse
spellingShingle Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
Martínez Hornak, Leonardo
Seguimiento ocular
Accesibilidad
Sistema embebido
Procesamiento de imágenes
Redes neuronales
Raspberry Pi 4b
Coral Edge TPU
status_str acceptedVersion
title Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
title_full Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
title_fullStr Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
title_full_unstemmed Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
title_short Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
title_sort Técnicas de seguimiento ocular y desarrollo de prototipo para accesibilidad.
topic Seguimiento ocular
Accesibilidad
Sistema embebido
Procesamiento de imágenes
Redes neuronales
Raspberry Pi 4b
Coral Edge TPU
url https://hdl.handle.net/20.500.12008/43890