Generador automático de índices en videos
Supervisor(es): López, Antonio
Resumen:
Cuando una persona quiere localizar cierto contenido en un libro, recurre a su índice sin dudarlo; sería algo poco común que alguien recorriera página por página hasta encontrar lo que busca. Sin embargo, al pensar en un video, resulta normal tener que recorrer su línea de tiempo para ubicar el momento que se quiere ver. Por otro lado, teniendo en cuenta el enorme crecimiento de las plataformas de videos actuales, se torna inviable identificar los momentos de interés de forma manual para la gran cantidad de videos disponibles. Hoy en día, el amplio desarrollo en el campo de la inteligencia artificial permite que una máquina imite las funciones cognitivas de los humanos, como aprender o resolver problemas. En particular, existen herramientas que logran reconocer el contenido de videos, imágenes y audio. Esta tarea de reconocimiento es precisamente la que una persona deberá ejecutar manualmente para la creación de un índice. Este proyecto persigue justamente ese objetivo, emular lo que un humano haría a la hora de construir un índice para un video, con la ventaja de realizarlo de forma automática. En consecuencia, se desarrolla un prototipo de software que analiza videos en busca de objetos, personas, acciones, lugares, diálogos y toda clase de información que pueda ser de interés para un usuario. Todo esto, consumiendo servicios provistos por gigantes de la industria tales como Google o Amazon. Con la información obtenida se produce un conjunto de etiquetas asociadas a instantes de tiempo en el video, conformando así, un índice. Adicionalmente, se implementan mecanismos que pretenden elevar la calidad de las etiquetas generadas. Esto se hace, en primer lugar, a través del filtrado de aquellas que son intrascendentes o erróneas. Sumado a esto, se utiliza el servicio de búsquedas de Google para determinar la relevancia de una etiqueta en base a la cantidad de resultados obtenidos para su búsqueda, descartando las que retornen pocos resultados. Por último, se busca fortalecer el prototipo utilizando la retroalimentación de los usuarios. Estos pueden indicarle al sistema las etiquetas que le resulten más interesantes para cierta categoría de video y así, se dejan sentadas las bases para explotar esta información en trabajos a futuro. Finalmente, los resultados obtenidos reflejan que el objetivo de crear índices para videos de forma automática se cumplió satisfactoriamente. La combinación y el procesamiento adecuado de la información adquirida permite identificar etiquetas que resultan útiles a la hora de explorar el contenido de un video. Luego, las aplicaciones que consuman estos resultados podrán presentar los índices para que los usuarios se sirvan de ellos. Asimismo, se detecta un gran potencial para la expansión del prototipo con el fin de enriquecer las etiquetas que forman parte de los índices.
2018 | |
Video Indice INTELIGENCIA ARTIFICIAL |
|
Español | |
Universidad de la República | |
COLIBRI | |
http://hdl.handle.net/20.500.12008/18530 | |
Acceso abierto | |
Licencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND) |
_version_ | 1807523223515955200 |
---|---|
author | Campiotti, María Jimena |
author2 | Oyharzabal, Leonardo Schiaffino, Bruno Taboas, María Belén |
author2_role | author author author |
author_facet | Campiotti, María Jimena Oyharzabal, Leonardo Schiaffino, Bruno Taboas, María Belén |
author_role | author |
bitstream.checksum.fl_str_mv | 6429389a7df7277b72b7924fdc7d47a9 4afdbb8c545fd630ea7db775da747b2f d41d8cd98f00b204e9800998ecf8427e d41d8cd98f00b204e9800998ecf8427e cd81ed2f240dffe1e34489cee87f4090 |
bitstream.checksumAlgorithm.fl_str_mv | MD5 MD5 MD5 MD5 MD5 |
bitstream.url.fl_str_mv | http://localhost:8080/xmlui/bitstream/20.500.12008/18530/5/license.txt http://localhost:8080/xmlui/bitstream/20.500.12008/18530/2/license_url http://localhost:8080/xmlui/bitstream/20.500.12008/18530/3/license_text http://localhost:8080/xmlui/bitstream/20.500.12008/18530/4/license_rdf http://localhost:8080/xmlui/bitstream/20.500.12008/18530/1/tg-campiotti.pdf |
collection | COLIBRI |
dc.contributor.filiacion.none.fl_str_mv | Campiotti María Jimena, Universidad de la República (Uruguay). Facultad de Ingeniería Oyharzabal Leonardo, Universidad de la República (Uruguay). Facultad de Ingeniería Schiaffino Bruno, Universidad de la República (Uruguay). Facultad de Ingeniería Taboas María Belén, Universidad de la República (Uruguay). Facultad de Ingeniería |
dc.creator.advisor.none.fl_str_mv | López, Antonio |
dc.creator.none.fl_str_mv | Campiotti, María Jimena Oyharzabal, Leonardo Schiaffino, Bruno Taboas, María Belén |
dc.date.accessioned.none.fl_str_mv | 2018-10-26T20:05:59Z |
dc.date.available.none.fl_str_mv | 2018-10-26T20:05:59Z |
dc.date.issued.none.fl_str_mv | 2018 |
dc.description.abstract.none.fl_txt_mv | Cuando una persona quiere localizar cierto contenido en un libro, recurre a su índice sin dudarlo; sería algo poco común que alguien recorriera página por página hasta encontrar lo que busca. Sin embargo, al pensar en un video, resulta normal tener que recorrer su línea de tiempo para ubicar el momento que se quiere ver. Por otro lado, teniendo en cuenta el enorme crecimiento de las plataformas de videos actuales, se torna inviable identificar los momentos de interés de forma manual para la gran cantidad de videos disponibles. Hoy en día, el amplio desarrollo en el campo de la inteligencia artificial permite que una máquina imite las funciones cognitivas de los humanos, como aprender o resolver problemas. En particular, existen herramientas que logran reconocer el contenido de videos, imágenes y audio. Esta tarea de reconocimiento es precisamente la que una persona deberá ejecutar manualmente para la creación de un índice. Este proyecto persigue justamente ese objetivo, emular lo que un humano haría a la hora de construir un índice para un video, con la ventaja de realizarlo de forma automática. En consecuencia, se desarrolla un prototipo de software que analiza videos en busca de objetos, personas, acciones, lugares, diálogos y toda clase de información que pueda ser de interés para un usuario. Todo esto, consumiendo servicios provistos por gigantes de la industria tales como Google o Amazon. Con la información obtenida se produce un conjunto de etiquetas asociadas a instantes de tiempo en el video, conformando así, un índice. Adicionalmente, se implementan mecanismos que pretenden elevar la calidad de las etiquetas generadas. Esto se hace, en primer lugar, a través del filtrado de aquellas que son intrascendentes o erróneas. Sumado a esto, se utiliza el servicio de búsquedas de Google para determinar la relevancia de una etiqueta en base a la cantidad de resultados obtenidos para su búsqueda, descartando las que retornen pocos resultados. Por último, se busca fortalecer el prototipo utilizando la retroalimentación de los usuarios. Estos pueden indicarle al sistema las etiquetas que le resulten más interesantes para cierta categoría de video y así, se dejan sentadas las bases para explotar esta información en trabajos a futuro. Finalmente, los resultados obtenidos reflejan que el objetivo de crear índices para videos de forma automática se cumplió satisfactoriamente. La combinación y el procesamiento adecuado de la información adquirida permite identificar etiquetas que resultan útiles a la hora de explorar el contenido de un video. Luego, las aplicaciones que consuman estos resultados podrán presentar los índices para que los usuarios se sirvan de ellos. Asimismo, se detecta un gran potencial para la expansión del prototipo con el fin de enriquecer las etiquetas que forman parte de los índices. |
dc.format.extent.es.fl_str_mv | 159 p. |
dc.format.mimetype.en.fl_str_mv | application/pdf |
dc.identifier.citation.es.fl_str_mv | Campiotti, M, Oyharzabal, L, Schiaffino, B y Taboas, M. Generador automático de índices en videos [en línea] Tesis de grado. Universidad de la República (Uruguay). Facultad de Ingeniería, 2018 |
dc.identifier.uri.none.fl_str_mv | http://hdl.handle.net/20.500.12008/18530 |
dc.language.iso.none.fl_str_mv | es spa |
dc.publisher.es.fl_str_mv | UR.FI.INCO |
dc.rights.license.none.fl_str_mv | Licencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND) |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:COLIBRI instname:Universidad de la República instacron:Universidad de la República |
dc.subject.es.fl_str_mv | Video Indice |
dc.subject.other.es.fl_str_mv | INTELIGENCIA ARTIFICIAL |
dc.title.none.fl_str_mv | Generador automático de índices en videos |
dc.type.es.fl_str_mv | Tesis de grado |
dc.type.none.fl_str_mv | info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/acceptedVersion |
description | Cuando una persona quiere localizar cierto contenido en un libro, recurre a su índice sin dudarlo; sería algo poco común que alguien recorriera página por página hasta encontrar lo que busca. Sin embargo, al pensar en un video, resulta normal tener que recorrer su línea de tiempo para ubicar el momento que se quiere ver. Por otro lado, teniendo en cuenta el enorme crecimiento de las plataformas de videos actuales, se torna inviable identificar los momentos de interés de forma manual para la gran cantidad de videos disponibles. Hoy en día, el amplio desarrollo en el campo de la inteligencia artificial permite que una máquina imite las funciones cognitivas de los humanos, como aprender o resolver problemas. En particular, existen herramientas que logran reconocer el contenido de videos, imágenes y audio. Esta tarea de reconocimiento es precisamente la que una persona deberá ejecutar manualmente para la creación de un índice. Este proyecto persigue justamente ese objetivo, emular lo que un humano haría a la hora de construir un índice para un video, con la ventaja de realizarlo de forma automática. En consecuencia, se desarrolla un prototipo de software que analiza videos en busca de objetos, personas, acciones, lugares, diálogos y toda clase de información que pueda ser de interés para un usuario. Todo esto, consumiendo servicios provistos por gigantes de la industria tales como Google o Amazon. Con la información obtenida se produce un conjunto de etiquetas asociadas a instantes de tiempo en el video, conformando así, un índice. Adicionalmente, se implementan mecanismos que pretenden elevar la calidad de las etiquetas generadas. Esto se hace, en primer lugar, a través del filtrado de aquellas que son intrascendentes o erróneas. Sumado a esto, se utiliza el servicio de búsquedas de Google para determinar la relevancia de una etiqueta en base a la cantidad de resultados obtenidos para su búsqueda, descartando las que retornen pocos resultados. Por último, se busca fortalecer el prototipo utilizando la retroalimentación de los usuarios. Estos pueden indicarle al sistema las etiquetas que le resulten más interesantes para cierta categoría de video y así, se dejan sentadas las bases para explotar esta información en trabajos a futuro. Finalmente, los resultados obtenidos reflejan que el objetivo de crear índices para videos de forma automática se cumplió satisfactoriamente. La combinación y el procesamiento adecuado de la información adquirida permite identificar etiquetas que resultan útiles a la hora de explorar el contenido de un video. Luego, las aplicaciones que consuman estos resultados podrán presentar los índices para que los usuarios se sirvan de ellos. Asimismo, se detecta un gran potencial para la expansión del prototipo con el fin de enriquecer las etiquetas que forman parte de los índices. |
eu_rights_str_mv | openAccess |
format | bachelorThesis |
id | COLIBRI_19c799e6506e0f58b04f59065f63d752 |
identifier_str_mv | Campiotti, M, Oyharzabal, L, Schiaffino, B y Taboas, M. Generador automático de índices en videos [en línea] Tesis de grado. Universidad de la República (Uruguay). Facultad de Ingeniería, 2018 |
instacron_str | Universidad de la República |
institution | Universidad de la República |
instname_str | Universidad de la República |
language | spa |
language_invalid_str_mv | es |
network_acronym_str | COLIBRI |
network_name_str | COLIBRI |
oai_identifier_str | oai:colibri.udelar.edu.uy:20.500.12008/18530 |
publishDate | 2018 |
reponame_str | COLIBRI |
repository.mail.fl_str_mv | mabel.seroubian@seciu.edu.uy |
repository.name.fl_str_mv | COLIBRI - Universidad de la República |
repository_id_str | 4771 |
rights_invalid_str_mv | Licencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND) |
spelling | Campiotti María Jimena, Universidad de la República (Uruguay). Facultad de IngenieríaOyharzabal Leonardo, Universidad de la República (Uruguay). Facultad de IngenieríaSchiaffino Bruno, Universidad de la República (Uruguay). Facultad de IngenieríaTaboas María Belén, Universidad de la República (Uruguay). Facultad de Ingeniería2018-10-26T20:05:59Z2018-10-26T20:05:59Z2018Campiotti, M, Oyharzabal, L, Schiaffino, B y Taboas, M. Generador automático de índices en videos [en línea] Tesis de grado. Universidad de la República (Uruguay). Facultad de Ingeniería, 2018http://hdl.handle.net/20.500.12008/18530Cuando una persona quiere localizar cierto contenido en un libro, recurre a su índice sin dudarlo; sería algo poco común que alguien recorriera página por página hasta encontrar lo que busca. Sin embargo, al pensar en un video, resulta normal tener que recorrer su línea de tiempo para ubicar el momento que se quiere ver. Por otro lado, teniendo en cuenta el enorme crecimiento de las plataformas de videos actuales, se torna inviable identificar los momentos de interés de forma manual para la gran cantidad de videos disponibles. Hoy en día, el amplio desarrollo en el campo de la inteligencia artificial permite que una máquina imite las funciones cognitivas de los humanos, como aprender o resolver problemas. En particular, existen herramientas que logran reconocer el contenido de videos, imágenes y audio. Esta tarea de reconocimiento es precisamente la que una persona deberá ejecutar manualmente para la creación de un índice. Este proyecto persigue justamente ese objetivo, emular lo que un humano haría a la hora de construir un índice para un video, con la ventaja de realizarlo de forma automática. En consecuencia, se desarrolla un prototipo de software que analiza videos en busca de objetos, personas, acciones, lugares, diálogos y toda clase de información que pueda ser de interés para un usuario. Todo esto, consumiendo servicios provistos por gigantes de la industria tales como Google o Amazon. Con la información obtenida se produce un conjunto de etiquetas asociadas a instantes de tiempo en el video, conformando así, un índice. Adicionalmente, se implementan mecanismos que pretenden elevar la calidad de las etiquetas generadas. Esto se hace, en primer lugar, a través del filtrado de aquellas que son intrascendentes o erróneas. Sumado a esto, se utiliza el servicio de búsquedas de Google para determinar la relevancia de una etiqueta en base a la cantidad de resultados obtenidos para su búsqueda, descartando las que retornen pocos resultados. Por último, se busca fortalecer el prototipo utilizando la retroalimentación de los usuarios. Estos pueden indicarle al sistema las etiquetas que le resulten más interesantes para cierta categoría de video y así, se dejan sentadas las bases para explotar esta información en trabajos a futuro. Finalmente, los resultados obtenidos reflejan que el objetivo de crear índices para videos de forma automática se cumplió satisfactoriamente. La combinación y el procesamiento adecuado de la información adquirida permite identificar etiquetas que resultan útiles a la hora de explorar el contenido de un video. Luego, las aplicaciones que consuman estos resultados podrán presentar los índices para que los usuarios se sirvan de ellos. Asimismo, se detecta un gran potencial para la expansión del prototipo con el fin de enriquecer las etiquetas que forman parte de los índices.Submitted by Seroubian Mabel (mabel.seroubian@seciu.edu.uy) on 2018-10-26T20:05:59Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) tg-campiotti.pdf: 11740834 bytes, checksum: cd81ed2f240dffe1e34489cee87f4090 (MD5)Made available in DSpace on 2018-10-26T20:05:59Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) tg-campiotti.pdf: 11740834 bytes, checksum: cd81ed2f240dffe1e34489cee87f4090 (MD5) Previous issue date: 2018159 p.application/pdfesspaUR.FI.INCOLas obras depositadas en el Repositorio se rigen por la Ordenanza de los Derechos de la Propiedad Intelectual de la Universidad de la República.(Res. Nº 91 de C.D.C. de 8/III/1994 – D.O. 7/IV/1994) y por la Ordenanza del Repositorio Abierto de la Universidad de la República (Res. Nº 16 de C.D.C. de 07/10/2014)info:eu-repo/semantics/openAccessLicencia Creative Commons Atribución – No Comercial – Sin Derivadas (CC - By-NC-ND)VideoIndiceINTELIGENCIA ARTIFICIALGenerador automático de índices en videosTesis de gradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionreponame:COLIBRIinstname:Universidad de la Repúblicainstacron:Universidad de la RepúblicaCampiotti, María JimenaOyharzabal, LeonardoSchiaffino, BrunoTaboas, María BelénLópez, AntonioUniversidad de la República (Uruguay). Facultad de IngenieríaIngeniero en ComputaciónLICENSElicense.txtlicense.txttext/plain; charset=utf-84267http://localhost:8080/xmlui/bitstream/20.500.12008/18530/5/license.txt6429389a7df7277b72b7924fdc7d47a9MD55CC-LICENSElicense_urllicense_urltext/plain; charset=utf-849http://localhost:8080/xmlui/bitstream/20.500.12008/18530/2/license_url4afdbb8c545fd630ea7db775da747b2fMD52license_textlicense_texttext/html; charset=utf-80http://localhost:8080/xmlui/bitstream/20.500.12008/18530/3/license_textd41d8cd98f00b204e9800998ecf8427eMD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-80http://localhost:8080/xmlui/bitstream/20.500.12008/18530/4/license_rdfd41d8cd98f00b204e9800998ecf8427eMD54ORIGINALtg-campiotti.pdftg-campiotti.pdfapplication/pdf11740834http://localhost:8080/xmlui/bitstream/20.500.12008/18530/1/tg-campiotti.pdfcd81ed2f240dffe1e34489cee87f4090MD5120.500.12008/185302024-04-12 14:06:40.24oai:colibri.udelar.edu.uy:20.500.12008/18530VGVybWlub3MgeSBjb25kaWNpb25lcyByZWxhdGl2YXMgYWwgZGVwb3NpdG8gZGUgb2JyYXMKCgpMYXMgb2JyYXMgZGVwb3NpdGFkYXMgZW4gZWwgUmVwb3NpdG9yaW8gc2UgcmlnZW4gcG9yIGxhIE9yZGVuYW56YSBkZSBsb3MgRGVyZWNob3MgZGUgbGEgUHJvcGllZGFkIEludGVsZWN0dWFsICBkZSBsYSBVbml2ZXJzaWRhZCBEZSBMYSBSZXDDumJsaWNhLiAoUmVzLiBOwrogOTEgZGUgQy5ELkMuIGRlIDgvSUlJLzE5OTQg4oCTIEQuTy4gNy9JVi8xOTk0KSB5ICBwb3IgbGEgT3JkZW5hbnphIGRlbCBSZXBvc2l0b3JpbyBBYmllcnRvIGRlIGxhIFVuaXZlcnNpZGFkIGRlIGxhIFJlcMO6YmxpY2EgKFJlcy4gTsK6IDE2IGRlIEMuRC5DLiBkZSAwNy8xMC8yMDE0KS4gCgpBY2VwdGFuZG8gZWwgYXV0b3IgZXN0b3MgdMOpcm1pbm9zIHkgY29uZGljaW9uZXMgZGUgZGVww7NzaXRvIGVuIENPTElCUkksIGxhIFVuaXZlcnNpZGFkIGRlIFJlcMO6YmxpY2EgcHJvY2VkZXLDoSBhOiAgCgphKSBhcmNoaXZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBsYSBvYnJhIGVuIGxvcyBzZXJ2aWRvcmVzIGRlIGxhIFVuaXZlcnNpZGFkIGEgbG9zIGVmZWN0b3MgZGUgZ2FyYW50aXphciBhY2Nlc28sIHNlZ3VyaWRhZCB5IHByZXNlcnZhY2nDs24KYikgY29udmVydGlyIGxhIG9icmEgYSBvdHJvcyBmb3JtYXRvcyBzaSBmdWVyYSBuZWNlc2FyaW8gIHBhcmEgZmFjaWxpdGFyIHN1IHByZXNlcnZhY2nDs24geSBhY2Nlc2liaWxpZGFkIHNpbiBhbHRlcmFyIHN1IGNvbnRlbmlkby4KYykgcmVhbGl6YXIgbGEgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGRpc3BvbmVyIGVsIGFjY2VzbyBsaWJyZSB5IGdyYXR1aXRvIGEgdHJhdsOpcyBkZSBJbnRlcm5ldCBtZWRpYW50ZSBsYSBwdWJsaWNhY2nDs24gZGUgbGEgb2JyYSBiYWpvIGxhIGxpY2VuY2lhIENyZWF0aXZlIENvbW1vbnMgc2VsZWNjaW9uYWRhIHBvciBlbCBwcm9waW8gYXV0b3IuCgoKRW4gY2FzbyBxdWUgZWwgYXV0b3IgaGF5YSBkaWZ1bmRpZG8geSBkYWRvIGEgcHVibGljaWRhZCBhIGxhIG9icmEgZW4gZm9ybWEgcHJldmlhLCAgcG9kcsOhIHNvbGljaXRhciB1biBwZXLDrW9kbyBkZSBlbWJhcmdvIHNvYnJlIGxhIGRpc3BvbmliaWxpZGFkIHDDumJsaWNhIGRlIGxhIG1pc21hLCBlbCBjdWFsIGNvbWVuemFyw6EgYSBwYXJ0aXIgZGUgbGEgYWNlcHRhY2nDs24gZGUgZXN0ZSBkb2N1bWVudG8geSBoYXN0YSBsYSBmZWNoYSBxdWUgaW5kaXF1ZSAuCgpFbCBhdXRvciBhc2VndXJhIHF1ZSBsYSBvYnJhIG5vIGluZnJpZ2UgbmluZ8O6biBkZXJlY2hvIHNvYnJlIHRlcmNlcm9zLCB5YSBzZWEgZGUgcHJvcGllZGFkIGludGVsZWN0dWFsIG8gY3VhbHF1aWVyIG90cm8uCgpFbCBhdXRvciBnYXJhbnRpemEgcXVlIHNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCAgaGEgb2J0ZW5pZG8gZWwgcGVybWlzbyBkZWwgcHJvcGlldGFyaW8gZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCB5IHF1ZSBlc2UgbWF0ZXJpYWwgY3V5b3MgZGVyZWNob3Mgc29uIGRlIHRlcmNlcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIHkgcmVjb25vY2lkbyBlbiBlbCB0ZXh0byBvIGNvbnRlbmlkbyBkZWwgZG9jdW1lbnRvIGRlcG9zaXRhZG8gZW4gZWwgUmVwb3NpdG9yaW8uCgpFbiBvYnJhcyBkZSBhdXRvcsOtYSBtw7psdGlwbGUgL3NlIHByZXN1bWUvIHF1ZSBlbCBhdXRvciBkZXBvc2l0YW50ZSBkZWNsYXJhIHF1ZSBoYSByZWNhYmFkbyBlbCBjb25zZW50aW1pZW50byBkZSB0b2RvcyBsb3MgYXV0b3JlcyBwYXJhIHB1YmxpY2FybGEgZW4gZWwgUmVwb3NpdG9yaW8sIHNpZW5kbyDDqXN0ZSBlbCDDum5pY28gcmVzcG9uc2FibGUgZnJlbnRlIGEgY3VhbHF1aWVyIHRpcG8gZGUgcmVjbGFtYWNpw7NuIGRlIGxvcyBvdHJvcyBjb2F1dG9yZXMuCgpFbCBhdXRvciBzZXLDoSByZXNwb25zYWJsZSBkZWwgY29udGVuaWRvIGRlIGxvcyBkb2N1bWVudG9zIHF1ZSBkZXBvc2l0YS4gTGEgVURFTEFSIG5vIHNlcsOhIHJlc3BvbnNhYmxlIHBvciBsYXMgZXZlbnR1YWxlcyB2aW9sYWNpb25lcyBhbCBkZXJlY2hvIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBlbiBxdWUgcHVlZGEgaW5jdXJyaXIgZWwgYXV0b3IuCgpBbnRlIGN1YWxxdWllciBkZW51bmNpYSBkZSB2aW9sYWNpw7NuIGRlIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbCwgbGEgVURFTEFSICBhZG9wdGFyw6EgdG9kYXMgbGFzIG1lZGlkYXMgbmVjZXNhcmlhcyBwYXJhIGV2aXRhciBsYSBjb250aW51YWNpw7NuIGRlIGRpY2hhIGluZnJhY2Npw7NuLCBsYXMgcXVlIHBvZHLDoW4gaW5jbHVpciBlbCByZXRpcm8gZGVsIGFjY2VzbyBhIGxvcyBjb250ZW5pZG9zIHkvbyBtZXRhZGF0b3MgZGVsIGRvY3VtZW50byByZXNwZWN0aXZvLgoKTGEgb2JyYSBzZSBwb25kcsOhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBhIHRyYXbDqXMgZGUgbGFzIGxpY2VuY2lhcyBDcmVhdGl2ZSBDb21tb25zLCBlbCBhdXRvciBwb2Ryw6Egc2VsZWNjaW9uYXIgdW5hIGRlIGxhcyA2IGxpY2VuY2lhcyBkaXNwb25pYmxlczoKCgpBdHJpYnVjacOzbiAoQ0MgLSBCeSk6IFBlcm1pdGUgdXNhciBsYSBvYnJhIHkgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBzaWVtcHJlIHF1ZSBzZSByZWNvbm96Y2EgYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgQ29tcGFydGlyIElndWFsIChDQyAtIEJ5LVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgaW5jbHVzbyBjb24gZmluZXMgY29tZXJjaWFsZXMsIHBlcm8gbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIGRlYmUgaGFjZXJzZSBtZWRpYW50ZSB1bmEgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIChDQyAtIEJ5LU5DKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzLCByZWNvbm9jaWVuZG8gYWwgYXV0b3IuCgpBdHJpYnVjacOzbiDigJMgU2luIERlcml2YWRhcyAoQ0MgLSBCeS1ORCk6IFBlcm1pdGUgZWwgdXNvIGRlIGxhIG9icmEsIGluY2x1c28gY29uIGZpbmVzIGNvbWVyY2lhbGVzLCBwZXJvIG5vIHNlIHBlcm1pdGUgZ2VuZXJhciBvYnJhcyBkZXJpdmFkYXMsIGRlYmllbmRvIHJlY29ub2NlciBhbCBhdXRvci4KCkF0cmlidWNpw7NuIOKAkyBObyBDb21lcmNpYWwg4oCTIENvbXBhcnRpciBJZ3VhbCAoQ0Mg4oCTIEJ5LU5DLVNBKTogUGVybWl0ZSB1c2FyIGxhIG9icmEgeSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcywgc2llbXByZSB5IGN1YW5kbyBlc29zIHVzb3Mgbm8gdGVuZ2FuIGZpbmVzIGNvbWVyY2lhbGVzIHkgbGEgZGlzdHJpYnVjacOzbiBkZSBsYXMgb2JyYXMgZGVyaXZhZGFzIHNlIGhhZ2EgbWVkaWFudGUgbGljZW5jaWEgaWTDqW50aWNhIGEgbGEgZGUgbGEgb2JyYSBvcmlnaW5hbCwgcmVjb25vY2llbmRvIGEgbG9zIGF1dG9yZXMuCgpBdHJpYnVjacOzbiDigJMgTm8gQ29tZXJjaWFsIOKAkyBTaW4gRGVyaXZhZGFzIChDQyAtIEJ5LU5DLU5EKTogUGVybWl0ZSB1c2FyIGxhIG9icmEsIHBlcm8gbm8gc2UgcGVybWl0ZSBnZW5lcmFyIG9icmFzIGRlcml2YWRhcyB5IG5vIHNlIHBlcm1pdGUgdXNvIGNvbiBmaW5lcyBjb21lcmNpYWxlcywgZGViaWVuZG8gcmVjb25vY2VyIGFsIGF1dG9yLgoKTG9zIHVzb3MgcHJldmlzdG9zIGVuIGxhcyBsaWNlbmNpYXMgaW5jbHV5ZW4gbGEgZW5hamVuYWNpw7NuLCByZXByb2R1Y2Npw7NuLCBjb211bmljYWNpw7NuLCBwdWJsaWNhY2nDs24sIGRpc3RyaWJ1Y2nDs24geSBwdWVzdGEgYSBkaXNwb3NpY2nDs24gZGVsIHDDumJsaWNvLiBMYSBjcmVhY2nDs24gZGUgb2JyYXMgZGVyaXZhZGFzIGluY2x1eWUgbGEgYWRhcHRhY2nDs24sIHRyYWR1Y2Npw7NuIHkgZWwgcmVtaXguCgpDdWFuZG8gc2Ugc2VsZWNjaW9uZSB1bmEgbGljZW5jaWEgcXVlIGhhYmlsaXRlIHVzb3MgY29tZXJjaWFsZXMsIGVsIGRlcMOzc2l0byBkZWJlcsOhIHNlciBhY29tcGHDsWFkbyBkZWwgYXZhbCBkZWwgamVyYXJjYSBtw6F4aW1vIGRlbCBTZXJ2aWNpbyBjb3JyZXNwb25kaWVudGUuCg==Universidadhttps://udelar.edu.uy/https://www.colibri.udelar.edu.uy/oai/requestmabel.seroubian@seciu.edu.uyUruguayopendoar:47712024-07-25T14:46:14.298209COLIBRI - Universidad de la Repúblicafalse |
spellingShingle | Generador automático de índices en videos Campiotti, María Jimena Video Indice INTELIGENCIA ARTIFICIAL |
status_str | acceptedVersion |
title | Generador automático de índices en videos |
title_full | Generador automático de índices en videos |
title_fullStr | Generador automático de índices en videos |
title_full_unstemmed | Generador automático de índices en videos |
title_short | Generador automático de índices en videos |
title_sort | Generador automático de índices en videos |
topic | Video Indice INTELIGENCIA ARTIFICIAL |
url | http://hdl.handle.net/20.500.12008/18530 |