Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad

Yovine, Sergio - Mayr, Franz - Martínez Varsi, Nicolás - Visca Zanoni, Ramiro - Pisani, Mikaela - Pan Suarez, Federico

Resumen:

Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa.


Detalles Bibliográficos
2022
Agencia Nacional de Investigación e Innovación
aprendizaje profundo
redes generativas antagónicas
privacidad de la información
Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
Español
Agencia Nacional de Investigación e Innovación
REDI
https://hdl.handle.net/20.500.12381/3453
Acceso abierto
Reconocimiento 4.0 Internacional. (CC BY)
_version_ 1814959268378443776
author Yovine, Sergio
author2 Mayr, Franz
Martínez Varsi, Nicolás
Visca Zanoni, Ramiro
Pisani, Mikaela
Pan Suarez, Federico
author2_role author
author
author
author
author
author_facet Yovine, Sergio
Mayr, Franz
Martínez Varsi, Nicolás
Visca Zanoni, Ramiro
Pisani, Mikaela
Pan Suarez, Federico
author_role author
bitstream.checksum.fl_str_mv 217b0945b07a54f041102f0682bc92be
bitstream.checksumAlgorithm.fl_str_mv MD5
bitstream.url.fl_str_mv https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3453/1/Informe%20final%20publicable_FMV_1_2019_1_155913.pdf
collection REDI
dc.creator.none.fl_str_mv Yovine, Sergio
Mayr, Franz
Martínez Varsi, Nicolás
Visca Zanoni, Ramiro
Pisani, Mikaela
Pan Suarez, Federico
dc.date.accessioned.none.fl_str_mv 2024-03-01T16:04:59Z
dc.date.available.none.fl_str_mv 2024-03-01T16:04:59Z
dc.date.issued.none.fl_str_mv 2022-12-27
dc.description.abstract.none.fl_txt_mv Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa.
dc.description.sponsorship.none.fl_txt_mv Agencia Nacional de Investigación e Innovación
dc.identifier.anii.es.fl_str_mv FMV_1_2019_1_155913
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12381/3453
dc.language.iso.none.fl_str_mv spa
dc.publisher.es.fl_str_mv Agencia Nacional de Investigación e Innovación
dc.relation.es.fl_str_mv https://hdl.handle.net/20.500.12381/456
https://hdl.handle.net/20.500.12381/457
https://hdl.handle.net/20.500.12381/461
https://hdl.handle.net/20.500.12381/462
https://hdl.handle.net/20.500.12381/463
https://hdl.handle.net/20.500.12381/459
https://hdl.handle.net/20.500.12381/460
http://hdl.handle.net/20.500.11968/4472
https://hdl.handle.net/20.500.12381/466
https://hdl.handle.net/20.500.12381/595
https://hdl.handle.net/20.500.12381/472
https://hdl.handle.net/20.500.12381/473
https://hdl.handle.net/20.500.12381/479
https://hdl.handle.net/20.500.12381/474
https://hdl.handle.net/20.500.12381/475
https://hdl.handle.net/20.500.12381/465
https://hdl.handle.net/20.500.12381/2364
https://hdl.handle.net/20.500.12381/2363
https://hdl.handle.net/20.500.12381/2362
https://hdl.handle.net/20.500.12381/2373
https://hdl.handle.net/20.500.12381/2366
https://hdl.handle.net/20.500.12381/2369
https://hdl.handle.net/20.500.12381/2370
https://hdl.handle.net/20.500.12381/2371
https://hdl.handle.net/20.500.12381/2372
https://hdl.handle.net/20.500.12381/464
https://hdl.handle.net/20.500.12381/2374
https://hdl.handle.net/20.500.12381/2375
https://hdl.handle.net/20.500.12381/3118
dc.rights.*.fl_str_mv Acceso abierto
dc.rights.license.none.fl_str_mv Reconocimiento 4.0 Internacional. (CC BY)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:REDI
instname:Agencia Nacional de Investigación e Innovación
instacron:Agencia Nacional de Investigación e Innovación
dc.subject.anii.none.fl_str_mv Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
dc.subject.es.fl_str_mv aprendizaje profundo
redes generativas antagónicas
privacidad de la información
dc.title.none.fl_str_mv Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
dc.type.es.fl_str_mv Reporte técnico
dc.type.none.fl_str_mv info:eu-repo/semantics/report
dc.type.version.es.fl_str_mv Publicado
dc.type.version.none.fl_str_mv info:eu-repo/semantics/publishedVersion
description Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa.
eu_rights_str_mv openAccess
format report
id REDI_264a366bd2603fb70da1755c5e30e694
identifier_str_mv FMV_1_2019_1_155913
instacron_str Agencia Nacional de Investigación e Innovación
institution Agencia Nacional de Investigación e Innovación
instname_str Agencia Nacional de Investigación e Innovación
language spa
network_acronym_str REDI
network_name_str REDI
oai_identifier_str oai:redi.anii.org.uy:20.500.12381/3453
publishDate 2022
reponame_str REDI
repository.mail.fl_str_mv jmaldini@anii.org.uy
repository.name.fl_str_mv REDI - Agencia Nacional de Investigación e Innovación
repository_id_str 9421
rights_invalid_str_mv Reconocimiento 4.0 Internacional. (CC BY)
Acceso abierto
spelling Reconocimiento 4.0 Internacional. (CC BY)Acceso abiertoinfo:eu-repo/semantics/openAccess2024-03-01T16:04:59Z2024-03-01T16:04:59Z2022-12-27https://hdl.handle.net/20.500.12381/3453FMV_1_2019_1_155913Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa.Agencia Nacional de Investigación e InnovaciónspaAgencia Nacional de Investigación e Innovaciónhttps://hdl.handle.net/20.500.12381/456https://hdl.handle.net/20.500.12381/457https://hdl.handle.net/20.500.12381/461https://hdl.handle.net/20.500.12381/462https://hdl.handle.net/20.500.12381/463https://hdl.handle.net/20.500.12381/459https://hdl.handle.net/20.500.12381/460http://hdl.handle.net/20.500.11968/4472https://hdl.handle.net/20.500.12381/466https://hdl.handle.net/20.500.12381/595https://hdl.handle.net/20.500.12381/472https://hdl.handle.net/20.500.12381/473https://hdl.handle.net/20.500.12381/479https://hdl.handle.net/20.500.12381/474https://hdl.handle.net/20.500.12381/475https://hdl.handle.net/20.500.12381/465https://hdl.handle.net/20.500.12381/2364https://hdl.handle.net/20.500.12381/2363https://hdl.handle.net/20.500.12381/2362https://hdl.handle.net/20.500.12381/2373https://hdl.handle.net/20.500.12381/2366https://hdl.handle.net/20.500.12381/2369https://hdl.handle.net/20.500.12381/2370https://hdl.handle.net/20.500.12381/2371https://hdl.handle.net/20.500.12381/2372https://hdl.handle.net/20.500.12381/464https://hdl.handle.net/20.500.12381/2374https://hdl.handle.net/20.500.12381/2375https://hdl.handle.net/20.500.12381/3118aprendizaje profundoredes generativas antagónicasprivacidad de la informaciónCiencias Naturales y ExactasCiencias de la Computación e InformaciónCiencias de la ComputaciónInforme final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridadReporte técnicoPublicadoinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/reportUniversidad ORT . Facultad de Ingeniería//Ciencias Naturales y Exactas/Ciencias de la Computación e Información/Ciencias de la Computaciónreponame:REDIinstname:Agencia Nacional de Investigación e Innovacióninstacron:Agencia Nacional de Investigación e InnovaciónYovine, SergioMayr, FranzMartínez Varsi, NicolásVisca Zanoni, RamiroPisani, MikaelaPan Suarez, FedericoORIGINALInforme final publicable_FMV_1_2019_1_155913.pdfInforme final publicable_FMV_1_2019_1_155913.pdfapplication/pdf107161https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3453/1/Informe%20final%20publicable_FMV_1_2019_1_155913.pdf217b0945b07a54f041102f0682bc92beMD5120.500.12381/34532024-03-01 13:05:00.451oai:redi.anii.org.uy:20.500.12381/3453Gobiernohttps://www.anii.org.uy/https://redi.anii.org.uy/oai/requestjmaldini@anii.org.uyUruguayopendoar:94212024-03-01T16:05REDI - Agencia Nacional de Investigación e Innovaciónfalse
spellingShingle Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
Yovine, Sergio
aprendizaje profundo
redes generativas antagónicas
privacidad de la información
Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
status_str publishedVersion
title Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
title_full Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
title_fullStr Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
title_full_unstemmed Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
title_short Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
title_sort Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
topic aprendizaje profundo
redes generativas antagónicas
privacidad de la información
Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
url https://hdl.handle.net/20.500.12381/3453