Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad
Resumen:
Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa.
2022 | |
Agencia Nacional de Investigación e Innovación | |
aprendizaje profundo redes generativas antagónicas privacidad de la información Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
|
Español | |
Agencia Nacional de Investigación e Innovación | |
REDI | |
https://hdl.handle.net/20.500.12381/3453 | |
Acceso abierto | |
Reconocimiento 4.0 Internacional. (CC BY) |
_version_ | 1814959268378443776 |
---|---|
author | Yovine, Sergio |
author2 | Mayr, Franz Martínez Varsi, Nicolás Visca Zanoni, Ramiro Pisani, Mikaela Pan Suarez, Federico |
author2_role | author author author author author |
author_facet | Yovine, Sergio Mayr, Franz Martínez Varsi, Nicolás Visca Zanoni, Ramiro Pisani, Mikaela Pan Suarez, Federico |
author_role | author |
bitstream.checksum.fl_str_mv | 217b0945b07a54f041102f0682bc92be |
bitstream.checksumAlgorithm.fl_str_mv | MD5 |
bitstream.url.fl_str_mv | https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3453/1/Informe%20final%20publicable_FMV_1_2019_1_155913.pdf |
collection | REDI |
dc.creator.none.fl_str_mv | Yovine, Sergio Mayr, Franz Martínez Varsi, Nicolás Visca Zanoni, Ramiro Pisani, Mikaela Pan Suarez, Federico |
dc.date.accessioned.none.fl_str_mv | 2024-03-01T16:04:59Z |
dc.date.available.none.fl_str_mv | 2024-03-01T16:04:59Z |
dc.date.issued.none.fl_str_mv | 2022-12-27 |
dc.description.abstract.none.fl_txt_mv | Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa. |
dc.description.sponsorship.none.fl_txt_mv | Agencia Nacional de Investigación e Innovación |
dc.identifier.anii.es.fl_str_mv | FMV_1_2019_1_155913 |
dc.identifier.uri.none.fl_str_mv | https://hdl.handle.net/20.500.12381/3453 |
dc.language.iso.none.fl_str_mv | spa |
dc.publisher.es.fl_str_mv | Agencia Nacional de Investigación e Innovación |
dc.relation.es.fl_str_mv | https://hdl.handle.net/20.500.12381/456 https://hdl.handle.net/20.500.12381/457 https://hdl.handle.net/20.500.12381/461 https://hdl.handle.net/20.500.12381/462 https://hdl.handle.net/20.500.12381/463 https://hdl.handle.net/20.500.12381/459 https://hdl.handle.net/20.500.12381/460 http://hdl.handle.net/20.500.11968/4472 https://hdl.handle.net/20.500.12381/466 https://hdl.handle.net/20.500.12381/595 https://hdl.handle.net/20.500.12381/472 https://hdl.handle.net/20.500.12381/473 https://hdl.handle.net/20.500.12381/479 https://hdl.handle.net/20.500.12381/474 https://hdl.handle.net/20.500.12381/475 https://hdl.handle.net/20.500.12381/465 https://hdl.handle.net/20.500.12381/2364 https://hdl.handle.net/20.500.12381/2363 https://hdl.handle.net/20.500.12381/2362 https://hdl.handle.net/20.500.12381/2373 https://hdl.handle.net/20.500.12381/2366 https://hdl.handle.net/20.500.12381/2369 https://hdl.handle.net/20.500.12381/2370 https://hdl.handle.net/20.500.12381/2371 https://hdl.handle.net/20.500.12381/2372 https://hdl.handle.net/20.500.12381/464 https://hdl.handle.net/20.500.12381/2374 https://hdl.handle.net/20.500.12381/2375 https://hdl.handle.net/20.500.12381/3118 |
dc.rights.*.fl_str_mv | Acceso abierto |
dc.rights.license.none.fl_str_mv | Reconocimiento 4.0 Internacional. (CC BY) |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:REDI instname:Agencia Nacional de Investigación e Innovación instacron:Agencia Nacional de Investigación e Innovación |
dc.subject.anii.none.fl_str_mv | Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
dc.subject.es.fl_str_mv | aprendizaje profundo redes generativas antagónicas privacidad de la información |
dc.title.none.fl_str_mv | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad |
dc.type.es.fl_str_mv | Reporte técnico |
dc.type.none.fl_str_mv | info:eu-repo/semantics/report |
dc.type.version.es.fl_str_mv | Publicado |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/publishedVersion |
description | Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa. |
eu_rights_str_mv | openAccess |
format | report |
id | REDI_264a366bd2603fb70da1755c5e30e694 |
identifier_str_mv | FMV_1_2019_1_155913 |
instacron_str | Agencia Nacional de Investigación e Innovación |
institution | Agencia Nacional de Investigación e Innovación |
instname_str | Agencia Nacional de Investigación e Innovación |
language | spa |
network_acronym_str | REDI |
network_name_str | REDI |
oai_identifier_str | oai:redi.anii.org.uy:20.500.12381/3453 |
publishDate | 2022 |
reponame_str | REDI |
repository.mail.fl_str_mv | jmaldini@anii.org.uy |
repository.name.fl_str_mv | REDI - Agencia Nacional de Investigación e Innovación |
repository_id_str | 9421 |
rights_invalid_str_mv | Reconocimiento 4.0 Internacional. (CC BY) Acceso abierto |
spelling | Reconocimiento 4.0 Internacional. (CC BY)Acceso abiertoinfo:eu-repo/semantics/openAccess2024-03-01T16:04:59Z2024-03-01T16:04:59Z2022-12-27https://hdl.handle.net/20.500.12381/3453FMV_1_2019_1_155913Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa.Agencia Nacional de Investigación e InnovaciónspaAgencia Nacional de Investigación e Innovaciónhttps://hdl.handle.net/20.500.12381/456https://hdl.handle.net/20.500.12381/457https://hdl.handle.net/20.500.12381/461https://hdl.handle.net/20.500.12381/462https://hdl.handle.net/20.500.12381/463https://hdl.handle.net/20.500.12381/459https://hdl.handle.net/20.500.12381/460http://hdl.handle.net/20.500.11968/4472https://hdl.handle.net/20.500.12381/466https://hdl.handle.net/20.500.12381/595https://hdl.handle.net/20.500.12381/472https://hdl.handle.net/20.500.12381/473https://hdl.handle.net/20.500.12381/479https://hdl.handle.net/20.500.12381/474https://hdl.handle.net/20.500.12381/475https://hdl.handle.net/20.500.12381/465https://hdl.handle.net/20.500.12381/2364https://hdl.handle.net/20.500.12381/2363https://hdl.handle.net/20.500.12381/2362https://hdl.handle.net/20.500.12381/2373https://hdl.handle.net/20.500.12381/2366https://hdl.handle.net/20.500.12381/2369https://hdl.handle.net/20.500.12381/2370https://hdl.handle.net/20.500.12381/2371https://hdl.handle.net/20.500.12381/2372https://hdl.handle.net/20.500.12381/464https://hdl.handle.net/20.500.12381/2374https://hdl.handle.net/20.500.12381/2375https://hdl.handle.net/20.500.12381/3118aprendizaje profundoredes generativas antagónicasprivacidad de la informaciónCiencias Naturales y ExactasCiencias de la Computación e InformaciónCiencias de la ComputaciónInforme final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridadReporte técnicoPublicadoinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/reportUniversidad ORT . Facultad de Ingeniería//Ciencias Naturales y Exactas/Ciencias de la Computación e Información/Ciencias de la Computaciónreponame:REDIinstname:Agencia Nacional de Investigación e Innovacióninstacron:Agencia Nacional de Investigación e InnovaciónYovine, SergioMayr, FranzMartínez Varsi, NicolásVisca Zanoni, RamiroPisani, MikaelaPan Suarez, FedericoORIGINALInforme final publicable_FMV_1_2019_1_155913.pdfInforme final publicable_FMV_1_2019_1_155913.pdfapplication/pdf107161https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3453/1/Informe%20final%20publicable_FMV_1_2019_1_155913.pdf217b0945b07a54f041102f0682bc92beMD5120.500.12381/34532024-03-01 13:05:00.451oai:redi.anii.org.uy:20.500.12381/3453Gobiernohttps://www.anii.org.uy/https://redi.anii.org.uy/oai/requestjmaldini@anii.org.uyUruguayopendoar:94212024-03-01T16:05REDI - Agencia Nacional de Investigación e Innovaciónfalse |
spellingShingle | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad Yovine, Sergio aprendizaje profundo redes generativas antagónicas privacidad de la información Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
status_str | publishedVersion |
title | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad |
title_full | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad |
title_fullStr | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad |
title_full_unstemmed | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad |
title_short | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad |
title_sort | Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad |
topic | aprendizaje profundo redes generativas antagónicas privacidad de la información Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
url | https://hdl.handle.net/20.500.12381/3453 |