Informe final del proyecto: Herramienta de privatización de datos secuenciales para su aplicación en la detección de anomalías colectivas en ciberseguridad

Yovine, Sergio - Mayr, Franz - Martínez Varsi, Nicolás - Visca Zanoni, Ramiro - Pisani, Mikaela - Pan Suarez, Federico

Resumen:

Los beneficios globales de los sistemas de inteligencia artificial, como por ejemplo aquellos construidos para la de detección de ciberataques y de enfermedades, deberían superar con creces los riesgos individuales previsibles. Claramente, estos sistemas pueden contribuir a reducir la ciberdelincuencia y a mejorar la salud pero de un modo que puede atentar contra la privacidad de los individuos. Esto se debe a que el entrenamiento de estas inteligencias artificiales requiere la inspección de datos que contienen información sensible para las personas, como claves de acceso, números de tarjetas, resultados de análisis clínicos, etc. Por otro lado, los algoritmos de aprendizaje necesitan cantidades considerables de datos de entrenamiento con la finalidad de alcanzar niveles satisfactorios de eficacia. Sin embargo, tal volumen de datos no suele estar al alcance de una única organización, por lo que en muchos casos, notablemente en el ámbito de la salud, resulta necesario que múltiples organizaciones (públicas y/o privadas) compartan sus datos y los modelos predictivos entrenados con ellos, en pos de conseguir de manera conjunta beneficios sustanciales para la sociedad. Por esta razón, el objetivo de este proyecto es proponer una solución que permita a organizaciones compartir datos y modelos garantizando la privacidad de la información sensible a la vez que se preserva el valor de los datos para construir inteligencias artificiales beneficiosas. El resultado del proyecto fue el diseño, implementación y validación de una plataforma colaborativa que reposa sobre la integración de dos mecanismos de privacidad diferencial. El primero permite la disponibilización de modelos mediante la construcción de un ensemble que protege los datos de entrenamiento. El segundo permite consultar el ensemble protegiendo los datos de quien efectúa la consulta. La evaluación experimental de la solución propuesta con datos de dos áreas de aplicación, concretamente ciberseguridad y salud, fue exitosa.


Detalles Bibliográficos
2022
Agencia Nacional de Investigación e Innovación
aprendizaje profundo
redes generativas antagónicas
privacidad de la información
Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
Español
Agencia Nacional de Investigación e Innovación
REDI
https://hdl.handle.net/20.500.12381/3453
Acceso abierto
Reconocimiento 4.0 Internacional. (CC BY)

Resultados similares