Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
Resumen:
El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.
2021 | |
Agencia Nacional de Investigación e Innovación | |
Anonimización de datos Aprendizaje profundo Redes generativas antagónicas Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
|
Español | |
Agencia Nacional de Investigación e Innovación | |
REDI | |
https://hdl.handle.net/20.500.12381/3141 | |
Acceso abierto | |
Reconocimiento 4.0 Internacional. (CC BY) |
Sumario: | El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud. |
---|