Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas

Yovine, Sergio - Mayr, Franz - Visca Zanoni, Ramiro

Resumen:

El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.


Detalles Bibliográficos
2021
Agencia Nacional de Investigación e Innovación
Anonimización de datos
Aprendizaje profundo
Redes generativas antagónicas
Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
Español
Agencia Nacional de Investigación e Innovación
REDI
https://hdl.handle.net/20.500.12381/3141
Acceso abierto
Reconocimiento 4.0 Internacional. (CC BY)
_version_ 1814959268410949632
author Yovine, Sergio
author2 Mayr, Franz
Visca Zanoni, Ramiro
author2_role author
author
author_facet Yovine, Sergio
Mayr, Franz
Visca Zanoni, Ramiro
author_role author
bitstream.checksum.fl_str_mv 092561c0cf2c833f1567b1e46e32f494
bitstream.checksumAlgorithm.fl_str_mv MD5
bitstream.url.fl_str_mv https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3141/1/Informe_final_publicable%20FSDA_1_2018_1_154419.pdf
collection REDI
dc.creator.none.fl_str_mv Yovine, Sergio
Mayr, Franz
Visca Zanoni, Ramiro
dc.date.accessioned.none.fl_str_mv 2023-01-16T14:08:12Z
dc.date.available.none.fl_str_mv 2023-01-16T14:08:12Z
dc.date.issued.none.fl_str_mv 2021-12-28
dc.description.abstract.none.fl_txt_mv El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.
dc.description.sponsorship.none.fl_txt_mv Agencia Nacional de Investigación e Innovación
dc.identifier.anii.es.fl_str_mv FSDA_1_2018_1_154419
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12381/3141
dc.language.iso.none.fl_str_mv spa
dc.publisher.es.fl_str_mv Agencia Nacional de Investigación e Innovación
dc.relation.es.fl_str_mv https://hdl.handle.net/20.500.12381/456
https://hdl.handle.net/20.500.12381/457
https://hdl.handle.net/20.500.12381/461
https://hdl.handle.net/20.500.12381/462
https://hdl.handle.net/20.500.12381/459
https://hdl.handle.net/20.500.12381/460
https://hdl.handle.net/20.500.12381/463
https://hdl.handle.net/20.500.12381/466
https://hdl.handle.net/20.500.12381/464
https://hdl.handle.net/20.500.12381/465
https://hdl.handle.net/20.500.12381/472
https://hdl.handle.net/20.500.12381/473
https://hdl.handle.net/20.500.12381/474
https://hdl.handle.net/20.500.12381/475
https://hdl.handle.net/20.500.12381/479
dc.rights.es.fl_str_mv Acceso abierto
dc.rights.license.none.fl_str_mv Reconocimiento 4.0 Internacional. (CC BY)
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.source.none.fl_str_mv reponame:REDI
instname:Agencia Nacional de Investigación e Innovación
instacron:Agencia Nacional de Investigación e Innovación
dc.subject.anii.none.fl_str_mv Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
dc.subject.es.fl_str_mv Anonimización de datos
Aprendizaje profundo
Redes generativas antagónicas
dc.title.none.fl_str_mv Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
dc.type.es.fl_str_mv Reporte técnico
dc.type.none.fl_str_mv info:eu-repo/semantics/report
dc.type.version.es.fl_str_mv Aceptado
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
description El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.
eu_rights_str_mv openAccess
format report
id REDI_34a58baa15f60016ba135922dac1e4cb
identifier_str_mv FSDA_1_2018_1_154419
instacron_str Agencia Nacional de Investigación e Innovación
institution Agencia Nacional de Investigación e Innovación
instname_str Agencia Nacional de Investigación e Innovación
language spa
network_acronym_str REDI
network_name_str REDI
oai_identifier_str oai:redi.anii.org.uy:20.500.12381/3141
publishDate 2021
reponame_str REDI
repository.mail.fl_str_mv jmaldini@anii.org.uy
repository.name.fl_str_mv REDI - Agencia Nacional de Investigación e Innovación
repository_id_str 9421
rights_invalid_str_mv Reconocimiento 4.0 Internacional. (CC BY)
Acceso abierto
spelling Reconocimiento 4.0 Internacional. (CC BY)Acceso abiertoinfo:eu-repo/semantics/openAccess2023-01-16T14:08:12Z2023-01-16T14:08:12Z2021-12-28https://hdl.handle.net/20.500.12381/3141FSDA_1_2018_1_154419El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.Agencia Nacional de Investigación e InnovaciónspaAgencia Nacional de Investigación e Innovaciónhttps://hdl.handle.net/20.500.12381/456https://hdl.handle.net/20.500.12381/457https://hdl.handle.net/20.500.12381/461https://hdl.handle.net/20.500.12381/462https://hdl.handle.net/20.500.12381/459https://hdl.handle.net/20.500.12381/460https://hdl.handle.net/20.500.12381/463https://hdl.handle.net/20.500.12381/466https://hdl.handle.net/20.500.12381/464https://hdl.handle.net/20.500.12381/465https://hdl.handle.net/20.500.12381/472https://hdl.handle.net/20.500.12381/473https://hdl.handle.net/20.500.12381/474https://hdl.handle.net/20.500.12381/475https://hdl.handle.net/20.500.12381/479Anonimización de datosAprendizaje profundoRedes generativas antagónicasCiencias Naturales y ExactasCiencias de la Computación e InformaciónCiencias de la ComputaciónInforme final del proyecto: Anonimización de datos basada en redes generativas antagónicasReporte técnicoAceptadoinfo:eu-repo/semantics/acceptedVersioninfo:eu-repo/semantics/reportUniversidad ORT. Facultad de Ingeniería//Ciencias Naturales y Exactas/Ciencias de la Computación e Información/Ciencias de la Computaciónreponame:REDIinstname:Agencia Nacional de Investigación e Innovacióninstacron:Agencia Nacional de Investigación e InnovaciónYovine, SergioMayr, FranzVisca Zanoni, RamiroORIGINALInforme_final_publicable FSDA_1_2018_1_154419.pdfInforme_final_publicable FSDA_1_2018_1_154419.pdfapplication/pdf115678https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3141/1/Informe_final_publicable%20FSDA_1_2018_1_154419.pdf092561c0cf2c833f1567b1e46e32f494MD5120.500.12381/31412023-01-16 11:08:13.967oai:redi.anii.org.uy:20.500.12381/3141Gobiernohttps://www.anii.org.uy/https://redi.anii.org.uy/oai/requestjmaldini@anii.org.uyUruguayopendoar:94212023-01-16T14:08:13REDI - Agencia Nacional de Investigación e Innovaciónfalse
spellingShingle Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
Yovine, Sergio
Anonimización de datos
Aprendizaje profundo
Redes generativas antagónicas
Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
status_str acceptedVersion
title Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
title_full Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
title_fullStr Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
title_full_unstemmed Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
title_short Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
title_sort Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
topic Anonimización de datos
Aprendizaje profundo
Redes generativas antagónicas
Ciencias Naturales y Exactas
Ciencias de la Computación e Información
Ciencias de la Computación
url https://hdl.handle.net/20.500.12381/3141