Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas
Resumen:
El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.
2021 | |
Agencia Nacional de Investigación e Innovación | |
Anonimización de datos Aprendizaje profundo Redes generativas antagónicas Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
|
Español | |
Agencia Nacional de Investigación e Innovación | |
REDI | |
https://hdl.handle.net/20.500.12381/3141 | |
Acceso abierto | |
Reconocimiento 4.0 Internacional. (CC BY) |
_version_ | 1814959268410949632 |
---|---|
author | Yovine, Sergio |
author2 | Mayr, Franz Visca Zanoni, Ramiro |
author2_role | author author |
author_facet | Yovine, Sergio Mayr, Franz Visca Zanoni, Ramiro |
author_role | author |
bitstream.checksum.fl_str_mv | 092561c0cf2c833f1567b1e46e32f494 |
bitstream.checksumAlgorithm.fl_str_mv | MD5 |
bitstream.url.fl_str_mv | https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3141/1/Informe_final_publicable%20FSDA_1_2018_1_154419.pdf |
collection | REDI |
dc.creator.none.fl_str_mv | Yovine, Sergio Mayr, Franz Visca Zanoni, Ramiro |
dc.date.accessioned.none.fl_str_mv | 2023-01-16T14:08:12Z |
dc.date.available.none.fl_str_mv | 2023-01-16T14:08:12Z |
dc.date.issued.none.fl_str_mv | 2021-12-28 |
dc.description.abstract.none.fl_txt_mv | El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud. |
dc.description.sponsorship.none.fl_txt_mv | Agencia Nacional de Investigación e Innovación |
dc.identifier.anii.es.fl_str_mv | FSDA_1_2018_1_154419 |
dc.identifier.uri.none.fl_str_mv | https://hdl.handle.net/20.500.12381/3141 |
dc.language.iso.none.fl_str_mv | spa |
dc.publisher.es.fl_str_mv | Agencia Nacional de Investigación e Innovación |
dc.relation.es.fl_str_mv | https://hdl.handle.net/20.500.12381/456 https://hdl.handle.net/20.500.12381/457 https://hdl.handle.net/20.500.12381/461 https://hdl.handle.net/20.500.12381/462 https://hdl.handle.net/20.500.12381/459 https://hdl.handle.net/20.500.12381/460 https://hdl.handle.net/20.500.12381/463 https://hdl.handle.net/20.500.12381/466 https://hdl.handle.net/20.500.12381/464 https://hdl.handle.net/20.500.12381/465 https://hdl.handle.net/20.500.12381/472 https://hdl.handle.net/20.500.12381/473 https://hdl.handle.net/20.500.12381/474 https://hdl.handle.net/20.500.12381/475 https://hdl.handle.net/20.500.12381/479 |
dc.rights.es.fl_str_mv | Acceso abierto |
dc.rights.license.none.fl_str_mv | Reconocimiento 4.0 Internacional. (CC BY) |
dc.rights.none.fl_str_mv | info:eu-repo/semantics/openAccess |
dc.source.none.fl_str_mv | reponame:REDI instname:Agencia Nacional de Investigación e Innovación instacron:Agencia Nacional de Investigación e Innovación |
dc.subject.anii.none.fl_str_mv | Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
dc.subject.es.fl_str_mv | Anonimización de datos Aprendizaje profundo Redes generativas antagónicas |
dc.title.none.fl_str_mv | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas |
dc.type.es.fl_str_mv | Reporte técnico |
dc.type.none.fl_str_mv | info:eu-repo/semantics/report |
dc.type.version.es.fl_str_mv | Aceptado |
dc.type.version.none.fl_str_mv | info:eu-repo/semantics/acceptedVersion |
description | El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud. |
eu_rights_str_mv | openAccess |
format | report |
id | REDI_34a58baa15f60016ba135922dac1e4cb |
identifier_str_mv | FSDA_1_2018_1_154419 |
instacron_str | Agencia Nacional de Investigación e Innovación |
institution | Agencia Nacional de Investigación e Innovación |
instname_str | Agencia Nacional de Investigación e Innovación |
language | spa |
network_acronym_str | REDI |
network_name_str | REDI |
oai_identifier_str | oai:redi.anii.org.uy:20.500.12381/3141 |
publishDate | 2021 |
reponame_str | REDI |
repository.mail.fl_str_mv | jmaldini@anii.org.uy |
repository.name.fl_str_mv | REDI - Agencia Nacional de Investigación e Innovación |
repository_id_str | 9421 |
rights_invalid_str_mv | Reconocimiento 4.0 Internacional. (CC BY) Acceso abierto |
spelling | Reconocimiento 4.0 Internacional. (CC BY)Acceso abiertoinfo:eu-repo/semantics/openAccess2023-01-16T14:08:12Z2023-01-16T14:08:12Z2021-12-28https://hdl.handle.net/20.500.12381/3141FSDA_1_2018_1_154419El intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.Agencia Nacional de Investigación e InnovaciónspaAgencia Nacional de Investigación e Innovaciónhttps://hdl.handle.net/20.500.12381/456https://hdl.handle.net/20.500.12381/457https://hdl.handle.net/20.500.12381/461https://hdl.handle.net/20.500.12381/462https://hdl.handle.net/20.500.12381/459https://hdl.handle.net/20.500.12381/460https://hdl.handle.net/20.500.12381/463https://hdl.handle.net/20.500.12381/466https://hdl.handle.net/20.500.12381/464https://hdl.handle.net/20.500.12381/465https://hdl.handle.net/20.500.12381/472https://hdl.handle.net/20.500.12381/473https://hdl.handle.net/20.500.12381/474https://hdl.handle.net/20.500.12381/475https://hdl.handle.net/20.500.12381/479Anonimización de datosAprendizaje profundoRedes generativas antagónicasCiencias Naturales y ExactasCiencias de la Computación e InformaciónCiencias de la ComputaciónInforme final del proyecto: Anonimización de datos basada en redes generativas antagónicasReporte técnicoAceptadoinfo:eu-repo/semantics/acceptedVersioninfo:eu-repo/semantics/reportUniversidad ORT. Facultad de Ingeniería//Ciencias Naturales y Exactas/Ciencias de la Computación e Información/Ciencias de la Computaciónreponame:REDIinstname:Agencia Nacional de Investigación e Innovacióninstacron:Agencia Nacional de Investigación e InnovaciónYovine, SergioMayr, FranzVisca Zanoni, RamiroORIGINALInforme_final_publicable FSDA_1_2018_1_154419.pdfInforme_final_publicable FSDA_1_2018_1_154419.pdfapplication/pdf115678https://redi.anii.org.uy/jspui/bitstream/20.500.12381/3141/1/Informe_final_publicable%20FSDA_1_2018_1_154419.pdf092561c0cf2c833f1567b1e46e32f494MD5120.500.12381/31412023-01-16 11:08:13.967oai:redi.anii.org.uy:20.500.12381/3141Gobiernohttps://www.anii.org.uy/https://redi.anii.org.uy/oai/requestjmaldini@anii.org.uyUruguayopendoar:94212023-01-16T14:08:13REDI - Agencia Nacional de Investigación e Innovaciónfalse |
spellingShingle | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas Yovine, Sergio Anonimización de datos Aprendizaje profundo Redes generativas antagónicas Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
status_str | acceptedVersion |
title | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas |
title_full | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas |
title_fullStr | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas |
title_full_unstemmed | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas |
title_short | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas |
title_sort | Informe final del proyecto: Anonimización de datos basada en redes generativas antagónicas |
topic | Anonimización de datos Aprendizaje profundo Redes generativas antagónicas Ciencias Naturales y Exactas Ciencias de la Computación e Información Ciencias de la Computación |
url | https://hdl.handle.net/20.500.12381/3141 |