Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.rights.licenseReconocimiento 4.0 Internacional. (CC BY)es
dc.contributor.authorYovine, Sergioes
dc.contributor.authorMayr, Franzes
dc.contributor.authorVisca Zanoni, Ramiroes
dc.date.accessioned2023-01-16T14:08:12Z-
dc.date.available2023-01-16T14:08:12Z-
dc.date.issued2021-12-28-
dc.identifier.urihttps://hdl.handle.net/20.500.12381/3141-
dc.description.abstractEl intercambio de información, ya sea en forma de datos brutos o de modelos entrenados usando aprendizaje automático, debe garantizar niveles adecuados de privacidad. Esta cuestión no es sólo técnica, sino también jurídica, ya que existen leyes que definen el derecho a la privacidad. En este proyecto estudiamos un escenario en el que varias organizaciones (públicas y/o privadas) comparten datos y modelos entrenados con datos privados de cada organización (o de sus pacientes, usuarios, clientes, etc.). El resultado del proyecto fue la propuesta de una solución que consiste en un esquema de privacidad diferencial de tipo mixto que compone un mecanismo centralizado y otro local. El primero es la disponibilización pública de un ensemble de modelos a través de un curador confiable que aplica ruido aleatorio a las predicciones, protegiendo así los datos de las organizaciones participantes en dicho ensemble de modelos. El segundo permite a un tercero realizar consultas al ensemble protegiendo su datos a través de un curador confiable que aplica un mecanismo de privacidad diferencial local que agrega ruido aleatorio a los datos enviados en la consulta. Esta técnica fue implementada y evaluada experimentalmente con éxito en aplicaciones en ciberseguridad y salud.es
dc.description.sponsorshipAgencia Nacional de Investigación e Innovaciónes
dc.language.isospaes
dc.publisherAgencia Nacional de Investigación e Innovaciónes
dc.relationhttps://hdl.handle.net/20.500.12381/456es
dc.relationhttps://hdl.handle.net/20.500.12381/457es
dc.relationhttps://hdl.handle.net/20.500.12381/461es
dc.relationhttps://hdl.handle.net/20.500.12381/462es
dc.relationhttps://hdl.handle.net/20.500.12381/459es
dc.relationhttps://hdl.handle.net/20.500.12381/460es
dc.relationhttps://hdl.handle.net/20.500.12381/463es
dc.relationhttps://hdl.handle.net/20.500.12381/466es
dc.relationhttps://hdl.handle.net/20.500.12381/464es
dc.relationhttps://hdl.handle.net/20.500.12381/465es
dc.relationhttps://hdl.handle.net/20.500.12381/472es
dc.relationhttps://hdl.handle.net/20.500.12381/473es
dc.relationhttps://hdl.handle.net/20.500.12381/474es
dc.relationhttps://hdl.handle.net/20.500.12381/475es
dc.relationhttps://hdl.handle.net/20.500.12381/479es
dc.rightsAcceso abiertoes
dc.subjectAnonimización de datoses
dc.subjectAprendizaje profundoes
dc.subjectRedes generativas antagónicases
dc.titleInforme final del proyecto: Anonimización de datos basada en redes generativas antagónicases
dc.typeReporte técnicoes
dc.subject.aniiCiencias Naturales y Exactas
dc.subject.aniiCiencias de la Computación e Información
dc.subject.aniiCiencias de la Computación
dc.identifier.aniiFSDA_1_2018_1_154419es
dc.type.versionAceptadoes
dc.anii.institucionresponsableUniversidad ORT. Facultad de Ingenieríaes
dc.anii.subjectcompleto//Ciencias Naturales y Exactas/Ciencias de la Computación e Información/Ciencias de la Computaciónes
Aparece en las colecciones: Informes finales publicables de I+D

Archivos en este ítem:
archivo  Tamaño Formato
Informe_final_publicable FSDA_1_2018_1_154419.pdfDescargar 112.97 kBAdobe PDF

Las obras en REDI están protegidas por licencias Creative Commons.
Por más información sobre los términos de esta publicación, visita: Reconocimiento 4.0 Internacional. (CC BY)