VaultGemma es el primer modelo abierto entrenado con privacidad diferencial que equilibra seguridad de datos y utilidad práctica.

La IA hoy en día está en todas partes, desde tu propio smartphone, el televisor, o la misma lavadora; de hecho, hasta las mismas redes de telefonía son gestionadas por IA. Este crecimiento implica que los modelos no solo deban ser potentes, sino que además estén diseñados con privacidad diferencial, lo que asegura que la información sensible quede protegida desde el inicio.
Con ese objetivo, Google Research presentó VaultGemma, un modelo de lenguaje de gran escala (LLM) entrenado desde cero con privacidad diferencial (DP, por sus siglas en inglés). Este enfoque marca un cambio importante, porque asegura que el modelo procese datos sin exponer detalles sensibles ni memorizar ejemplos específicos.
La privacidad diferencial es una técnica que agrega un ruido matemático, una especie de constante, al modelo cuando realiza cálculos mientras es entrenada. La idea que plantea Google, es que con este subterfugio matemático, es disfrazar la información, de modo que no pueda ser rastreable un dato particular de la data inicial.
Entendamos la idea con este ejemplo: hay un coro de personas cantando (data inicial) y, desde luego, cada persona tiene un timbre único que representaría un dato particular. Lo que propone la gran G, es incorporar un leve ruido a cada voz, de modo que no sea factible reconocer la voz de cada cantante; sin embargo, el resultado final del grupo (coro cantando), transmite la esencia de la canción sin exponer quién cantó qué nota.
Con esto es factible garantizar que las respuestas que da el modelo, no muestre información delicada a partir de lo que aprendió al ser entrenada.
Por otra parte, esta técnica tiene dos problemas:
Esto se puede comparar con atender una videollamada en un café lleno de gente. Es posible seguir la conversación, pero el ruido obliga a concentrarse más y demanda un esfuerzo adicional para lograrlo.
Los investigadores desarrollaron leyes de escalamiento para entender cómo se relacionan tres elementos en el entrenamiento de modelos con privacidad diferencial:
Dentro de este marco aparece la relación ruido-lote, un concepto central que mide cuánto y cómo el ruido agregado en comparación con el tamaño de los lotes de datos. Sus efectos se pueden resumir así:
Imagina que tiene un vaso y un gran balde con agua, ¿qué ocurre con el sabor del agua en cada caso al verterle una cucharadita de sal a cada uno?
Si llevamos esta idea al entrenamiento de los LLM al agregar un pequeño ruido (sal) a un conjunto de datos por lotes (balde con agua), no debería verse afectado, controlando el impacto del ruido en el entrenamiento.
Los experimentos mostraron que entrenar con privacidad diferencial requiere ajustar prioridades:
VaultGemma fue evaluado frente a otros modelos y los resultados arrojaron lo siguiente:
Con estos números, se puede suponer que VaultGemma logra un equilibrio: mantiene niveles de rendimiento cercanos a modelos no privados de años anteriores, pero con certezas claras en cuanto a seguridad de datos.
El desarrollo de VaultGemma permite extraer varios aprendizajes: