Google DeepMind präsentiert VaultGemma, ein Sprachmodell, das Datenschutz großschreibt.
In Kürze
- VaultGemma nutzt eine Milliarde Parameter für Datenschutz
- Technik der ‚differential privacy‘ schützt Nutzerdaten
- Erste Tests zeigen vielversprechende Ergebnisse
Google DeepMind präsentiert VaultGemma
Google DeepMind hat mit VaultGemma ein neues Sprachmodell präsentiert, das sich ganz dem Datenschutz verschrieben hat. Mit einer beeindruckenden Milliarde Parametern ist es das größte öffentliche Modell, das von Anfang an mit der Technik der „differential privacy“ trainiert wurde. Aber was bedeutet das genau?
Was ist „Differential Privacy“?
Die Methode der „differential privacy“ sorgt dafür, dass beim Training des Modells gezielt Zufallsrauschen hinzugefügt wird. Das hat den Vorteil, dass das Modell nicht in der Lage ist, einzelne Datenpunkte zu lernen oder abzurufen. Selbst wenn VaultGemma mit sensiblen Informationen gefüttert wird, bleibt der Zugriff auf diese Daten für das Modell unmöglich. Das ist ein großer Schritt in Richtung Datenschutz, denn es schützt die Privatsphäre der Nutzer.
Erste Testergebnisse
Erste Tests zeigen vielversprechende Ergebnisse: VaultGemma gibt tatsächlich keine Trainingsdaten wieder. Das klingt nach einer soliden Grundlage für den Einsatz in datenschutzsensiblen Bereichen. Allerdings gibt es auch einen Wermutstropfen: Die Leistung des Modells ist derzeit nicht ganz auf dem Niveau vergleichbarer Modelle, die vor fünf Jahren ohne diesen Privatschutz entwickelt wurden.
Verfügbarkeit und weitere Informationen
Für alle, die tiefer in die Materie eintauchen möchten, gibt es gute Nachrichten: Die Modellgewichte von VaultGemma sind auf Plattformen wie Hugging Face und Kaggle verfügbar. So kannst du selbst einen Blick auf die Technologie werfen und dir ein Bild von den Möglichkeiten machen.
Quellen
- Quelle: Google Deepmind
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.