Zwischen Innovation und Identitätsklau – Voice-ID im Finanzbereich braucht Kontrolle
Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte (EDÖB) hat geprüft, ob die PostFinance AG bei der Nutzung von Stimmerkennung zur Authentifizierung datenschutzrechtliche Bestimmungen verletzt hat.
Gemäss seiner heutigen Medienmitteilung hat der EDÖB bereits am 16. Mai 2025 seine Untersuchung gegen die PostFinance AG abgeschlossen. Dabei stellte er fest, dass es sich bei Stimmabdrücken um biometrische Daten handelt. Wenn diese eine Person eindeutig identifizieren, kategorisiert das schweizerische Datenschutzgesetz sie als besonders schützenswerte Personendaten. Daher benötigt jede Nutzung von Stimmabdrücken die ausdrückliche Einwilligung der betroffenen Personen. Mittels Verfügung hat der EDÖB die PostFinance AG verpflichtet, von betroffenen Personen ausdrückliche Einwilligungen einzuholen und die Stimmabdrücke ohne solche Einwilligung zu löschen. Grundlage ist das schweizerische Datenschutzgesetz (DSG), das unter anderem hohe Anforderungen an Transparenz, Datenminimierung und Datenschutz-Folgenabschätzungen stellt.
Auch andere europäische Datenschutzbehörden nehmen die Nutzung der Stimme zunehmend kritisch unter die Lupe. So verhängte die spanische Datenschutzbehörde AEPD am 15. Mai 2025 eine Geldbusse von EUR 30'000 gegen das Medienunternehmen ATRESMEDIA, weil in einem Online-Video die Stimmen von minderjährigen Personen nicht ausreichend anonymisiert worden waren. Nach Art. 4 DSGVO gelten Stimmen als personenbezogene Daten – und sobald sie zur Identifizierung verarbeitet werden, sogar als besonders schützenswerte biometrische Merkmale im Sinne von Art. 9 DSGVO (mehr zu diesem Entscheid finden Sie auf datenrecht.ch sowie direkt auf der Website der AEPD).
Ebenfalls auf EU-Ebene verschärft der kürzlich in Kraft getretene Artificial Intelligence Act (AI Act) die Regeln: Echtzeit-Biometrie – wozu auch Voice Authentication zählen kann – ist in öffentlichen Bereichen grundsätzlich verboten, Echtzeit-Biometrie darf nur mit strengen Auflagen und richterlicher Genehmigung genutzt werden (z.B. zur Identifizierung eines Entführungs-Opfers). Der AI Act setzt auf Risikoklassen, fordert Transparenz, menschliche Aufsicht und Impact‑Analysen, besonders bei Hochrisiko-KI-Systemen.
Der Einsatz von KI‑basierter Stimmerkennung bietet zwar spannende Aussichten – beispielsweise für nahtlose Nutzererlebnisse oder Barrierefreiheit –, doch Deepfakes und KI‑Imitation machen die Technologie zu einem attraktiven Einfallstor für Identitätsbetrug. OpenAI‑Chef Sam Altman warnt aktuell, dass Voice Authentication in Banken „eine verrückte Idee“ sei – KI habe die meisten Authentifizierungsverfahren bereits geknackt. Forscher zeigen zudem, wie generative KI biometrische Systeme angreift, und empfehlen Schutzschichten, dynamische biometrische Signale und Datenschutz‑Governance.
Governance und Lösungsansätze: Wichtig sind Privacy‑by‑Design‑Prinzipien, lokale Verarbeitung statt Cloud, transparente Nutzungserklärungen, Datenschutz-Folgenabschätzung (Art. 35 DSGVO) und Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme (Art. 27 AI Act), sowie Multi‑Faktor-Authentifizierung durch Stimme plus PIN oder Token. Eine zusätzliche Schutzebene bieten technische Gegenmassnahmen wie Stimm‑Anonymisierung und regelmässig aktualisierte Deepfake‑Erkennungssysteme.
Fazit: Die Authentifizierung per Stimme ist technisch faszinierend, aber nur tragbar, wenn KI‑Risiken durch robuste Governance, klare Normen und technische Sicherungen eingedämmt werden.