Siri-Datenschutz-Sammelklage beigelegt

Apple galt lange Zeit als Vorreiter in Sachen Datenschutz und Sicherheit. Doch der Siri-Datenschutzskandal aus dem Jahr 2019 und dessen langwierige juristische Aufarbeitung haben Risse im Image des Tech-Konzerns hinterlassen. Am 03.01.2025 wurde bekannt, dass Apple eine Siri-Datenschutz-Sammelklage in den USA nun außergerichtlich beigelegt hat. Das Unternehmen behauptet, eine Veräußerung der durch Siri gesammelten Informationen habe nie stattgefunden. Unternehmen, die Sprachassistenten oder ähnliche Technologien einsetzen, sollten diesen Fall zum Anlass nehmen, eigene Datenschutzpraktiken kritisch zu überprüfen.

Siri-Skandal von 2019

Im Jahr 2019 sorgte ein Whistleblower für Schlagzeilen, indem er über lockere Datenschutzpraktiken bei der Analyse von Siri-Audiomitschnitten berichtete. Mitarbeiter von Subunternehmen sollen sich systematisch Audiomitschnitte angehört haben, die Siri teils ungewollt aufgenommen habe. Dabei seien auch intime Details betroffen gewesen. Dies führte zu erheblicher Kritik, da viele Nutzer keine bewusste Zustimmung für diese Auswertungen gegeben hatten. Apple stoppte daraufhin vorübergehend die menschliche Auswertung solcher Daten. Später führte das Unternehmen ein Opt-in-Modell ein, um Nutzer explizit über die Verarbeitung ihrer Daten entscheiden zu lassen.

In diesem Zusammenhang kamen immer mehr Stimmen über die datenschutzrechtliche Bedenklichkeit von Sprachassistenten auf. Stiftung Warentest hat beispielsweise damals zahlreiche Smartlautsprecher überprüft und keines der 18 getesteten Produkte mit einer besseren Note als “befriedigend” bewerten. Laut des Berichts würden Nutzer einen Teil ihrer Privatsphäre aufgeben. Auch der damalige Bundesbeauftragte für Datenschutz und Informationsfreiheit (BfDI), Ulrich Kelber, hatte eine Überprüfung solcher Sprachassistenten angekündigt.

Datenschutzrechtliche Einordnung von Sprachassistenten

Sprachassistenten wie Siri, Alexa oder Google Assistant verarbeiten personenbezogene Daten in großem Umfang. Nach der Datenschutzgrundverordnung (DSGVO) sind Unternehmen verpflichtet, die Verarbeitung dieser Daten transparent, zweckgebunden und sicher zu gestalten. Dabei sollte für eine Datenverarbeitung eine Einwilligung der Betroffenen eingeholt werden. Zudem dürfen Verantwortliche nur die Daten erheben, die für den jeweiligen Zweck notwendig sind. Ungewollte oder versehentliche Aufnahmen widersprechen diesem Grundsatz. Die Verarbeitung von Gesprächen, die intime Details enthalten, berührt den Kernbereich privater Lebensgestaltung. Hier sind besonders strenge Anforderungen an die Verarbeitung und Speicherung von Daten zu stellen.

Beilegung mittels Vergleichs

Apple hat mittlerweile laut der Nachrichtenagentur Reuters die in den USA eingereichte Sammelklage außergerichtlich beigelegt. Man habe sich auf einen Vergleich in Höhe von 95 Millionen Dollar geeinigt. In diesem Zusammenhang habe das Tech-Unternehmen gegenüber Mac & I laut heise online betont, dass Daten „niemals zur Erstellung von Marketingprofilen verwendet und niemals zu irgendeinem Zweck an Dritte verkauft worden“ seien. Durch die Einigung wolle man „weitere Rechtsstreitigkeiten“ vermeiden und „Bedenken über die Auswertung von Siri-Audiomitschnitten durch Dritte hinter“ sich lassen. Apple behaupte auch, dass es keine Beweise dafür gebe, dass entsprechende Daten für personalisierte Werbung eingesetzt worden sind.

Relevanz für Unternehmen

Der Fall zeigt, wie schnell auch ein nur fragwürdiger Umgang mit Daten zu finanziellen Einbußen und insbesondere Reputationsverlust führen kann. Unternehmen, die Sprachassistenten einsetzen, sollten deshalb zunächst beachten, dass Nutzer klar und verständlich darüber informiert werden, welche Daten verarbeitet werden und zu welchem Zweck. Zudem ist ein einfacher und klarer Opt-in-Prozess unverzichtbar. Die hierbei erteilte Einwilligung sollte jederzeit widerrufbar sein. Zudem kann die Einhaltung von Datenschutzrecht bei Sprachassistenten durch datenschutzfreundliche Technikgestaltung (Privacy by Design) und Voreinstellungen (Privacy by Default) von Anfang an unterstützt werden. Auch regelmäßige Schulungen für Mitarbeiter können Whistleblower-Fälle und Datenschutzrisiken minimieren.

Fazit

Apple hat mittlerweile den Datenschutz-Skandal über Siri beigelegt. Trotzdem sollte der Fall als Weckruf für Unternehmen gelten, die auf Sprachassistenten und ähnliche Technologien setzen. Datenschutzverstöße können nicht nur erhebliche rechtliche und finanzielle Konsequenzen haben, sondern auch das Vertrauen der Nutzer nachhaltig schädigen. Unternehmen sollten daher proaktiv handeln, um Datenschutzverstöße zu vermeiden und gleichzeitig Transparenz und Nutzerfreundlichkeit zu fördern.