Ein Whistleblower von Apple verdeutlicht, wie sehr die Sprachassistentin Siri dazu genutzt wird, private Momente aufzuzeichnen und weiterzuleiten. Die Sache ist ernst…

Von Redaktion

Sollte es eine Überraschung sein? Und doch sind die Details schockierend und empörend. Ein Whistleblower, der für Apple arbeitet, hat der britischen Zeitung „The Guardian“ mitgeteilt, dass dessen beliebte sprachaktivierte Spionage-Assistentin Siri, die inzwischen in Millionen von Haushalten tätig ist, „regelmäßig“ Menschen aufzeichnet, die Sex haben, und andere „unzählige“ invasive Momente aufzeichnet, die sie umgehend an Apples Auftragnehmer sendet. Und wozu? Für deren „Qualitätskontrolle“:

„Apple-Vertragspartner hören regelmäßig vertrauliche medizinische Informationen, Drogendealer und Aufzeichnungen von Paaren, die Sex haben, als Teil ihrer Arbeit ab, bei der sie die Qualitätskontrolle übernehmen, oder sie „benoten“ den Siri-Sprachassistenten des Unternehmens, wie der Guardian erfahren hat.“

Was jedoch bis jetzt nicht bekannt oder zumindest nicht bekannt ist, ist, dass ein „kleiner Teil“ aller Siri-Aufzeichnungen, von denen die Verbraucher glaubten, dass es sich um private Einstellungen handelte, laut dem neuen Bericht an Apple-Vertragspartner auf der ganzen Welt weitergeleitet werden. Angeblich soll dies sicherstellen, dass Siri richtig reagiert und weiterhin Diktate unterscheiden kann. Apple sagt, laut The Guardian, die Daten „werden verwendet, um Siri und der Diktatfunktion zu helfen … Sie besser zu verstehen und zu erkennen, was Sie sagen“.

Ein anonymer Insider und Whistleblower des Unternehmens erklärte gegenüber The Guardian: „Es gab unzählige Aufzeichnungen, die private Gespräche zwischen Ärzten und Patienten, Geschäftsabschlüsse, anscheinend kriminelle Geschäfte, sexuelle Begegnungen usw. beinhalteten. Diese Aufzeichnungen werden von Benutzerdaten begleitet, die Standort-, Kontakt- und App-Daten enthalten.“

Loading...

Entgegen der Ansicht von Apple, es handele sich bei diesen Proben um „pseudonymisierte Aufzeichnungen“, können Apple-Mitarbeiter genau wissen, wer Sex hat, wo und zu welcher Zeit dies ausgeführt wurde.

Apples offizielle Antwort auf die Guardian-Untersuchung lautete wie folgt:

„Ein kleiner Teil der Siri-Anfragen wird analysiert, um Siri und die Diktatfunktion zu verbessern. Benutzeranforderungen sind nicht mit der Apple ID des Benutzers verknüpft. Siri-Antworten werden in sicheren Einrichtungen analysiert und alle Prüfer sind verpflichtet, die strengen Vertraulichkeitsanforderungen von Apple einzuhalten.“

Vertrauen Sie uns einfach, scheint Apple zu sagen. Das meiste, was als sensible Daten eingestuft werden kann, wird laut dem Bericht durch so genannte versehentliche Aktivierungen durch „Auslösewörter“ erfasst, wobei die höchsten Raten solcher Ereignisse über die Apple Watch- und HomePod-Smart-Lautsprecher zu verzeichnen sind.

„Die Häufigkeit von versehentlichen Auslösern auf der Uhr ist unglaublich hoch“, erklärte der Whistleblower des Unternehmens. „Die Uhr kann einige Schnipsel aufzeichnen, die 30 Sekunden lang sein werden – das ist nicht so lange, aber Sie können eine gute Vorstellung davon bekommen, was los ist.“

Der Insider fuhr fort: „Man kann definitiv einen Arzt und einen Patienten hören, die über die Krankengeschichte des Patienten sprechen. Oder Sie würden jemanden hören, vielleicht mit Hintergrundgeräuschen des Automotors – Sie können es nicht definitiv sagen, aber es ist ein Drogengeschäft … Sie können definitiv hören, dass es passiert. Und Sie können hören, wie Menschen sich an sexuellen Handlungen beteiligen, die versehentlich auf dem Pod oder der Uhr aufgezeichnet wurden.“

Weit weniger beruhigend ist, wie viele Menschen auf der ganzen Welt Zugang zu diesen privaten Momenten haben: „Es gibt nicht viele Überprüfungen, wer dort arbeitet, und die Datenmenge, die wir frei durchsehen können, ist recht umfangreich“, fuhr der Auftragnehmer fort. „Es ist nicht schwierig, die Person, die Sie hören, zu identifizieren, insbesondere durch versehentliche Auslöser – Adressen, Namen usw.“

Loading...

„Apple vergibt Unteraufträge, es gibt einen hohen Umsatz. Es ist nicht so, dass Menschen dazu ermutigt werden, Rücksicht auf die Privatsphäre der Menschen zu nehmen oder diese sogar in Betracht zu ziehen. Wenn es jemanden mit schändlichen Absichten gäbe, wäre es nicht schwer, [Personen auf den Aufnahmen] zu identifizieren. “

Die Beweise nehmen weiter zu: Siri ist der Traum eines Erpressers, der wahr geworden ist … oder der einer Spionageagentur, eines Voyeurs, eines politischen Gegners oder einfach nur eines Perversen…

Wir brauchen ihre Unterstützung!

Liebe Leser, wenn Sie keine Premiumartikel lesen möchten, aber uns dennoch unterstützen wollen, dann können sie das auch mit einer Spende auf unser Bankkonto tun. Fragen Sie per eMail: [email protected] nach den Bankdaten oder übersenden Sie einen Unterstützungsbeitrag einfach per Paypal. Danke für Ihre Hilfe!

Loading...

2 thoughts on “Apples Siri hört auch beim Sex zu”

  1. Habe mich bereits länger zurückliegend entschieden, keinen Cent mehr für ein apple Produkt zu lockern.
    Kurstipp: auf fallenden Kurs setzen.

  2. Man kann Siri und das Mikrofon auch ausschalten. Dass diese Assistenten im Empfangsstatus Geräusche aufzeichnen ist ja deren Sinn, sonst wäre die Frage ‚Hey Siri‘ nutzlos. So ich diese Funktion aber ausschalte dürfte niemand mithören, denn ein ausgeschaltetes Mikro ist tot. Das hört gar nix. Also, ein wenig Eigenverantwortung gehört zur Nutzung moderner IT schon dazu und wer bestimmte Grundregeln einhält muss sich vor Siri nicht fürchten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.