Werbung
Deutsche Märkte öffnen in 51 Minuten
  • Nikkei 225

    37.166,19
    -913,51 (-2,40%)
     
  • Dow Jones 30

    37.775,38
    +22,07 (+0,06%)
     
  • Bitcoin EUR

    58.300,62
    +833,67 (+1,45%)
     
  • CMC Crypto 200

    1.285,74
    -26,88 (-2,01%)
     
  • Nasdaq Compositive

    15.601,50
    -81,87 (-0,52%)
     
  • S&P 500

    5.011,12
    -11,09 (-0,22%)
     

Nach Amazon und Google: Auch Apples Siri wird von Mitarbeitern analysiert

Immer wieder sorgen digitale Sprachassistenten für Diskussionen über Privatsphäre und mitgeschnittene Gespräche. Nach Amazon und Google gab jetzt auch Apple zu, einzelne Audioaufnahmen der Sprachsteuerung Siri von Mitarbeitern analysieren zu lassen. Die Gespräche sind laut einem Insider höchst privater Natur.

Bangkok, Thailand - September 25, 2014 : Apple iPhone5s held in one hand showing its screen with Siri application icons.
Das Mikrofon steht für Siri. Doch die smarte Sprachsteuerung schaltete sich auch mal unbeabsichtigt ein. (Symbolbild: Getty Images)

Alexa, Google und Co sind zwar praktische Tools im Alltag, doch ihre Abhör-Fähigkeit gegenüber privaten Gesprächen wird immer wieder scharf kritisiert. Denn wer garantiert, dass die Sprachassistenten nicht wesentlich öfter zuhören, als es dem Nutzer bewusst ist? So mussten in der Vergangenheit erst Amazon und später Google zugeben, dass Mitarbeiter einzelne Gesprächsmitschnitte analysieren würden, um die Sprachassistenten technisch zu verbessern. Jetzt wurde bekannt, dass auch Apple Audiomitschnitte der Sprachsteuerung Siri analysieren lies. Der britische “The Guardian“ berichtete über den Fall und beruft sich auf einen Unternehmens-Insider.

Siri belauscht auch mal heikle Gespräche

Apple räumte gegenüber dem “The Guardian“ die Aufnahmen ein und betonte, dass die Daten ausschließlich zur Qualitätsverbesserung der Sprachsteuerung verwendet würden. Ziel sei es, dass Siri die Nutzer besser verstehe und erkenne was sie sagten. Schön und gut – aber laut dem “The Guardian”-Insider würde Siri dabei sehr private Gespräche abhören. Beispielsweise über medizinische Befunde und kriminelle Drogen-Deals. Auch bei Paaren, die Sex hätten, würde die digitale Dame lauschen. Oft wird Siri dabei versehentlich über bestimmte Geräusche aktiviert. Laut dem Insider reiche da etwa schon das Zuziehen eines Reißverschlusses. Besonders anfällig seien die Apple Watch und der HomePod.

WERBUNG

Digitales Elefantengedächtnis: Bundestag warnt Eltern vor Alexa

Apple Watch und Home Pod sind besonders anfällig

Apple versichert, dass weniger als ein Prozent der Siri-Gespräche analysiert würden. Die Analyse erfolge in "sicheren Einrichtungen und alle Auftragnehmer sind verpflichtet, sich an Apples strenge Vertraulichkeitsregeln zu halten". Die Mitschnitte seien anonymisiert und der Nutzer mit seiner Apple-ID in keinem Fall zu identifizieren, wie das Unternehmen in einer Stellungnahme mitteilte. Der “The Guardian” bemängelt, dass Apple in seinen Nutzungsbedingungen nicht explizit angäbe, dass Menschen die Gespräche analysieren würden. Die Mitarbeiter wüssten zudem nicht, wie sie mit dem heiklen Inhalt solcher Gespräche umgehen sollten.

Insider: Nutzer sind sehr wohl zu identifizieren

Damit nicht genug: Aller Datensicherheit zum Trotz könne laut dem Insider sehr wohl der Gesprächsinhaber via Standortdaten und App-Informationen identifiziert werden. Für Mitarbeiter mit bösen Absichten sei es nicht besonders schwer, bestimmte Aufnahmen mit realen Personen in Verbindung zu bringen.

VIDEO: Das sind die wertvollsten Marken der Welt