Werbung
Deutsche Märkte geschlossen
  • DAX

    18.492,49
    +15,40 (+0,08%)
     
  • Euro Stoxx 50

    5.083,42
    +1,68 (+0,03%)
     
  • Dow Jones 30

    39.807,37
    +47,29 (+0,12%)
     
  • Gold

    2.254,80
    +16,40 (+0,73%)
     
  • EUR/USD

    1,0782
    -0,0012 (-0,11%)
     
  • Bitcoin EUR

    64.949,29
    -553,07 (-0,84%)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00%)
     
  • Öl (Brent)

    83,11
    -0,06 (-0,07%)
     
  • MDAX

    27.043,04
    -48,91 (-0,18%)
     
  • TecDAX

    3.454,38
    -2,98 (-0,09%)
     
  • SDAX

    14.294,62
    -115,51 (-0,80%)
     
  • Nikkei 225

    40.369,44
    +201,37 (+0,50%)
     
  • FTSE 100

    7.952,62
    +20,64 (+0,26%)
     
  • CAC 40

    8.205,81
    +1,00 (+0,01%)
     
  • Nasdaq Compositive

    16.379,46
    -20,06 (-0,12%)
     

Amazon warnt seine Mitarbeiter davor, vertrauliche Informationen an ChatGPT weiterzugeben

Einige Amazon-Mitarbeiter sind begeistert von dem Potenzial, das ChatGPT hat und nutzen das Tool bereits jetzt als "Programmierassistenten". - Copyright: LINDSEY WASSON/Reuters
Einige Amazon-Mitarbeiter sind begeistert von dem Potenzial, das ChatGPT hat und nutzen das Tool bereits jetzt als "Programmierassistenten". - Copyright: LINDSEY WASSON/Reuters

Vergangenen Monat überfluteten Amazon-Mitarbeiter einen internen Slack-Kanal mit Fragen zu ChatGPT – einem KI-Tool, das die Tech-Welt seit seiner Veröffentlichung Ende November im Sturm erobert hat.

Einige fragten, ob Amazon eine offizielle Anleitung zur Verwendung von ChatGPT auf Arbeitsgeräten habe. Andere fragten sich, ob sie das KI-Tool überhaupt für die Arbeit nutzen dürfen. Eine Person forderte die Cloud-Einheit von Amazon Web Services auf, ihre Position zur "akzeptablen Nutzung von generativen KI-Tools" wie ChatGPT zu veröffentlichen.

Bald meldete sich eine Anwältin von Amazon zu Wort. Sie warnte die Mitarbeiter, ChatGPT keine "vertraulichen Amazon-Informationen (einschließlich des Amazon-Codes, an dem sie arbeiten)" zur Verfügung zu stellen, wie aus einem Screenshot der Nachricht hervorgeht, der Business Insider vorliegt.

WERBUNG

Die Anwältin, eine leitende Unternehmensjuristin bei Amazon, schlug den Mitarbeitern vor, die bestehenden Interessenskonflikt- und Vertraulichkeitsrichtlinien des Unternehmens zu befolgen, da es "Fälle" gegeben habe, in denen die Antworten von ChatGPT internen Amazon-Daten ähnelten.

Der Austausch mit den Mitarbeitern spiegelt eine der vielen neuen ethischen Fragen wider, die sich aus dem plötzlichen Auftauchen von ChatGPT ergeben. Es ist ein KI-Tool, das mit ausgesprochen artikulierten und intelligenten Antworten auf Aufforderungen reagieren kann. Seine rasche Verbreitung hat das Potenzial, Unternehmen in der Medienbranche, im akademischen Bereich und im Gesundheitswesen umzukrempeln. Das hat zu einer fieberhaften Auseinandersetzung mit den Anwendungsfällen des Chatbots sowie den damit einhergehenden Folgen geführt.

Die Frage, wie vertrauliche Unternehmensdaten mit ChatGPT geteilt werden und was OpenAI, der Erfinder des KI-Tools, damit macht, könnte in Zukunft zu einem heiklen Thema werden. Dies ist für Amazon besonders wichtig, da sein Hauptkonkurrent Microsoft stark in OpenAI investiert hat, einschließlich einer neuen Finanzierungsrunde, die sich Berichten zufolge auf zehn Milliarden US-Dollar (etwa 9,1 Milliarden Euro) beläuft.

"OpenAI ist weit davon entfernt, transparent zu machen, wie sie die Daten verwenden. Aber wenn sie in die Trainingsdaten einfließen, würde ich vermuten, dass die Unternehmen sich fragen: Wird es nach ein paar Monaten des weit verbreiteten Einsatzes von ChatGPT möglich sein, private Unternehmensinformationen mit geschickt formulierten Eingabeaufforderungen zu extrahieren?", sagte Emily Bender, die Computerlinguistik an der University of Washington unterrichtet.

Der Sprecher von Amazon reagierte nicht auf eine Anfrage. Der Vertreter von OpenAI verwies für alle Fragen zu den Privatsphäre- und Datenschutzrichtlinien des Unternehmens auf die FAQ-Seite von ChatGPT.

Einige Amazon-Mitarbeiter benutzen ChatGPT schon als "Programmierassistenten"

Amazon hat einige interne Sicherheitsvorkehrungen für ChatGPT getroffen. Wenn Mitarbeiter beispielsweise ein Arbeitsgerät verwenden, um die ChatGPT-Website aufzurufen, erscheint eine Warnmeldung. Diese besagt, dass sie im Begriff sind, einen Drittanbieterservice zu besuchen, der "möglicherweise nicht für die Verwendung durch Amazon Security zugelassen ist". Das zeigen Screenshots, die Business Insider vorliegen.

Mitarbeiter im Slack-Kanal sagten, dass sie diese Meldung umgehen konnten, indem sie einfach auf die Registerkarte „Bestätigen“ klickten. Die Mitarbeiter vermuteten, dass das Warn-Pop-up dazu dient, sie davon abzuhalten, vertrauliche Informationen in ChatGPT einzufügen – zumal sie noch keine Unternehmensrichtlinien für die interne Nutzung gesehen haben.

Dennoch nutzen einige Amazon-Mitarbeiter das KI-Tool bereits als Software-"Programmierassistenten", indem sie es bitten, interne Codezeilen zu verbessern. Das geht aus Slack-Nachrichten her, die Business Insider einsehen konnte.

"Ich denke, es wäre großartig, das Programm jetzt direkt nutzen zu können", schrieb eine Person in den Slack-Kanal. "Jede Anleitung wäre also fantastisch."

"Sowohl ängstlich als auch aufgeregt"

Ein anderer Mitarbeiter sagte, er habe ChatGPT einige der Fragen von Amazons Bewerbungsgesprächen für offene Stellen im Bereich Programmierung mitgeteilt. Das Modell hatte die richtige Lösung für mehrere dieser technischen Fragen parat, wie dieser Mitarbeiter auf Slack postete.

"Ich bin sowohl ängstlich als auch aufgeregt, zu sehen, welche Auswirkungen dies auf die Art und Weise haben wird, wie wir Coding-Interviews führen", schrieb dieser Mitarbeiter auf Slack.

Insgesamt waren die Amazon-Mitarbeiter im Slack-Kanal begeistert vom Potenzial von ChatGPT und fragten sich, ob Amazon an einem konkurrierenden Produkt arbeitet.

Die Unternehmensanwältin, die die Mitarbeiter vor der Verwendung von ChatGPT warnte, sagte, Amazon entwickle „ähnliche Technologien“ und verwies auf den Sprachassistenten Alexa und den Code-Empfehlungsdienst CodeWhisperer.

Ein Mitarbeiter von Amazon Web Services (AWS) schrieb, dass das Enterprise-Support-Team vor kurzem eine kleine interne Arbeitsgruppe ins Leben gerufen habe, um "die Auswirkungen von fortgeschrittener Chat-KI auf unser Geschäft zu verstehen", wie es in den Slack-Nachrichten heißt. Das Ergebnis: ChatGPT leistet "sehr gute Arbeit" bei der Beantwortung von AWS-Supportfragen, einschließlich schwieriger Fragen wie der Fehlerbehebung bei Aurora-Datenbankproblemen. Es ist auch "großartig" bei der Erstellung von Schulungsmaterial für die AWS Certified Cloud Architect-Prüfungen und "sehr gut" beim Erfassen der Unternehmensziele eines Kunden, so die Slack-Mitteilungen der Mitarbeiter.

"Nicht annähernd transparent"

Die zunehmende Nutzung von ChatGPT am Arbeitsplatz wirft ernsthafte Fragen darüber auf, wie OpenAI das mit dem KI-Tool geteilte Material nutzen möchte, so Bender von der University of Washington.

In den Nutzungsbedingungen von OpenAI müssen die Nutzer zustimmen, dass das Unternehmen alle von den Nutzern und ChatGPT erzeugten Eingaben und Ausgaben verwenden kann. Es sagt auch, dass es alle personenbezogenen Daten aus den Datensätzen, die es verwendet, entfernt.

Bender sagte, es sei schwer, zu erkennen, wie OpenAI persönliche Informationen "gründlich" identifiziere und entferne, wenn man die schnell wachsende Größe von ChatGPT bedenkt. Das Tool hat innerhalb von einer Woche nach dem Launch eine Million Nutzer überschritten. Noch wichtiger ist, dass das geistige Eigentum von Unternehmen wahrscheinlich nicht zu dem gehört, was als personenbezogene Daten definiert wird, so Bender.

Für die Mitarbeiter von Amazon scheint der Datenschutz die geringste Sorge zu sein. Sie sagten, die Verwendung des Chatbots bei der Arbeit habe zu einer "zehnfachen Produktivitätssteigerung" geführt und viele äußerten den Wunsch, sich internen Teams anzuschließen, die ähnliche Dienste entwickeln.

"Wenn es eine aktuelle Initiative zum Aufbau eines ähnlichen Dienstes gibt, wäre ich daran interessiert, Zeit zu investieren, um beim Aufbau zu helfen, falls nötig", schrieb einer der Mitarbeiter bei Slack.

Dieser Artikel wurde von Stefanie Michallek aus dem Englischen übersetzt. Das Original findet ihr hier.

Dieser Artikel erschien am 27. Januar 2023. Er wurde am 28. Januar 2023 erneut geprüft und aktualisiert.