KI-Chatbots verhelfen Content-Dieben zu Nachrichten-Plagiaten

In diesem Artikel:

(Bloomberg) -- Dutzende von Websites nutzen KI-Chatbots, um Artikel von Top-Verlagen zu kopieren und weiterzuverwenden, wie aus einem Bericht des Nachrichtenbewertungsunternehmens NewsGuard hervorgeht. Die Ergebnisse zeigen, wie Werkzeuge der künstlichen Intelligenz die Geschäftsmodelle von Medienunternehmen untergraben.

Weitere Artikel von Bloomberg auf Deutsch:

NewsGuard untersuchte 37 Websites, deren Geschichten identische Texte, Fotos und Zitate enthielten wie Artikel, die zuvor in der New York Times, Reuters und CNN erschienen waren. Ins Visier gerieten dabei Seiten mit Namen wie DailyHeadliner.com und TalkGlitz.com. Diese grasen Online-Inhalte ab und mischen aktuelle Nachrichten, Lifestyle-Inhalte und mehr. Angaben zu den ursprünglichen Autoren oder Nachrichtenquellen fehlten.

News-Aggregatoren und Content-Farmen wie diese, die über Suchmaschinen Klick-Zahlen generieren, gibt es schon länger. NewsGuard untersuchte, wie KI eingesetzt wurde, um Nachrichten umzuschreiben.

In den vergangenen Monaten sind die Spannungen zwischen Tech-Unternehmen und der Medienbranche eskaliert, die in der neuen Generation leistungsfähiger KI-Tools eine Bedrohung sieht. Wenn die Software auf große Mengen von Online-Daten, einschließlich urheberrechtlich geschützter Werke, trainiert wird, können die damit produzierten Inhalte den Lebensunterhalt von Autoren, Künstlern und Journalisten gefährden.

Autoren haben gegen mehrere KI-Firmen rechtliche Schritte wegen Urheberrechtsverletzungen eingeleitet. Bei den Streiks von Hollywood-Schauspielern und -Autoren spielt das Thema in Bezug auf Fernseh- und Kinofilme ebenfalls eine Rolle. Laut NPR erwägt auch die New York Times rechtliche Schritte gegen den ChatGPT-Schöpfer OpenAI Inc. wegen der Art und Weise, wie ihre Berichte in die Trainingsdaten einfließen.

Die im NewsGuard-Bericht zitierten Websites erwähnten nicht, ob sie KI-Chatbots wie ChatGPT oder Google Bard von Alphabet Inc. einsetzen. OpenAI verbietet ausdrücklich die Verwendung seiner KI-Modelle für “Plagiate”. Google untersagt, dass seine generative KI für die Erstellung und Verbreitung von “Inhalten, die darauf abzielen, falsch zu informieren, falsch darzustellen oder zu täuschen” genutzt wird. OpenAI und Google haben bislang nicht auf Anfragen von Bloomberg reagiert.