Werbung
Deutsche Märkte geschlossen
  • DAX

    17.999,37
    +69,05 (+0,39%)
     
  • Euro Stoxx 50

    4.977,03
    +22,02 (+0,44%)
     
  • Dow Jones 30

    38.107,49
    +124,25 (+0,33%)
     
  • Gold

    2.364,60
    -9,50 (-0,40%)
     
  • EUR/USD

    1,0638
    -0,0008 (-0,07%)
     
  • Bitcoin EUR

    60.806,94
    +215,04 (+0,35%)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00%)
     
  • Öl (Brent)

    84,57
    -1,09 (-1,27%)
     
  • MDAX

    26.421,94
    -154,89 (-0,58%)
     
  • TecDAX

    3.332,01
    +5,75 (+0,17%)
     
  • SDAX

    14.247,20
    -101,27 (-0,71%)
     
  • Nikkei 225

    39.232,80
    -290,75 (-0,74%)
     
  • FTSE 100

    7.957,02
    -38,56 (-0,48%)
     
  • CAC 40

    8.035,40
    +24,57 (+0,31%)
     
  • Nasdaq Compositive

    16.181,58
    +6,49 (+0,04%)
     

OpenAI warnt jetzt selbst vor den Gefahren des eigenen KI-Modells, das Stimmen imitieren kann

Enwickelnde des KI-Riesen OpenAI wissen, dass ihr neues Sprach-Tool Gefahren birgt und haben Vorschläge, die Technologie sicherer zu machen. - Copyright: Jonathan Raa/Getty Images
Enwickelnde des KI-Riesen OpenAI wissen, dass ihr neues Sprach-Tool Gefahren birgt und haben Vorschläge, die Technologie sicherer zu machen. - Copyright: Jonathan Raa/Getty Images

Mithilfe künstlicher Intelligenz (KI) entwickelte Sprachtools sind eine heikle Angelegenheit – insbesondere im Angesicht von Fake News im US-Wahljahr. Das weiß auch OpenAI. Jetzt stellte das Unternehmen in einem Blogbeitrag die ersten Ergebnisse der Testphase seines neuen Tools für synthetische Stimmen vor. Gleichzeitig ging die KI-Pionierfirma auf Bedenken hinsichtlich des Einsatzes von KI zur Nachbildung menschlicher Stimmen ein.

Das Voice Engine-Tool von OpenAI entwickelte OpenAI eigenen Angaben zufolge des Unternehmens Ende 2022. Es benötigt nicht mehr als einen 15-sekündigen Audioclip der Stimme einer realen Person, um eine unheimlich realistische, menschlich klingende Nachbildung dieser Stimme zu erzeugen. Und die Nutzenden können diese Stimme alles Mögliche sagen lassen – sogar in anderen Sprachen.

KI-Tool zur Sprachübersetzung und medizinische Wiederherstellung menschlicher Stimmen

Noch ist das Tool nicht für die Öffentlichkeit verfügbar. Außerdem sagt OpenAI, es stehe noch nicht fest, ob und wie diese Technologie in großem Maßstab eingesetzt werden kann. "Wir sind uns bewusst, dass die Erzeugung von Sprache, die der Stimme von Menschen ähnelt, ernsthafte Risiken birgt, die in einem Wahljahr besonders wichtig sind", schreibt OpenAI in seinem Blogpost. "Wir arbeiten mit amerikanischen und internationalen Partnern aus den Bereichen Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und darüber hinaus zusammen, um ihr Feedback in unsere Entwicklung einzubeziehen."

WERBUNG

OpenAI nutzt das Tool derzeit für die Vorlesefunktionen von ChatGPT sowie für die Text-to-Speech-API des Unternehmens.

Ende vergangenen Jahres hat OpenAI begonnen, das Tool extern zu erweitern und "mit einer kleinen Gruppe von vertrauenswürdigen Partnern" zusammenzuarbeiten. Der Entwickler will mit ihnen Voice Engine für Kinder-Bildungsmaterial, Sprachübersetzung und medizinische Sprachwiederherstellung testen, so das Unternehmen in seinem Beitrag.

Riskante Technologie, aber Chance für einen Dialog über verantwortungsvollen Einsatz?

OpenAI betonte, seine Partnerorganisationen müssten strenge Richtlinien einhalten, um Voice Engine zu nutzen. Sie müssen zum Beispiel das Einverständnis jeder verkörperten Person einholen. Darüber hinaus müssen Zuhörende informiert werden, dass die Stimme von KI generiert wurde.

"Wir verfolgen einen vorsichtigen und informierten Ansatz für eine breitere Freigabe aufgrund des Potenzials für den Missbrauch von synthetischer Stimme", schrieb das Unternehmen. "Wir hoffen, einen Dialog über den verantwortungsvollen Einsatz von synthetischen Stimmen und die Anpassung der Gesellschaft an diese neuen Möglichkeiten zu eröffnen."

Noch gibt das Unternehmen sein Tool nach eigenen Angaben nicht für die Allgemeinheit frei. Doch es drängte politische Entscheidungstragende und Entwickelnde dazu, Maßnahmen zu ergreifen, um einen gefährlichen Missbrauch der von ihm entwickelten Technologie zu verhindern.

OpenAI schlug beispielsweise vor, eine "No-Go-Voice-Liste" zu erstellen, um die unbefugte Replikation prominenter Stimmen, wie zum Beispiel von Politikerinnen und Politikern oder Berühmtheiten, zu verhindern.

Das Unternehmen empfahl auch, Banken sollten keine stimmbasierte Sicherheitsauthentifizierung mehr verwenden und Forschende Techniken entwickeln, um festzustellen, ob eine Stimme echt oder gefälscht ist.

Lest den Originalartikel auf Business Insider.