Werbung
Deutsche Märkte öffnen in 6 Stunden 7 Minuten
  • Nikkei 225

    40.343,38
    +268,69 (+0,67%)
     
  • Dow Jones 30

    39.331,85
    +162,33 (+0,41%)
     
  • Bitcoin EUR

    57.821,54
    -684,43 (-1,17%)
     
  • CMC Crypto 200

    1.337,52
    -6,99 (-0,52%)
     
  • Nasdaq Compositive

    18.028,76
    +149,46 (+0,84%)
     
  • S&P 500

    5.509,01
    +33,92 (+0,62%)
     

Diese horrende Summe kostet ChatGPT jeden Tag

Um ChatGPT am Laufen zu halten, muss das KI-Unternehmen OpenAI täglich eine immens hohe Summe an Geld ausgeben. Sollte die neueste Version GPT-4 veröffentlicht werden, könnten die Kosten noch weiter steigen.

Allein der Betrieb von ChatGPT verschlingt Unmengen an Geld (Bild: CFOTO/Future Publishing via Getty Images)
Allein der Betrieb von ChatGPT verschlingt Unmengen an Geld (Bild: CFOTO/Future Publishing via Getty Images) (Future Publishing via Getty Images)

Laut The Information ist die immense Beliebtheit und Leistungsfähigkeit von ChatGPT mit exorbitanten Kosten verbunden. Allein die Aufrechterhaltung des Betriebs des KI-Tools verschlingt riesige Summen. Bis zu 700.000 US-Dollar pro Tag muss Hersteller OpenAI bislang ausgeben, um die leistungsstarke Infrastruktur überhaupt zu betreiben. Diese Zahlen stammen aus der Forschungsfirma SemiAnalysis.

"Der Großteil dieser Kosten ist auf die teuren Servern zurückzuführen, die sie benötigen", sagte Dylan Patel, Chefanalyst der Firma, gegenüber dem Portal. Wie Patel dem Insider verriet, könnten die aktuellen Kosten sogar noch höher sein. Die Berechnungen basieren auf der älteren und jetzt kostenlosen Version von ChatGPT, die von der Vorgängerversion GPT-3 angetrieben wird. Für das neueste Sprachmodell von OpenAI, GPT-4, rechnet der Chefanalyst mit noch höheren Kosten.

KI-Modelle verbrauchen viel Strom

Es ist kein Problem, das nur ChatGPT betrifft, denn KIs, insbesondere solche, die auch als Suchmaschine fungieren, sind unglaublich teuer im Betrieb, da die teuren Spezial-Chips, von denen sie angetrieben werden, einen enormen Stromverbrauch haben.

Genau deshalb bereitet Microsoft - das Milliarden von Dollar in OpenAI investiert hat - seinen eigenen proprietären KI-Chip namens "Athena" vor. Er soll seit 2019 in der Entwicklung sein und inzwischen laut The Information nur einigen ausgewählten Microsoft- und OpenAI-Mitarbeitern zur Verfügung stehen. Mit der Einführung des Chips hofft Microsoft, die aktuellen Nvidia-Grafikprozessoren durch etwas Effizienteres und damit weniger Kostenintensives zu ersetzen. "Athena könnte, wenn er wettbewerbsfähig ist, die Kosten pro Chip im Vergleich zu Nvidias Angeboten um ein Drittel senken“, erklärte Patel.

Microsoft bleibt bei Nvidia

Offenbar plant Microsoft nicht, die bislang verwendeten Nvidia-Chips vollständig zu ersetzen. Vor Kurzem haben die beiden Unternehmen eine umfangreiche Partnerschaft im Bereich KI vereinbart, die mehrere Jahre andauern wird. Bisher galt die Regel, dass die Leistungsfähigkeit von KI-Modellen direkt mit ihrer Größe zusammenhängt, was wiederum mit höheren Betriebskosten verbunden ist.

WERBUNG

Trotzdem kann Athena nicht schnell genug kommen. Letzte Woche bemerkte der CEO von OpenAI, Sam Altman, dass "wir am Ende der Ära" von "riesigen KI-Modellen" stehen, da große Sprachmodelle wie ChatGPT einen Punkt erreicht hätten, an dem der Ertrag abnimmt. Mit einer Größe von über einer Billion Parametern könnte OpenAIs neues GPT-4-Modell basierend auf eigener Analyse bereits an die Grenze der praktischen Skalierbarkeit stoßen. Sollte Patels Analyse korrekt sein, wird all dieser zusätzliche Ballast die Kosten in die Höhe treiben. Angesichts des ungebremsten Erfolgs von ChatGPT dürfte es OpenAI an einem aber sicherlich nicht mangeln: Geld.

VIDEO: "ChatGPT lügt": Elon Musk kündigt TruthGPT an