Werbung
Deutsche Märkte geschlossen
  • DAX

    18.002,02
    -263,66 (-1,44%)
     
  • Euro Stoxx 50

    4.839,14
    -96,36 (-1,95%)
     
  • Dow Jones 30

    38.589,16
    -57,94 (-0,15%)
     
  • Gold

    2.348,40
    +30,40 (+1,31%)
     
  • EUR/USD

    1,0709
    -0,0033 (-0,31%)
     
  • Bitcoin EUR

    61.907,73
    +168,62 (+0,27%)
     
  • CMC Crypto 200

    1.374,96
    -42,92 (-3,03%)
     
  • Öl (Brent)

    78,49
    -0,13 (-0,17%)
     
  • MDAX

    25.719,43
    -355,68 (-1,36%)
     
  • TecDAX

    3.353,26
    -47,31 (-1,39%)
     
  • SDAX

    14.367,06
    -256,23 (-1,75%)
     
  • Nikkei 225

    38.814,56
    +94,09 (+0,24%)
     
  • FTSE 100

    8.146,86
    -16,81 (-0,21%)
     
  • CAC 40

    7.503,27
    -204,75 (-2,66%)
     
  • Nasdaq Compositive

    17.688,88
    +21,32 (+0,12%)
     

Mit diesen Prompts generiert ihr die besten KI-Bilder

Immer mehr Startups nutzen KI, um Bilder zu generieren. - Copyright: OpenAI
Immer mehr Startups nutzen KI, um Bilder zu generieren. - Copyright: OpenAI

Das ist ein exklusiver Auszug aus dem Buch „Kreative Intelligenz“ von Mario Herger. Der Titel erscheint am 30. November 2023 im Plassen Verlag.

 - Copyright: Plassen Verlag
- Copyright: Plassen Verlag

Bislang sahen wir uns nur Beispiele an, wie aus einer Texteingabe wieder ein Text entsteht. Doch Large Language Models, auch als sogenannte Diffusionsmodelle bekannt, erlauben uns, aus einer Texteingabe ein Bild zu generieren, Unschärfen zu entfernen oder „Inpainting“ vorzunehmen, also fehlende Teile eines Bildes zu rekonstruieren. Einige bekannte Bild-KIs sind „Midjourney“, „Dall-E“ oder „Stable Diffusion“. Um einen Text in ein Bild zu verwandeln, können beispielsweise zwölf Elemente vom selbst ernannten „KI-Flüsterer“ Bryan Sykes in der Anweisung helfen, aus dem System bessere Ergebnisse herauszukitzeln. Führen wir hier zunächst eine vollständige Beispielvorlage eines Text-zu-Bild-Prompts an und zerlegen wir diese dann in die Einzelteile:

WERBUNG

Erstelle ein Bild eines [Motivs] [Handlung] in einer [Umgebung], mit [Beleuchtung], die [Komposition] betont und einem [Stil], der [Adjektiv] ist. Der [Blickwinkel/Perspektive] sollte [Adjektiv] sein, und das Bild sollte in der [Epoche] angesiedelt sein. Das Bild sollte in einem [Medium] wiedergegeben werden, das [Gefühl] hervorruft, mit einer [Ausrichtung] von [Seitenverhältnis]. Schließe alle [Nichts] aus.

Hier die englische Version, da einige der heutigen KIs noch nicht mit anderen Sprachen als Englisch umgehen können und ich meinen Lesern die Option offenlassen wollte, welche Bild-KI sie verwenden:

Create an image of a [Subject] [Action] in a [Setting], with [Lighting] that emphasizes [Composition] and a [Style] that is [Adjective]. The [Angle/Perspective] should be [Adjective], and the image should be set in the [Time Period] period. The image should be rendered in a [Medium] that evokes [Feeling], with an [Orientation] of [Aspect Ratio]. Exclude any [Nots].

Gehen wir nun die einzelnen Elemente durch, die wir für die Bildgenerierung aus einer Textanweisung brauchen.

Motiv | Subject

Es handelt sich dabei um das primäre Objekt oder die Figur, die in dem Bild dargestellt werden soll. Es kann sich um eine Person, ein Tier oder einen beliebigen Gegenstand handeln. Der Fantasie sind keine Grenzen gesetzt und es können auch in der Wirklichkeit nicht existente Objekte angegeben werden, solange sie bildlich dargestellt werden können.

Handlung | Action

Mit welcher Handlung ist unser Motiv beschäftigt? Steht die Person, läuft das Tier, fährt das Auto, leuchtet die Glühbirne?

Umgebung | Setting

In welcher natürlichen oder künstlichen Umgebung befindet sich unser Motiv bei der Tätigkeit? Ist es im Wald, an einem See, in einem Kaffeehaus, vor dem Fernseher, auf einem Lichtstrahl reitend, im Weltall schwebend? Alles ist zulässig, solange es sich bildlich darstellen lässt.

Beleuchtung | Lighting

Die Art des Lichts und wie stark eine Szene beleuchtet wird, kann die Stimmung der Szene dramatisch beeinflussen. Ist es freundlich hell oder bedrohlich dunkel?

Komposition | Composition

Wo im Bild sind die visuellen Elemente positioniert? Ist das Motiv eingeengt zwischen anderen Objekten oder ist es im Einklang mit der Umgebung?

Stil | Style

Hier handelt es sich um die Gesamtästhetik oder den visuellen Stil des Bildes. Ist es beispielsweise abstrakt, realistisch, surreal oder naturalistisch? Soll es fotorealistisch, im Stil von Picasso, eine Strichzeichnung oder gar ein Manga sein?

Blickwinkel & Perspektive | Angle & Perspective

Aus welchem Blickwinkel oder aus welcher Perspektive wird das Objekt im Bild dargestellt? Von unten aus der Froschperspektive, von oben aus der Vogelperspektive? Steht der Betrachter ganz nahe am Motiv dran oder sieht er es eher aus der Ferne?

Epoche | Time period

In welchen kulturellen oder geschichtlichen Kontext wurde das Bild gesetzt? Diese Auswahl bestimmt die Kleidung, den Baustil und andere Elemente, die eine bestimmte Epoche, Ära oder Kultur beschreiben.

Medium

Hierbei handelt es sich um das physische oder künstlerische Medium, auf dem das Bild geschaffen werden soll. Bei einem Gemälde auf einer Leinwand sind eventuell die Pinselstriche, dick aufgetragene Farben und das Leinwandmuster zu erkennen, bei einem Foto verwackelte Unschärfen oder durch die Linse hervorgerufene Lichtreflexe und bei digitalen Medien die präzise Schärfe der Linien.

Gefühl | Feeling

Welche Emotion soll das Bild im Betrachter hervorrufen? Soll es Freude, Begeisterung, Angst oder Traurigkeit sein?

Ausrichtung | Orientation

Welches Seitenverhältnis von Breite zu Höhe soll das Bild haben? Dieses beeinflusst die Komposition und Harmonie des Bilds. In einer Bild-KI wie Midjourney wird das durch den Parameter „ar“ festgelegt, der beispielsweise so angegeben wird: --ar 4:3, wie es bei alten Fernsehern der Fall ist, --ar 16:9 wie bei modernen TV-Geräten oder --ar 1:1, wie es Instagram verlangt.

Beim Seitenverhältnis handelt es sich nur um einen von einer ganzen Reihe von Parametern, die Bild-KIs wie Midjourney heute anbieten. Die aktualisierte Liste mit deren Bedeutungen findet sich immer auf den Dokumentationsseiten der Betreiber.

Nichts | Nots

Mit diesem Element, auch als No-Parameter oder „Negativer Prompt“ bekannt, wird definiert, was nicht im Bild auftauchen sollte. Wird nichts angegeben, dann entscheidet die KI, was im Bild erscheint oder nicht.

Wem das zu kompliziert ist, kann diese Prompts für Bilder von einer Text-KI generieren lassen. Beispielsweise liefert die Anweisung an ChatGPT:

Generiere einen Prompt, um ein Bild mit Dall-E zu erstellen, das einen rosa Roboter mit einem Glas Öl in der Hand vor einem Sonnenuntergang am Meeresstrand zeigt

So kommt dieser längere Prompt zurück:

Erstelle ein Bild mit Dall-E, das einen rosa Roboter mit einem Glas Öl in der Hand vor einem idyllischen Sonnenuntergang am Meeresstrand zeigt. Der Roboter sollte eine freundliche Ausstrahlung haben und sich friedlich am Strand befinden, während er das Glas Öl in seiner Hand hält. Der Sonnenuntergang sollte in warmen, leuchtenden Farben gemalt sein und den Himmel mit Rosa-, Orange- und Lilatönen füllen. Das Meer sollte ruhig und glitzernd dargestellt werden, mit sanften Wellen, die an den Strand spülen. Die Umgebung kann mit einigen Palmen oder anderen tropischen Pflanzen geschmückt sein, um die Szene noch idyllischer zu gestalten. Stelle sicher, dass das Bild eine harmonische und friedliche Atmosphäre ausstrahlt, während der Roboter den Sonnenuntergang am Strand genießt und das Glas Öl in seiner Hand hält.

Andere Beispiele, die in den letzten Monaten die Runde machten, waren Selfies von Menschengruppen aus verschiedensten Zeitepochen: Wikinger, Römer, Ägypter beim Pyramidenbau oder Jesus mit den Aposteln beim letzten Abendmahl. Wie also kann solch eine Textanweisung aussehen, die ein Bild generiert? Dank der obigen Anleitung ist das nun ein Kinderspiel.

Eine Gruppe männlicher Norweger, Dänen und Wikinger kauert zusammen und macht ein gemeinsames Selfie im Jahr 793 n. Chr. Sie trinken Bier bei einem Festmahl in einem Wikinger-Langhaus. Sie tragen alle traditionelle Wikingerrüstungen und Helme. Alle lächeln direkt in die Kamera. Das Bild ist fotorealistisch, hat na- türliches Licht und wurde von einem der Wikinger mit einer Selfie- Kamera auf der Vorderseite des Telefons aufgenommen. -ar 3:2 -s 1000 -kein Telefon -v 5 -q 2

Oder im Original auf Englisch:

A group of male Norse, Dane, and Vikings huddled together and is taking a group selfie picture together in 793 CE. They are drinking ale at a feast in a Viking longhouse. They are all wearing traditio- nal Viking armor and helmets. Everyone smiling directly at the camera. The image is photorealistic, has natural lighting, and is taken with a front-facing phone selfie camera by one of the Vikings. –ar 3:2 –s 1000 –no phone –v 5 –q 222

Doch es gibt bei den öffentlich zugänglichen Bild-KIs bestimmte Beschränkungen. So werden Texteingaben, die die Darstellung von Nacktheit oder anderen anstößigen Inhalten anweisen, zurückgewiesen. Dieselben Wikinger anstatt in traditioneller Wikingerkleidung nun splitterfasernackt oder statt den Wikingern Nationalsozialisten in einer Bierhalle mit Nazifahnen an der Wand wollen die generativen Bild-KIs partout nicht ausspucken. Vielleicht zu Recht, denn statt Nazis oder nackten Wikingern könnte es sehr rasch zu Pornografie, Kindesmissbrauchsdarstellung und Ähnlichem kommen.

Uns davor beschützen werden die KIs nicht, denn einige von ihnen können auch lokal installiert und mit eigenen Daten trainiert und selbst gewählte Einschränkungen angegeben oder aufgehoben werden. Wie beispielsweise IF von DeepFloyd Lab auf der KI-Plattform StabilityAI, die als Open-Source-Text-to-Image-Modell verfügbar ist. Dazu braucht es momentan läppische 14 GB an VRAM auf dem Grafikprozessor, eine Speichermenge, die bei Computern im unteren vierstelligen Preissegment liegt. Zum Vergleich: Mein MacBook Pro, auf dem ich diesen Text schreibe, hat mehr gekostet.

Der Platzhirsch unter den Bildbearbeitungsprogrammen, Adobe mit dem allseits bekannten Photoshop, hörte schon die Schwanengesänge. Einige prophezeiten dem im kalifornischen San José beheimateten Software-Riesen für Kreative, dass es bezüglich der generativen Bild-KIs wohl für Photoshop aus wäre. Doch dem ist nicht so. Denn genau dieselben generativen KI-Technologien lassen sich hervorragend in Photoshop integrieren und erweitern die Bearbeitungs- und Erstellungsmöglichkeiten von Bildern.

Mario Herger ist ein deutscher Ex-SAP-Mitarbeiter, der jetzt im Silicon Valley lebt und Unternehmen über Innovation und Künstliche Intelligenz berät. - Copyright: Mario Herger
Mario Herger ist ein deutscher Ex-SAP-Mitarbeiter, der jetzt im Silicon Valley lebt und Unternehmen über Innovation und Künstliche Intelligenz berät. - Copyright: Mario Herger

Mit Adobe Firefly können Bildelemente in Photoshop markiert und durch Prompts mit anderen visuellen Elementen ausgestattet werden. Obiges Beispiel zeigt, wie ein Hirsch im Wald zum coolen Partyhirsch in einer nassfeuchten Seitenstraße wird, und das, ohne dass Photoshop- Benutzer dafür groß umlernen müssten. Ein zusätzlicher Service, den Adobe damit anbietet, dreht sich um die Diskussion nach den Trai- ningsmaterialien für die generative Bild-KI. Während sich andere Anbieter der Kritik ausgesetzt sehen, sie hätten urheberrechtlich geschützte Werke für das Training eingesetzt, verspricht Adobe, seine KI aus- schließlich mit ordentlich für diesen Zweck lizenzierten Werken trainiert zu haben. Und Adobe hat die Metadaten der damit erzeugten Bilddateien um ein vom Unternehmen so bezeichnetes „Nutrition Label“ erweitert. In diesem werden wie bei Lebensmittelkennzeichnungen die „Inhaltsstoffe“ des Bildes benannt, wie es also erstellt und bearbeitet worden ist, inklusive der Veränderung durch eine generative KI.

Wie Bilder noch manipuliert werden können, zeigt DragGAN. Es handelt sich dabei um keinen Transformer wie die bisher besprochenen KIs, sondern um sogenannte Generative Adversarial Networks oder GAN. Dieses Tool besteht aus zwei künstlichen neuronalen Netzwer- ken. Eines arbeitet, bildlich dargestellt, als „Diskriminator“, also als Sherlock Holmes, der Fälschungen entdeckt und diese ablehnen soll, und das andere wirkt als „Generator“, als Fälscher, sozusagen als künst- licher Konrad Kujau.

Wir funktioniert das? Unser Sherlock Holmes kennt ganz genau die Originale, denn darauf wurde er trainiert. Unser Konrad Kujau versucht, Sherlock Holmes Fälschungen unterzujubeln, zum Beispiel eine Mona Lisa. Doch was der Fälscher im ersten Versuch liefert, ist so primitiv, dass Holmes die Fälschung sofort erkennt und ablehnt. Kujau versucht es wieder und macht eine bessere Fälschung, die an Holmes aber immer noch nicht vorbeigeschmuggelt werden kann. Das geht meh- rere Male so hin und her, bis unser Fälscher endlich ein Bild generiert, das auch dem kritischen Auge von Holmes gefällt und von ihm akzeptiert wird.

Natürlich wird in dem GAN dem Diskriminator vom Generator keine Mona Lisa untergejubelt, sondern ein völlig neues Werk. Doch das muss für den Diskriminator als „echt“, als „glaubwürdig“ erkennbar sein. DragGAN ist ein KI-Werkzeug, das von der Funktionsweise von GAN profitiert und Fotos auf völlig neue und einfache Weise manipu- liert. In der nachfolgenden Abbildung sehen wir zwei Beispiele eines Fotos, das damit manipuliert wurde. Das jeweils linke Bild ist das Original, die beiden rechts davon stehenden stellen die Bearbeitungs- schritte dar. Beim ersten oberen Bild wird der Person zuerst ein Lächeln auf die Lippen „gezaubert“, dann das Gesicht leicht zur Seite gedreht und die Augen leicht geschlossen.

Beim zweiten unteren Bild werden die Armpositionen verändert, von einer vom Körper abstehenden auf den Körper angelegten, und im Anschluss das fast bodenlange Kleid auf Wadenhöhe verkürzt.

Wie kommen da die GAN ins Spiel? Indem der Diskriminator die Veränderungen durch den Generator überprüft – ob diese einem natürlichen Gesichtsausdruck oder einer ebensolchen Körperhaltung entsprechen. Der Diskriminator blickt dabei als Referenz auf seine durch das Training mit vielen echten Bildern gespeicherten Parameter.

Wo hilft uns dieses Yin und Yang des Deep Learning? Bei der Bear- beitung von existierenden Bildern. Damit können wir beispielsweise aus Fotos von einem auf seinen vier Beinen stehenden Hund diesen in eine Sitzposition bringen, einer Katze die Augen schließen, bei einer Person die Haltung oder Kleidung ändern. Und es sieht trotzdem echt und nicht manipuliert aus.

Die Vorteile sind klar: Als Auftraggeber kann ich nachträglich die Bilder manipulieren, ohne dass ich das Fotoshooting wiederholen und Geld ausgeben muss. Zugleich zeigt sich damit aber auch folgende Problematik: Fotomodelle und Fotografen verlieren die Kontrolle über ihr eigenes Abbild und ihre Arbeit. Dazu kommen wir noch in späteren Kapiteln, wenn wir über Urheberrechte sprechen.

Erinnern wir uns an den Anfang des Kapitels, als wir von Annota- tionen auf Bildern sprachen, die der KI helfen sollten, Objekte besser zu erkennen. Nun, auch das wird uns bald abgenommen werden, denn Meta stellte eine eigene KI mit dem Namen „Segment Anything“ vor, die beliebige Objekte erkennen, annotieren und gegebenenfalls aus dem Bild ausschneiden kann. Ein unendlich hilfreiches Werkzeug für die Bildbearbeitung und für das Aufbereiten von Trainingsdaten für KIs.