Thema:
Re:Erste Versuche mit SDXL - Midjourney Killer flat
Autor: JPS
Datum:09.07.23 19:21
Antwort auf:Re:Erste Versuche mit SDXL - Midjourney Killer von FWE

>Ich habe 0 Ahnung von Bildbearbeitung. Was gibst du der KI für Infos/Anweisungen, um solche Bilder zu erhalten?

Im Endeffekt den grundsätzlichen Inhalt und das was ich beim Wunschbild in gut gepflegten Tags in einer Bilddatenbank erwarten würde.

Also Angaben zum Stil (alternativ Künstlernamen die für den Stil bekannt sind), Angaben zu den Farben der enthaltenen Elemente, Kleidungsstil, Blickwinkel, bestimmte Kameraeinstellungen die nötig wären um das Wunschergebnis zu erhalten, die gewünschte Stimmung, Angaben zur Farbkomposition und Beleuchtung, usw.

Dann kann man nach ein paar Testbildern den Prompt (es gibt dabei auch einen negativen Prompt was nicht enthalten sein soll) anpassen um noch näher an sein Wunschergebnis heranzukommen. Auch kann man festlegen wie stark das Ergebnis von der Eingabe abweichen darf um mehr oder weniger Variation zu erhalten.

Was genau dann rauskommt hängt vom verwendeten Model ab und womit dieses trainiert wurde - und somit was dieses Model mit den verwendeten Wörtern (wobei intern mit Wortbestandteilen/Token gearbeitet wird) verbindet.

Daher braucht man entweder ein sehr gut auf das Wunschergebnis hin trainiertes Model (das kann man im kleinen Umfang auch selbst machen, wenn man ein paar dutzend Bilder mit dem gewünschten Stil/Inhalt hat) oder man muss dann in weiteren Schritten mit anderen Techniken und Addons nachbearbeiten. Damit kann man dann weit genauer einzelne Elemente/Inhalte steuern.

Hier ein Beispiel:

[https://i.imgur.com/xDwznqd.png]

[https://imgur.com/AsSnnbK.jpg]

Oder hier habe ich durch kleine Änderungen des Text-Prompts das Alter und andere Feinheiten zwischen den 4 Bildern angepasst:

[https://imgur.com/FYKNaNi.png]


Persönlich finde ich die manuellen Anpassungen über die diversen Addons und Workflows, die auf einem oder mehreren Ausgangsbildern basieren (das können auch einfache schnelle Skizzen sein, die man in ein paar Minuten erstellt hat oder Posen aus einem 3D-Editor) spannender als reines Txt2Img, da man damit weit besser das Ergebnis steuern und im Detail beeinflussen kann.

In dem Fall (die zwei Threads zu SDXL) handelt es sich aber tatsächlich um reine Txt2Img-Ergebnisse, da eben ein neues Grundmodel erschienen ist, das ich in verschiedene Richtungen testen wollte.

Hier aber noch ein paar Beispiele, wie man statt mit Worten mit anderen Mitteln weit genauer den Inhalt beeinflussen kann:

[https://i.imgur.com/GIu7o8W.png]

[https://imgur.com/mN8u9d2.jpg]

Statt also aufwendig das M-Logo und die gewünschte Pose und den Gesichtsausdruck zu beschreiben, kopiert man einfach schnell eine Vorlage zusammen und kann darauf basierend dann aufsetzen. Da hast Du mit Txt2Img keine Chance das so hinzubekommen.

Oder sowas, bei dem ich mir einfach die Wunschpose gesucht habe und daraus George Clooney in der Zukunft gemacht habe:

[https://i.pinimg.com/originals/37/c6/4d/37c64db042065ef030d778deb187cd93.png]

[https://i.imgur.com/SNXNNzv.png]

[https://imgur.com/8gxZujZ.jpg]

[https://imgur.com/HdMaHJZ.jpg]

Im Endeffekt kannst Du also statt alles mit Text zu beschreiben einfach ein Foto von Deiner Freundin in Wunschposition machen und das dann mit diversen Techniken soweit anpassen, dass von Deiner Freundin (oder alternativ vom Bild aus dem Internet) nichts mehr zu erkennen ist und Du trotzdem damit viele Elemente des Bildes ohne großen Aufwand sehr exakt bestimmen konntest.

Das löst auch gleich das Problem das die ganze KI-Art-Lösungen mit Händen haben. Einfach die genaue Hand- und Fingerposition direkt vorgeben, dann hast Du am Ende auch keine 6 Finger. Trotzdem kann dann die ehemals weibliche Hand plötzlich einem Mann gehören. Dann musst Du der KI aber natürlich ein paar Freiheiten erlauben, damit George Clooney nicht aussieht als hätte er gerade seine weibliche Seite entdeckt.


< antworten >