Liebe Leserinnen und Leser! Es ist soweit! Die lang erwartete „Character Reference“ von Midjourney ist da und liefert schon im Alpha-Stadium tolle Ergebnisse!
Was ist das?
Folgendes gaben die Developer gestern Nacht bekannt:
Wir testen heute eine neue Funktion „Charakterreferenz“.
Diese Funktion ähnelt der Funktion „Stilreferenz“, mit dem Unterschied, dass sie nicht mit einem Referenzstil übereinstimmt, sondern versucht, den Charakter einem „Charakterreferenz“-Bild anzupassen.
So funktioniert es:
Geben Sie --cref URL
nach Ihrer Eingabeaufforderung mit einer URL zu einem Bild eines Zeichens ein
Sie können --cw
verwenden, um die „Stärke“ der Referenz von 100 auf 0 zu ändern
Stärke 100 (--cw 100
) ist die Standardeinstellung und verwendet das Gesicht, die Haare und die Kleidung
Bei Stärke 0 (--cw 0
) wird nur das Gesicht berücksichtigt (gut für wechselnde Outfits / Haare etc.)
Wofür es gedacht ist:
Diese Funktion funktioniert am besten, wenn man Charaktere verwendet, die aus Midjourney-Bildern erstellt wurden. Sie ist nicht für reale Personen/Fotos gedacht (und wird diese wahrscheinlich verzerren, wie es bei normalen Bildaufforderungen der Fall ist)Cref
funktioniert ähnlich wie normale Image Prompts, außer dass es sich auf die Charaktereigenschaften konzentriert. Die Genauigkeit dieser Technik ist begrenzt, sie kopiert keine exakten Grübchen / Sommersprossen / oder T-Shirt-Logos. Cref funktioniert sowohl für Niji als auch für normale MJ-Modelle und kann auch mit –sref kombiniert werden.
Erweiterte Funktionen
Du kannst mehr als eine URL verwenden, um die Informationen/Zeichen von mehreren Bildern wie folgt zu mischen –cref URL1 URL2 (dies ist ähnlich wie mehrere Bild- oder Stil-Eingaben).
Ein erster Test – das Grundbild
Dieses Bild habe ich als Grundbild gepromptet. Die Bild-URL wurde dann mit dem neuen --cref
Befehl in neue Prompts eingefügt. In der folgende Galerie seht ihr die Ergebnisse. Ich habe die Frau in mehrere Szenarien versetzt.
Ich würde lügen, wenn ich sage, dass das Ergebnis perfekt ist. Für ein frühes Alpha-Stadium ist die Qualität schon ziemlich gut. Folgt mit weiter auf meinen Kanälen und ich werde euch am Laufenden halten, wie sich dieses Feature entwickelt!