Automatisierte KI-Workflows für die Bildgenerierung mit ComfyGen

Kategorien:
No items found.
Freigegeben:
October 15, 2024

KI-gesteuerte Bildgenerierung: ComfyGen automatisiert komplexe Workflows

Die rasante Entwicklung der künstlichen Intelligenz (KI) hat in den letzten Jahren zu erstaunlichen Fortschritten im Bereich der Bildgenerierung geführt. Insbesondere Text-zu-Bild-Modelle haben durch ihre Fähigkeit, aus einfachen Texteingaben komplexe und realistische Bilder zu erzeugen, für Aufsehen gesorgt. Ein Großteil der aktuellen Forschung konzentriert sich darauf, die Qualität der generierten Bilder zu verbessern und die Steuerungsmöglichkeiten für die Nutzer zu erweitern.

Ein vielversprechender Ansatz in diese Richtung ist die Verwendung von komplexen Workflows, die mehrere spezialisierte KI-Modelle miteinander kombinieren. Anstatt sich auf ein einzelnes Modell zu verlassen, können erfahrene Nutzer so die Stärken verschiedener Modelle gezielt für unterschiedliche Aufgaben im Bildgenerierungsprozess nutzen. Diese Workflows ermöglichen beispielsweise die Feinabstimmung des Bildstils, die Korrektur anatomischer Details oder die Verbesserung der Auflösung. Die Erstellung solcher Workflows ist jedoch oft komplex und erfordert ein tiefes Verständnis der Funktionsweise der einzelnen Modelle.

ComfyGen: KI-basierte Workflow-Generierung aus Textbeschreibungen

Forscher von NVIDIA und der Universität Tel Aviv haben nun mit ComfyGen eine neue KI-Methode vorgestellt, die die Erstellung komplexer Text-zu-Bild-Workflows automatisiert. Das System analysiert einfache Texteingaben und wählt selbstständig passende KI-Modelle aus, formuliert Eingabeaufforderungen (Prompts) und kombiniert die generierten Bilder mit zusätzlichen Tools wie Upscalern, um das gewünschte Ergebnis zu erzielen.

ComfyGen basiert auf dem quelloffenen Tool ComfyUI, das in der Stable Diffusion Community weit verbreitet ist. ComfyUI ermöglicht es Nutzern, Workflows in einem strukturierten JSON-Format zu definieren und zu teilen. Die große Anzahl von nutzergenerierten Workflows in ComfyUI diente den Forschern als wertvolle Trainingsgrundlage für ComfyGen.

Zwei Ansätze für die Workflow-Generierung: In-Context Learning und Fine-Tuning

Um die optimale Verknüpfung von Texteingabe und passendem Workflow zu erlernen, trainierten die Forscher ComfyGen mit einer Sammlung von 500 gängigen Texteingaben und den dazugehörigen, von Menschen erstellten Workflows. Die Qualität der generierten Bilder wurde anschließend mithilfe von Algorithmen zur Bewertung der Ästhetik und von Nutzern in Studien bewertet. Für die Generierung der Workflows testeten die Forscher zwei verschiedene Ansätze:

1. In-Context Learning:

Bei diesem Ansatz nutzt ComfyGen ein großes Sprachmodell (LLM) wie Claude 3.5 Sonnet, um aus einer Tabelle mit Workflows und deren durchschnittlichen Bewertungen für verschiedene Kategorien von Texteingaben den am besten geeigneten Workflow für neue Eingaben auszuwählen.

2. Fine-Tuning:

Hierbei wird ein LLM (z. B. Llama-3.1-8B oder -70B) darauf trainiert, direkt den passenden Workflow für eine gegebene Texteingabe und eine gewünschte Qualitätsbewertung vorherzusagen. Dieser Ansatz ermöglicht eine präzisere Abstimmung auf die spezifischen Anforderungen der Nutzer.

Vielversprechende Ergebnisse und zukünftige Entwicklungen

In Tests, bei denen ComfyGen mit herkömmlichen Modellen wie Stable Diffusion XL und festen Workflows verglichen wurde, schnitt ComfyGen sowohl bei automatischen Metriken als auch bei Nutzerstudien am besten ab. Die mit Fine-Tuning trainierte Variante übertraf dabei den In-Context-Learning-Ansatz leicht.

ComfyGen bietet den Vorteil, dass es auf bestehenden, von der Community entwickelten Workflows und Bewertungsmodellen aufbaut und somit flexibel an neue Entwicklungen angepasst werden kann. Aktuell ist die Vielfalt der generierten Workflows jedoch noch dadurch limitiert, dass das System hauptsächlich bekannte Workflows aus den Trainingsdaten auswählt.

Die Forscher planen, ComfyGen zukünftig so weiterzuentwickeln, dass es komplett neue Workflows generieren kann. Zudem soll der Ansatz auf Bild-zu-Bild-Aufgaben ausgeweitet werden. Langfristig könnten Workflow-basierte Systeme wie ComfyGen die Einstiegshürden für die KI-basierte Bildgenerierung deutlich senken und gleichzeitig die Qualität der Ergebnisse verbessern.

Bibliographie

https://the-decoder.com/comfygen-ai-automates-multi-stage-text-to-image-workflows-from-simple-prompts/ https://www.researchgate.net/publication/384599478_ComfyGen_Prompt-Adaptive_Workflows_for_Text-to-Image_Generation https://comfygen-paper.github.io/ https://arxiv.org/html/2410.01731v1/ https://arxiv.org/abs/2410.01731v1/ https://github.com/gabrielchua/daily-ai-papers https://www.azoai.com/news/20241008/ComfyGen-Transforms-Text-to-Image-Generation-With-Prompt-Based-Workflow-Adaptation.aspx https://github.com/wangkai930418/awesome-diffusion-categorized https://www.reddit.com/r/StableDiffusion/comments/1fvziot/comfygen_promptadaptive_workflows_for_texttoimage/ https://www.research.autodesk.com/app/uploads/2023/08/3DALL-E_DIS23-v2-compressed.pdf
Was bedeutet das?