Neues Open-Source-KI-Modell erzielt hohe Bildqualität bei geringer Parameteranzahl

Kategorien:
No items found.
Freigegeben:
October 18, 2024

Ein neues kleines Open-Source-KI-Modell bietet beeindruckende Bildqualität für seine Größe

In der Welt der generativen KI schreitet die Technologie für Text-zu-Bild rasant voran. Modelle mit Milliarden von Parametern sind in der Lage, Bilder zu erzeugen, die von realen Fotos kaum zu unterscheiden sind. Diese Modelle sind jedoch oft ressourcenintensiv und erfordern eine erhebliche Rechenleistung, was ihren Einsatz in bestimmten Anwendungen einschränkt.

Ein Forscherteam von Alibaba Group, Skywork AI und mehreren Universitäten hat nun ein neues Open-Source-KI-Modell namens Meissonic entwickelt, das beeindruckende Bilder mit nur einer Milliarde Parametern erzeugen kann. Diese kompakte Größe könnte lokale Text-zu-Bild-Anwendungen ermöglichen, insbesondere auf Mobilgeräten.

Maskiertes Bildmodell und parallele Verarbeitung

Meissonic verwendet maskiertes Bildmodell, bei dem Teile von Bildern während des Trainings verdeckt werden. Das Modell lernt, fehlende Teile anhand sichtbarer Bereiche und Textbeschreibungen zu rekonstruieren. Dies hilft ihm, die Beziehungen zwischen Bildelementen und Text zu verstehen.

Im Gegensatz zu typischen autoregressiven Modellen, die Bilder sequentiell erzeugen, sagt Meissonic alle Bild-Token gleichzeitig durch parallele, iterative Verfeinerung voraus. Die Forscher sagen, dass dieser nicht-autoregressive Ansatz die Dekodierungsschritte um etwa 99 % reduziert, wodurch die Bilderzeugung erheblich beschleunigt wird.

Multimodale und monomodale Transformer-Schichten

Meissonic kombiniert multimodale und monomodale Transformer-Schichten. Multimodale Schichten erfassen Text-Bild-Interaktionen, während monomodale Schichten visuelle Darstellungen verfeinern. Die Forscher fanden heraus, dass ein Verhältnis von 1:2 zwischen diesen Schichttpen am besten funktionierte.

Trainingsprozess in vier Schritten

Die Forscher trainierten Meissonic mit einem vierstufigen Prozess:

  1. Zuerst brachten sie dem Modell grundlegende Konzepte anhand von 200 Millionen Bildern mit einer Auflösung von 256 x 256 Pixeln bei.
  2. Als Nächstes verbesserten sie das Textverständnis mit 10 Millionen sorgfältig gefilterten Bild-Text-Paaren mit einer Auflösung von 512 x 512 Pixeln.
  3. Im dritten Schritt fügten sie spezielle Komprimierungsschichten hinzu, um eine Ausgabe von 1024 x 1024 Pixeln zu ermöglichen.
  4. Schließlich verfeinerten sie das Modell mit niedrigen Lernraten und bezogen Daten zu menschlichen Präferenzen ein, um seine Leistung zu optimieren.

Beeindruckende Leistung trotz geringer Größe

Trotz seiner geringen Größe übertraf Meissonic größere Modelle wie SDXL und DeepFloyd-XL in Benchmarks, einschließlich des Human Preference Score v2. Es erreichte 28,83 Punkte auf HPSv2, mehr als die anderen Modelle.

Meissonic kann auch Inpainting und Outpainting ohne zusätzliches Training durchführen. Die Forscher zeigen Beispiele für das Ändern von Bildhintergründen, -stilen und -objekten.

Potenzial für mobile Anwendungen

Die Forscher glauben, dass ihr Ansatz eine schnellere und kostengünstigere Entwicklung benutzerdefinierter KI-Bildgeneratoren ermöglichen könnte. Es könnte auch die Entwicklung von Text-zu-Bild-Anwendungen für Mobilgeräte vorantreiben.

Eine Demo ist auf Hugging Face verfügbar, und der Code ist auf GitHub verfügbar. Das Modell läuft auf Consumer-GPUs mit 8 GB VRAM.

Fazit

Meissonic ist ein vielversprechendes neues KI-Modell zur Bilderzeugung, das beeindruckende Ergebnisse bei geringer Größe liefert. Seine Open-Source-Natur und die Fähigkeit, auf Consumer-Hardware zu laufen, machen es zu einem wertvollen Werkzeug für Forscher und Entwickler. Es wird interessant sein zu sehen, wie Meissonic in Zukunft weiterentwickelt und genutzt wird, insbesondere im Bereich der mobilen Anwendungen.

Bibliographie

https://the-decoder.com/tiny-open-source-image-model-meissonic-delivers-impressive-image-quality-for-its-size/ https://www.marktechpost.com/2024/10/16/nvidia-ai-quietly-launches-nemotron-70b-crushing-openais-gpt-4-on-various-benchmarks/ https://www.bentoml.com/blog/a-guide-to-open-source-image-generation-models https://www.linkedin.com/pulse/tiny-new-open-source-ai-model-performs-well-powerful-osete https://www.reddit.com/r/technews/comments/1fp59j9/a_tiny_new_opensource_ai_model_performs_as_well/ https://stability.ai/stable-image https://www.baseten.co/blog/the-best-open-source-image-generation-model/ https://blog.spheron.network/best-9-open-source-text-to-image-models-in-2024 https://zguyun.com/blog/open-source-ai-image-generation-projects-and-tools-on-github/
Was bedeutet das?