Die Anpassung von Open Large Language Models (LLMs) an spezifische Anforderungen ist eine der Schlüsselherausforderungen im Bereich der künstlichen Intelligenz. Mit der stetigen Entwicklung und Verfeinerung von Methoden zur Verfeinerung dieser Modelle sind die Möglichkeiten für Unternehmen und Entwickler immens. Der Einsatz von Cloud-Diensten wie Amazon SageMaker bietet dabei eine flexible und skalierbare Plattform, um LLMs zu trainieren und zu bewerten. In diesem Zusammenhang hat Philipp Schmid, ein Experte auf dem Gebiet der KI und technischer Leiter bei Hugging Face, Einblicke in die besten Praktiken für das Feintuning von offenen LLMs im Jahr 2024 gegeben.
Die Feinabstimmung von LLMs beinhaltet das Anpassen eines vorab trainierten Modells an eine spezifische Aufgabe oder einen spezifischen Datensatz. Dies kann die Qualität der Ergebnisse wesentlich verbessern und gleichzeitig die Kosten senken, indem kleinere Modelle effizienter trainiert werden. Zu den neuesten Techniken, die Schmid in seinem Leitfaden beschreibt, gehören Flash Attention 2, Q-LoRA, OpenAI ChatML und Packing, die alle mit dem Hugging Face Transformer Reinforcement Learning (TRL) Framework gebaut wurden.
Flash Attention 2 ist eine effiziente Aufmerksamkeitsmechanik, die das Training von LLMs beschleunigt und bis zu dreimal schneller als der Standard-Attention-Mechanismus ist. Q-LoRA, ein Ansatz für effizientes Feintuning, reduziert den Speicherbedarf von LLMs während des Feintunings, ohne die Leistung zu beeinträchtigen, indem es Quantisierung nutzt. OpenAI ChatML ermöglicht es, Konversationsformate zu verwenden, die für das Training von Chatbots und ähnlichen Anwendungen optimiert sind. Packing ist eine Methode, um Datensätze effizienter für das Training vorzubereiten.
Um eine Feinabstimmung durchzuführen, muss zunächst eine geeignete Entwicklungs- und Trainingsumgebung eingerichtet werden. Hierfür stellt Schmid eine schrittweise Anleitung bereit, die mit der Installation der erforderlichen Hugging Face-Bibliotheken beginnt und bis hin zum Hochladen des Trainingsdatensatzes auf Amazon S3 reicht.
Die Erstellung und Vorbereitung des Datensatzes ist ein entscheidender Schritt. Es gibt verschiedene Methoden, um einen solchen Datensatz zu generieren, beispielsweise durch die Nutzung vorhandener Open-Source-Datensätze, die synthetische Erstellung von Datensätzen mit LLMs oder die manuelle Erstellung durch Menschen. Jede Methode hat ihre Vor- und Nachteile, die je nach Budget, Zeit und Qualitätsanforderungen abgewogen werden müssen.
Sobald der Datensatz vorbereitet ist, kann das eigentliche Feintuning beginnen. Schmid erläutert die Verwendung des SFTTrainers von TRL, der für das überwachte Feintuning von Open LLMs konzipiert ist. Der SFTTrainer ist eine Erweiterung des Trainer-Moduls der Transformers-Bibliothek und unterstützt alle gängigen Funktionen wie Logging, Bewertung und Checkpointing, bietet jedoch zusätzliche Funktionen, die das Feintuning vereinfachen.
Nach dem Feintuning folgt die Bewertung des Modells, um sicherzustellen, dass es die gewünschten Ergebnisse liefert. Hierzu können verschiedene Metriken und Testsets verwendet werden. Schließlich ist der Schritt der Bereitstellung wichtig, um das Modell in einer Produktionsumgebung einzusetzen.
Schmid betont die zunehmende Zugänglichkeit und Kosteneffizienz offener LLMs und weist darauf hin, dass es derzeit keinen besseren Zeitpunkt gibt, um mit der Nutzung zu beginnen. Er kündigt zudem an, dass bald erweiterte Leitfäden für das Feintuning mit Multi-GPU/Multi-Node-Umgebungen und die Ausrichtung unter Verwendung von DPO & KTO verfügbar sein werden.
Zusammenfassend bietet der Artikel von Philipp Schmid einen detaillierten Einblick in die Welt des Feintunings von LLMs. Mit fortschrittlichen Techniken wie Flash Attention 2 und Q-LoRA und der Nutzbarmachung von Cloud-Plattformen wie Amazon SageMaker sind die Möglichkeiten für die Personalisierung und Optimierung von KI-Modellen vielfältiger und zugänglicher denn je.
Quellen:
- Schmid, P. (2024). Fine-Tune & Evaluate LLMs in 2024 with Amazon SageMaker. Abgerufen von https://www.philschmid.de/sagemaker-train-evalaute-llms-2024
- Schmid, P. (2024). How to Fine-Tune LLMs in 2024 with Hugging Face. LinkedIn Post. Abgerufen von https://www.linkedin.com/posts/philipp-schmid-a6a2bb196
- Schmid, P. (2024). Twitter-Konversation über das Feintuning von LLMs. Abgerufen von https://twitter.com/_philschmid/status/1767946170339315879