Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Landschaft der künstlichen Intelligenz (KI) unterliegt einem stetigen Wandel, wobei die Entwicklung von spezialisierten Modellen für kritische Anwendungsbereiche wie die Medizin von besonderer Bedeutung ist. Traditionell dominierte NVIDIA mit seiner CUDA-Plattform den Markt für GPU-beschleunigte KI-Entwicklung. Eine aktuelle Entwicklung, das Projekt MedQA, demonstriert jedoch die Machbarkeit und Effizienz der Feinabstimmung klinischer KI-Modelle auf AMD ROCm-Hardware, was eine Verschiebung in den technologischen Abhängigkeiten signalisiert.
Das MedQA-Projekt wurde mit dem Ziel ins Leben gerufen, ein klinisches Frage-Antwort-Modell vollständig auf AMD-Hardware unter Verwendung von ROCm zu entwickeln. Dies steht im Gegensatz zur gängigen Praxis in der Open-Source-Medizin-KI, die oft eine NVIDIA GPU und CUDA als Standard voraussetzt. Die Anwendungsdomäne, die Beantwortung medizinischer Fragen, ist mit hohen Anforderungen an die Genauigkeit verbunden, da fehlerhafte Antworten potenzielle Risiken im klinischen Kontext bergen könnten.
Das entwickelte MedQA-Modell ist darauf ausgelegt, Multiple-Choice-Fragen aus dem medizinischen Bereich zu beantworten und zusätzlich eine klinische Begründung für die gewählte Antwort zu liefern. Die gesamte Trainingspipeline, von der Datenladung bis zum Export des Adapters, wurde auf einer AMD Instinct MI300X GPU realisiert, ohne eine einzige CUDA-Abhängigkeit.
Die Wahl der AMD Instinct MI300X GPU als Hardware-Basis war strategisch. Mit 192 GB HBM3-Speicher bietet diese GPU eine hohe VRAM-Kapazität, die oft eine limitierende Größe bei der Feinabstimmung großer Sprachmodelle (LLMs) darstellt. Diese Speicherkapazität ermöglichte das Training des Qwen3-1.7B-Modells mit LoRA in voller fp16-Genauigkeit, wodurch auf 4-Bit- oder 8-Bit-Quantisierung verzichtet werden konnte. Dies trägt potenziell zu einer höheren Modellgenauigkeit bei, da keine Quantisierungsartefakte eingeführt werden.
Ein zentrales Ergebnis des Projekts ist der Nachweis, dass das HuggingFace-Ökosystem, welches Bibliotheken wie Transformers, PEFT, TRL und Accelerate umfasst, nahtlos auf ROCm funktioniert. Dies bedeutet, dass bestehender Trainingscode, der für CUDA entwickelt wurde, mit minimalen Anpassungen (hauptsächlich dem Setzen von drei Umgebungsvariablen) auf ROCm ausgeführt werden kann. Diese Kompatibilität ist ein wichtiger Faktor für die breitere Akzeptanz von AMD-Hardware in der KI-Forschung und -Entwicklung.
Als Datensatz für die Feinabstimmung diente MedMCQA, ein umfangreicher Multiple-Choice-Fragedatensatz, der aus indischen medizinischen Aufnahmeprüfungen abgeleitet wurde. Jedes Beispiel im Datensatz enthält eine klinische Frage, vier Antwortoptionen, den Index der korrekten Antwort und optional eine Freitext-Erklärung. Für das Projekt wurden 2.000 Trainingsbeispiele verwendet, eine bewusst kleine Stichprobe, um die schnelle Erzielung sinnvoller Feinabstimmungsergebnisse zu demonstrieren. Das Training dieser Stichprobe auf der MI300X dauerte etwa 5 Minuten.
Das Basismmodell war Qwen/Qwen3-1.7B, ein von Alibaba entwickeltes Sprachmodell mit 1,7 Milliarden Parametern. Die Größe des Modells wurde als ausreichend kompakt für eine kostengünstige Feinabstimmung und gleichzeitig leistungsfähig genug für kohärente klinische Schlussfolgerungen bewertet.
Anstatt alle 1,5 Milliarden Parameter des Modells anzupassen, wurde LoRA (Low-Rank Adaptation) über die PEFT-Bibliothek eingesetzt. LoRA führt kleine trainierbare Rang-Zerlegungsmatrizen in die Aufmerksamkeits-Layer ein, während die Basisgewichte eingefroren bleiben. Diese Methode reduziert die Anzahl der trainierbaren Parameter erheblich auf etwa 2,2 Millionen, was nur 0,1443 % der Gesamtparameter entspricht. Dies führt zu einem geringeren Speicherverbrauch und schnelleren Trainingszeiten.
Die Trainingsargumente umfassten Einstellungen für die Anzahl der Epochen, Batch-Größe, Lernrate und die Verwendung von fp16 anstelle von bfloat16, um Stabilitätsprobleme zu vermeiden. Gradient Checkpointing wurde aktiviert, um Rechenleistung gegen Speicher zu tauschen, eine bewährte Methode, auch wenn sie bei der MI300X mit ihrer hohen VRAM-Kapazität nicht zwingend erforderlich war.
Für die Inferenz wird das Basismmodell geladen, der LoRA-Adapter angehängt und optional die Gewichte zusammengeführt. Die Generierung der Antworten erfolgt mittels Greedy Decoding mit einer Wiederholungsstrafe, um Schleifen in der Textausgabe zu verhindern. Ein Beispiel zeigt, wie das Modell nicht nur die richtige Antwortbuchstaben liefert, sondern auch eine detaillierte klinische Erklärung, was den praktischen Nutzen in medizinischen Anwendungen erhöht.
Während der Implementierung traten verschiedene Herausforderungen auf, die spezifische Anpassungen erforderten:
ROCR_VISIBLE_DEVICES, HIP_VISIBLE_DEVICES und HSA_OVERRIDE_GFX_VERSION adressiert.pad_token = eos_token und die Korrektur von padding_side behoben.transformers>=4.40.0 gelöst.Die Tatsache, dass auf dem MI300X mit 192 GB HBM3-Speicher auf 4-Bit-Quantisierung verzichtet werden konnte, die auf NVIDIA-Hardware oft notwendig ist, wird als signifikanter Hardware-Vorteil hervorgehoben, der ein saubereres Training ohne Quantisierungsartefakte ermöglicht.
Das MedQA-Projekt validiert die Funktionsfähigkeit der Pipeline für medizinische KI auf AMD ROCm-Hardware. Zukünftige Entwicklungen könnten die Verwendung größerer Datensätze, wie den vollständigen MedMCQA-Korpus und PubMedQA, die Implementierung von Konfidenzwerten für Antworten, die Integration von Retrieval-Augmented Generation (RAG) zur Verankerung von Antworten in medizinischer Literatur sowie die Entwicklung eines umfassenden Evaluierungsrahmens umfassen.
Die Ergebnisse des MedQA-Projekts demonstrieren, dass der Aufbau leistungsfähiger und erklärbarer medizinischer KI-Modelle auf Open-Source-AMD-Hardware nicht nur möglich, sondern auch unkompliziert ist. Die Kompatibilität des HuggingFace-Ökosystems mit ROCm und die Speicherkapazität der AMD MI300X GPUs eliminieren bestimmte ingenieurtechnische Herausforderungen, die in Umgebungen mit begrenztem VRAM auftreten können. Für Unternehmen im B2B-Bereich, die an der Entwicklung oder Implementierung von KI-Lösungen im Gesundheitswesen interessiert sind, bietet dies eine alternative, potenziell kosteneffizientere und technologisch unabhängige Entwicklungsplattform. Die Betonung der Erklärbarkeit von KI-Modellen, wie sie bei MedQA durch die Bereitstellung klinischer Begründungen erfolgt, ist ein entscheidender Faktor für die Akzeptanz und den Einsatz von KI in sensiblen Bereichen wie der Medizin.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen