Materialwissenschaft trifft Künstliche Intelligenz Neue Wege in der Materialentdeckung durch Sprachmodelle

Kategorien:
No items found.
Freigegeben:
June 14, 2024

In der Welt der Materialwissenschaften und der Künstlichen Intelligenz hat sich kürzlich eine faszinierende Entwicklung ergeben. Forscher von Meta haben einen innovativen Ansatz vorgelegt, der das Potenzial hat, die Entdeckung und Entwicklung neuer Materialien zu revolutionieren. Sie schlagen vor, große Sprachmodelle (LLMs) für die Generierung stabiler anorganischer Materialien zu verwenden. Diese Herangehensweise, obwohl unkonventionell, erweist sich als einfach umzusetzen und zuverlässig.

Die Grundidee hinter diesem Ansatz ist die Feinabstimmung von großen Sprachmodellen auf textkodierte atomistische Daten. Die ersten Ergebnisse zeigen, dass etwa 90% der von den Modellen erzeugten Strukturen physikalischen Beschränkungen in Bezug auf Atompositionen und Ladungen genügen. Die Effizienz des Verfahrens wird unter anderem durch Berechnungen der Energie über dem Hull-Wert bestätigt, die sowohl aus gelernten ML-Potenzialen als auch aus hochwertigen DFT- (Dichte-Funktional-Theorie) Berechnungen stammen. Das stärkste Modell, das feinabgestimmte LLaMA-2 70B, konnte Materialien generieren, die mit einer Rate von etwa 49% als metastabil vorhergesagt wurden, im Vergleich zu 28% bei CDVAE, einem konkurrierenden Diffusionsmodell.

Interessanterweise kann die inhärente Flexibilität der Textaufforderung von Modellen sowohl für die bedingungslose Generierung von stabilen Materialien als auch für das Auffüllen von partiellen Strukturen und die textbedingte Generierung genutzt werden. Darüber hinaus legen die Forschungsergebnisse nahe, dass die Fähigkeit von Sprachmodellen, Schlüsselsymmetrien von Kristallstrukturen zu erfassen, mit der Modellgröße zunimmt. Dies deutet darauf hin, dass die Vorurteile von vortrainierten LLMs erstaunlich gut für atomistische Daten geeignet sind.

Die Implikationen dieser Forschung sind weitreichend. Die Fähigkeit, neue stabile Materialien effizient zu generieren, könnte in vielen Bereichen, von der Photovoltaik über Batterieelektroden bis hin zu Katalysatoren, zu bahnbrechenden technischen Fortschritten führen. Die traditionelle Materialentdeckung ist oft ein langwieriger und kostenintensiver Prozess, der durch die Nutzung von LLMs erheblich beschleunigt werden könnte.

Meta's Forschung trägt auch zur Diskussion bei, wie maschinelles Lernen und KI generell in den wissenschaftlichen Entdeckungsprozess integriert werden können. Während Datenbanken wie das Materials Project oder die OQMD bereits zehntausende von bekannten Strukturen enthalten, sind sie auf experimentell bekannte Materialien oder auf Kandidaten beschränkt, die in hochdurchsatzrechnen Kampagnen entdeckt wurden. Generative Modelle, die nun durch die Feinabstimmung von LLMs ergänzt werden könnten, bieten die Möglichkeit, interessante Materialfamilien durch Sampling zu erweitern.

Die Arbeit von Meta demonstriert das wachsende Potenzial von KI in der Forschung und Entwicklung und könnte den Weg für ähnliche Anwendungen in anderen Bereichen der Wissenschaft ebnen. Die Forschung wurde auf der Plattform OpenReview.net veröffentlicht, die sich dem Fortschritt der Wissenschaft durch verbesserte Peer-Reviews verschrieben hat. Die Ergebnisse sind auch in Zusammenhang mit anderen Entwicklungen zu sehen, wie zum Beispiel der Arbeit an selbstbelohnenden Sprachmodellen, die auf der LinkedIn-Seite von Ahsen Khaliq, einem Mitarbeiter von Hugging Face, diskutiert wurden.

Diese Entwicklungen zeigen einen Trend auf, bei dem große Sprachmodelle nicht nur für textbasierte Aufgaben, sondern auch in hochspezialisierten wissenschaftlichen Anwendungsfällen eingesetzt werden können. Die Anpassungsfähigkeit und Skalierbarkeit dieser Modelle machen sie zu einem wertvollen Werkzeug für Forscher und Entwickler in einer Vielzahl von Disziplinen.

Quellen:
- Gruver, N., Sriram, A., Madotto, A., Wilson, A. G., Zitnick, C. L., & Ulissi, Z. W. (2023). Fine-Tuned Language Models Generate Stable Inorganic Materials as Text. OpenReview. https://openreview.net/forum?id=0r5DE2ZSwJ
- Khaliq, A. (2024). Meta presents Self-Rewarding Language Models. LinkedIn. https://www.linkedin.com/posts/ahsenkhaliq_meta-presents-self-rewarding-language-models-activity-7153939003853926401-c0jY
- Arxiv Preprint. (2023). Fine-Tuned Language Models Generate Stable Inorganic Materials as Text. https://arxiv.org/pdf/2310.08511

Was bedeutet das?
No items found.