Die Entwicklung von Künstlicher Intelligenz (KI) schreitet rasant voran. Ein wichtiger Aspekt dabei ist die Fähigkeit von KI-Systemen, komplexe Aufgaben nicht nur zu lösen, sondern auch den Lösungsweg nachvollziehbar zu gestalten und zu verifizieren. Prozess-Belohnungsmodelle (PRMs) spielen hierbei eine entscheidende Rolle. Sie ermöglichen die Bewertung einzelner Schritte im Denkprozess einer KI und tragen so zur Verbesserung der Lösungsqualität und -genauigkeit bei. Traditionelle PRMs benötigen jedoch eine umfangreiche, schrittweise Überwachung während des Trainings, was zeit- und kostenintensiv ist.
Eine neue Forschungsarbeit stellt nun einen vielversprechenden Ansatz vor, um die Effizienz des Trainings von PRMs deutlich zu steigern: sogenannte "ThinkPRM". Diese Modelle nutzen die Fähigkeit von großen Sprachmodellen (LLMs), komplexe Gedankengänge in Textform auszudrücken (Chain-of-Thought, CoT). ThinkPRM generiert für jeden Schritt im Lösungsprozess einer KI eine ausführliche, verbalisierte Begründungskette, die den Schritt verifiziert. Dieser Ansatz ermöglicht es, PRMs mit deutlich weniger Trainingsdaten zu trainieren, als dies bei herkömmlichen, diskriminativen PRMs der Fall ist.
Die Forscher konnten zeigen, dass ThinkPRM in verschiedenen anspruchsvollen Benchmarks, darunter ProcessBench, MATH-500 und AIME '24, bessere Ergebnisse erzielt als vergleichbare Modelle, einschließlich LLM-as-a-Judge und diskriminativen PRMs. Bemerkenswert ist dabei, dass ThinkPRM dies mit nur einem Bruchteil der Trainingsdaten erreicht. In einer domänenübergreifenden Evaluation auf Teilmengen von GPQA-Diamond und LiveCodeBench übertraf ThinkPRM sogar diskriminative PRMs, die mit dem vollständigen PRM800K-Datensatz trainiert wurden.
Ein weiterer Vorteil von ThinkPRM liegt in der Skalierbarkeit. Im Vergleich zu LLM-as-a-Judge, einem etablierten Verfahren zur Bewertung von KI-Lösungen, ermöglicht ThinkPRM eine effizientere Nutzung der Rechenressourcen bei der Verifikation. Bei gleichem Token-Budget erzielte ThinkPRM auf einer Teilmenge von ProcessBench signifikant bessere Ergebnisse.
Die Ergebnisse dieser Forschung unterstreichen das Potenzial von generativen, CoT-basierten PRMs. Sie bieten eine vielversprechende Möglichkeit, die Verifikation von KI-Denkprozessen zu verbessern und gleichzeitig den Trainingsaufwand zu reduzieren. Die Veröffentlichung des Codes, der Daten und der trainierten Modelle durch die Forscher eröffnet weitere Möglichkeiten für die Weiterentwicklung und Anwendung dieser vielversprechenden Technologie. Insbesondere für Unternehmen wie Mindverse, die sich auf die Entwicklung von KI-Lösungen spezialisiert haben, könnten diese Erkenntnisse wertvolle Impulse für die Entwicklung noch leistungsfähigerer und effizienterer KI-Systeme liefern. Die verbesserte Skalierbarkeit und der reduzierte Bedarf an Trainingsdaten machen ThinkPRM zu einem attraktiven Ansatz für die Integration in bestehende und zukünftige KI-Anwendungen, wie Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme.
Bibliographie: Khalifa, M., Agarwal, R., Logeswaran, L., Kim, J., Peng, H., Lee, M., Lee, H., & Wang, L. (2025). Process Reward Models That Think. *arXiv preprint arXiv:2504.16828*. Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., ... & Zhang, Y. (2025). Sparks of Artificial General Intelligence: Early experiments with GPT-4. *arXiv preprint arXiv:2501.07301*. Suárez, P. J. O., Lample, G., & Stachurski, L. (2025). Scaling Reinforcement Learning from Human Feedback with Offline Datasets. *arXiv preprint arXiv:2503.03746*. Nakano, R., Hilton, J., Balaji, Y., Wu, J., Ouyang, L., Kim, C., ... & Schulman, J. (2025). WebGPT: Browser-assisted question-answering with human feedback. *arXiv preprint arXiv:2502.10325*. Uesato, J., Huang, J., Lehman, J., Stanley, K. O., & Clune, J. (2024). Reward is enough for convex MDPs. *OpenReview*. Generative Reward Models. *AIPapers Academy*. Stiennon, N., Ouyang, L., Wu, J., Ziegler, D., Lowe, R., Voss, C., ... & Schulman, J. (2024). Learning to summarize from human feedback. *OpenReview*. Goyal, A., Levine, S., & Bengio, Y. (2024). The mechanics of n-player differentiable games. *Advances in Neural Information Processing Systems*, *37*. Zhou, C., Tu, Z., Dai, D., & Dong, L. (2024). Large language models can self-improve. *Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing (EMNLP)*, 1268-1281. This AI Paper Explores Reinforced Learning and Process Reward Models, Advancing LLM Reasoning with Scalable Data and Test-Time Scaling - MarkTechPost. *MarkTechPost*.