Neue Sprachmodelle GPT-4.1 mini und nano: OpenAI optimiert für Coding und KI-Agenten
OpenAI hat eine neue Familie von Sprachmodellen vorgestellt: GPT-4.1, GPT-4.1 mini und GPT-4.1 nano. Diese Modelle zielen insbesondere auf Softwareentwickler ab und versprechen Verbesserungen im Bereich der Codegenerierung und der Befolgung von Anweisungen im Vergleich zu den Vorgängermodellen GPT-4o und GPT-4o mini. Die neuen Modelle verfügen über einen Wissensstand von Juni 2024 und bieten Kontextfenster mit bis zu einer Million Token, was die Verarbeitung von umfangreichen Anfragen mit bis zu 750.000 Wörtern ermöglicht. Der Zugang zu GPT-4.1 ist derzeit ausschließlich über die API möglich, eine Integration in ChatGPT ist nicht geplant.
Performance im Vergleich: Coding-Benchmarks und Anweisungsverständnis
In Coding-Benchmarks wie dem SWE-bench Verified, der die Leistung von Sprachmodellen anhand von 500 Programmieraufgaben testet, zeigt GPT-4.1 eine verbesserte Performance im Vergleich zu seinen Vorgängern, liegt aber hinter Konkurrenzmodellen wie Gemini 2.5 Pro und Claude 3.7 Sonnet. Während GPT-4.1 rund 55% der Aufgaben lösen konnte, erreichten die Konkurrenzmodelle Werte von etwa 63%. Intern entwickelte Evaluationen von OpenAI zeigen, dass GPT-4.1 in Bezug auf die Befolgung von Anweisungen auf einem ähnlichen Niveau wie GPT-4.1 mini, GPT-4.5, o1 und o3-mini liegt.
Frontend-Coding, Schnittstellenentwicklung und KI-Agenten
OpenAI betont die Eignung von GPT-4.1 für das Frontend-Coding und die Entwicklung von Schnittstellen. Die Modelle sollen Code generieren, der weniger Nachbearbeitung benötigt, und sich für die Überarbeitung einzelner Codeblöcke eignen, ohne die gesamte Datei ersetzen zu müssen. Im Benchmark Aider's Polyglot, der die Fähigkeit zur Bearbeitung von Codeblöcken in verschiedenen Programmiersprachen testet, erreichte GPT-4.1 rund 53% der Aufgaben. Die kleineren Modelle GPT-4.1 mini und nano erzielten 32% bzw. 6%. Die verbesserte Performance von GPT-4.1 soll die Entwicklung von KI-Agenten ermöglichen, die in der Softwareentwicklung unterstützen können. In diesem Zusammenhang wird die Preview von GPT-4.5 eingestellt.
Modellgrößen, Preise und Verifizierung für Unternehmenskunden
OpenAI bietet die neuen Modelle in verschiedenen Größen an, um unterschiedliche Bedürfnisse zu bedienen. Während das große Modell GPT-4.1 die beste Performance bietet, sind die kleineren Modelle schneller und effizienter, jedoch mit Abstrichen bei der Genauigkeit. Die Preise für GPT-4.1 liegen bei 2 US-Dollar pro Million Input-Token und 8 US-Dollar pro Million Output-Token. Für GPT-4.1 mini betragen die Kosten 0,40 US-Dollar bzw. 1,60 US-Dollar pro Million Token. Das kleinste Modell, GPT-4.1 nano, kostet 0,10 US-Dollar für Input und 0,40 US-Dollar für Output. OpenAI hat außerdem angekündigt, dass sich Unternehmenskunden für den API-Zugriff auf Sprachmodelle künftig mit einem Ausweisdokument verifizieren müssen.
Bibliographie:
- https://www.heise.de/news/GPT-4-1-ist-da-OpenAI-bringt-neue-Sprachmodelle-fuer-Coding-und-KI-Agenten-10352422.html
- https://social.heise.de/@iX_Magazin/114346284840623889
- https://www.golem.de/news/llm-openai-bringt-gpt-4-1-mit-1-million-token-kontextfenster-2504-195363.html
- https://the-decoder.de/openai-bringt-gpt-4-1-neue-modellfamilie-soll-agenten-lange-kontexte-und-coding-verbessern/
- https://de.linkedin.com/posts/heiseonline_gpt-41-ist-da-openai-bringt-neue-sprachmodelle-activity-7318192402509299712-acLY
- https://www.datacamp.com/de/blog/gpt-4-1
- https://kinews24.de/gpt-4-1-api-coding-deep-dive-1m-token-anleitung/
- https://latenode.com/de/blog/gpt-4-1-preview
- https://www.mind-verse.de/news/openai-neue-sprachmodelle-gpt-4-1-mini-nano-ueberblick