Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Entwicklungen im Bereich der Künstlichen Intelligenz schreiten rasant voran und beeinflussen zunehmend auch sensible Bereiche des menschlichen Lebens. Eine aktuelle Neuerung betrifft die Interaktion von Nutzern mit KI-Chatbots in psychischen Krisensituationen. OpenAI, das Unternehmen hinter ChatGPT, hat eine optionale Schutzfunktion namens „Trusted Contact“ eingeführt. Diese Funktion ermöglicht es erwachsenen Nutzern, eine Vertrauensperson zu hinterlegen, die im Falle einer ernsthaften Selbstgefährdung benachrichtigt werden kann. Diese Initiative ist Teil einer breiteren Strategie von OpenAI, die Sicherheit und Unterstützung für Nutzer in vulnerablen Momenten zu verbessern.
Die neue Funktion „Trusted Contact“ bietet erwachsenen Nutzern von ChatGPT die Möglichkeit, proaktiv Vorsorge für den Fall psychischer Krisen zu treffen. Hierbei können sie eine volljährige Person ihres Vertrauens – sei es ein Freund, ein Familienmitglied oder eine andere Bezugsperson – als Vertrauenskontakt bestimmen. Diese Person erhält eine Einladung, in der ihre Rolle erklärt wird. Erst nach der Annahme dieser Einladung ist die Funktion aktiv.
Sobald das System von ChatGPT in einem Gespräch Anzeichen einer ernsthaften Selbstgefährdung erkennt, wird der Nutzer zunächst darauf hingewiesen, dass eine Benachrichtigung der Vertrauensperson in Betracht gezogen werden könnte. Gleichzeitig wird der Nutzer ermutigt, selbst den Kontakt zu dieser Person zu suchen. Im Anschluss daran prüft ein speziell geschultes Team von OpenAI den vorliegenden Fall. Sollte dieses Team zu dem Schluss kommen, dass eine akute Gefährdung besteht, wird die hinterlegte Vertrauensperson informiert.
Die Benachrichtigung der Vertrauensperson erfolgt dabei diskret und ohne Offenlegung der konkreten Chatinhalte. Sie enthält lediglich einen allgemeinen Hinweis darauf, dass das Thema Selbstverletzung in potenziell besorgniserregender Weise zur Sprache kam, sowie die Aufforderung, den Nutzer aktiv anzusprechen und Unterstützung anzubieten. Die Kommunikation kann per E-Mail, SMS oder direkt über die ChatGPT-App erfolgen, sofern die Vertrauensperson über ein entsprechendes Konto verfügt.
OpenAI betont die Flexibilität dieser Funktion: Nutzer können ihren Vertrauenskontakt jederzeit in den Einstellungen ändern oder entfernen. Auch die Vertrauensperson selbst hat die Möglichkeit, ihre Rolle zu beenden. Das Unternehmen strebt an, Sicherheitsmeldungen innerhalb einer Stunde zu prüfen, um eine zeitnahe Reaktion zu gewährleisten. Die Funktion ist derzeit für private ChatGPT-Konten in den meisten Ländern und Regionen für Nutzer ab 18 Jahren verfügbar.
Die Einführung von „Trusted Contact“ ist nicht isoliert zu betrachten, sondern steht im Kontext eines zunehmenden öffentlichen und rechtlichen Drucks auf Unternehmen, die KI-Chatbots entwickeln. In der Vergangenheit gab es Fälle, in denen die Rolle von KI-Systemen in psychischen Krisen, bis hin zu Suiziden, kritisch hinterfragt wurde. Insbesondere eine Klage der Eltern eines 16-Jährigen, der sich das Leben nahm und dessen Interaktionen mit ChatGPT untersucht wurden, hat die Debatte um die Sicherheitsmechanismen von KI-Chatbots verstärkt.
Obwohl OpenAI in solchen Fällen den Vorwurf der Mitschuld zurückweist und von Missbrauch der Technologie spricht, reagiert das Unternehmen mit verstärkten Schutzmaßnahmen. Ähnliche Vorwürfe betreffen auch andere Anbieter von KI-Chatbots, bei denen Nutzer nach intensiven Gesprächen mit den Systemen psychische Probleme entwickelten oder sich selbst verletzten. Dies verdeutlicht die Notwendigkeit für KI-Entwickler, proaktive Schritte zur Gewährleistung der Nutzersicherheit zu unternehmen, insbesondere in hochsensiblen Bereichen wie der psychischen Gesundheit.
Bereits im September 2025 wurden Jugendschutzmaßnahmen für ChatGPT eingeführt, und die nun erweiterte Funktion für Erwachsene baut auf diesen Erfahrungen auf. OpenAI arbeitet zudem mit über 90 Ärzten und einem Expertengremium aus den Bereichen psychische Gesundheit und Jugendentwicklung zusammen, um sicherzustellen, dass die entwickelten Sicherheitsfunktionen auf wissenschaftlichen Erkenntnissen und bewährten Verfahren basieren.
Es wird betont, dass die „Trusted Contact“-Funktion keine professionelle Notfallhilfe ersetzt. Vielmehr dient sie als zusätzliche Sicherheitsebene, um Menschen in kritischen Situationen mit ihrem sozialen Umfeld zu verbinden und sie zur Suche nach realer Unterstützung zu ermutigen. Die Entwicklungen in diesem Bereich zeigen, dass die ethische Verantwortung und die Implementierung von Schutzmechanismen bei der Entwicklung und dem Einsatz von KI-Technologien eine immer zentralere Rolle spielen.
Die Einführung von „Trusted Contact“ ist ein Schritt in einer fortlaufenden Entwicklung zur Verbesserung der Sicherheit und Unterstützung von Nutzern in sensiblen Gesprächen mit KI. OpenAI hat angekündigt, weiterhin an gezielten Sicherheitsverbesserungen zu arbeiten, insbesondere in Bereichen wie emotionaler Abhängigkeit, psychischen Notfällen und der Vermeidung übermäßiger Zustimmung durch das Modell. Das Unternehmen strebt an, die Reaktionen von ChatGPT in sensiblen Interaktionen kontinuierlich zu optimieren.
Eine zentrale Herausforderung bleibt die präzise Erkennung von Krisensituationen durch die KI-Modelle. Obwohl OpenAI die Modelle darauf trainiert hat, keine Anleitungen zur Selbstverletzung zu geben und stattdessen unterstützend und empathisch zu reagieren, können lange oder komplexe Gespräche die Wirksamkeit der Sicherheitsvorkehrungen beeinträchtigen. Daher wird an der Stärkung dieser Schutzmaßnahmen gearbeitet, um auch bei längeren Interaktionen zuverlässig zu bleiben.
Zukünftig könnten auch Funktionen implementiert werden, die den Zugang zu Notdiensten und Expertenhilfe weiter erleichtern, beispielsweise durch Ein-Klick-Nachrichten oder Anrufe an Notfallkontakte. Diskutiert wird zudem die Möglichkeit, Nutzer direkt mit lizenzierten Therapeuten in Kontakt zu bringen. Für Jugendliche sind strengere Jugendschutzfilter und Elternkontrollen geplant, die eine bessere Überwachung und Gestaltung der ChatGPT-Nutzung durch Kinder ermöglichen sollen.
Die Zusammenarbeit mit medizinischen Fachkräften und Psychologen spielt hierbei eine entscheidende Rolle, um sicherzustellen, dass die KI-Systeme die Komplexität menschlicher Emotionen und psychischer Zustände angemessen erfassen und darauf reagieren können. Die kontinuierliche Forschung und Anpassung der Modelle sind unerlässlich, um den sich wandelnden Anforderungen an die Nutzersicherheit gerecht zu werden und die positiven Potenziale der KI im Bereich der psychischen Unterstützung verantwortungsvoll zu nutzen.
Die Entwicklungen bei ChatGPT und ähnlichen KI-Systemen verdeutlichen, dass die Integration von KI in alltägliche Interaktionen eine sorgfältige Abwägung von technologischem Fortschritt, ethischen Grundsätzen und dem Schutz der Nutzer erfordert. Die neue Funktion „Trusted Contact“ ist ein Beispiel für die Bemühungen, dieser Verantwortung gerecht zu werden.
Bibliography: - Bezmalinović, T. (2026, 8. Mai). ChatGPT führt optionalen Vertrauenskontakt für psychische Krisenfälle ein. Heise Online. - dpa. (2026, 8. Mai). ChatGPT warnt Vertrauensperson bei Suizidgefahr. FAZ. - OpenAI. (o. J.). Hilfestellung für Menschen, wenn sie sie am dringendsten benötigen. - RP ONLINE. (2026, 8. Mai). ChatGPT warnt Vertrauensperson bei Suizidgefahr. - OpenAI. (o. J.). Hilfreichere und unterstützendere ChatGPT-Erfahrungen für alle. - Nicolas. (2025, 28. August). Nach Suizid: Neue Sicherheitsfunktionen für ChatGPT geplant. ifun.de. - OpenAI. (o. J.). Stärkung der ChatGPT-Antworten in sensiblen Gesprächen. - Radio Hochstift. (2026, 8. Mai). San Francisco | ChatGPT warnt Vertrauensperson bei Suizidgefahr. - Schreiner, M. (2025, 2. September). OpenAI will ChatGPT künftig für psychische Krisen und Jugendliche sicherer machen. The Decoder. - dpa. (2026, 8. Mai). ChatGPT warnt Vertrauensperson bei Suizidgefahr. Donaukurier.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen