ChatGPT offenbart interne Funktionsweisen nach einfacher Nutzerinteraktion

Kategorien:
No items found.
Freigegeben:
July 6, 2024

Ein unerwarteter Einblick: ChatGPT enthüllt Geheimnisse durch einfache Begrüßung

In einer überraschenden Wendung hat ChatGPT, das prominente Sprachmodell von OpenAI, seine internen Anweisungen und Funktionsweisen offengelegt. Diese Enthüllung erfolgte durch eine scheinbar harmlose Begrüßung eines Nutzers, was zu einer Diskussion über die Sicherheit und Transparenz solcher KI-Systeme führte.

Der Vorfall

Der Vorfall wurde von einem Reddit-Nutzer unter dem Pseudonym F0xmaster initiiert. Dieser begann eine Konversation mit ChatGPT lediglich mit dem Wort „Hi“. Entgegen der üblichen höflichen Begrüßung und Nachfrage nach dem Anliegen des Nutzers, lieferte ChatGPT eine detaillierte Beschreibung seiner Trainingsparameter und internen Anweisungen.

Die Enthüllten Anweisungen

Die Antwort von ChatGPT lautete: „Du bist ChatGPT, ein großes Sprachmodell, das von OpenAI trainiert wurde und auf der GPT‑4-Architektur basiert. Du kommunizierst mit dem Benutzer über die ChatGPT-iOS-App. Das bedeutet, dass deine Antwort in der Regel ein oder zwei Sätze umfassen sollte, es sei denn, die Anfrage des Benutzers erfordert eine ausführliche Erläuterung oder längere Ausführungen. Verwende niemals Emojis, es sei denn, der Benutzer fordert dies ausdrücklich an. Dein Wissensstand ist auf dem Stand von 2023-10.“

Diese Antwort gab unerwartete Einblicke in die operativen Regeln, die die Antworten von ChatGPT lenken. Die Anweisungen umfassen spezifische Richtlinien zur Länge der Antworten, zur Verwendung von Emojis und zur Aktualität des Wissensstands der KI.

Weitere Offenbarungen

Zusätzlich zu den grundlegenden Parametern offenbarte ChatGPT auch, dass es genaue Regeln für die Nutzung der Bild-KI Dall‑e gibt. Beispielsweise darf immer nur ein Bild gleichzeitig erstellt werden, selbst wenn Benutzer:innen nach mehreren Bildern fragen. Zudem werden Anfragen, ein Bild im Stil eines Künstlers zu erstellen, ignoriert, wenn die letzten Werke des Künstlers nach 1912 entstanden sind. Dies bedeutet, dass Bilder im Stil von Van Gogh akzeptabel sind, während solche im Stil von Picasso nicht generiert werden dürfen.

Das „Browser“-Tool

Ein weiteres interessantes Detail ist die Fähigkeit von ChatGPT, ein Tool namens „Browser“ zu nutzen. Dieses Tool wird in speziellen Fällen verwendet, um aktuelle Informationen aus dem Internet zu suchen, beispielsweise für Wetterberichte oder Sportergebnisse. Dabei sollen nur vertrauenswürdige Seiten berücksichtigt und die Anfrage wiederholt werden, wenn keine zufriedenstellenden Ergebnisse gefunden werden. Zudem kann ChatGPT das Internet nutzen, um unbekannte Begriffe zu recherchieren oder direkt von Benutzer:innen aufgeforderte Links zu öffnen. URLs aus den eigenen KI-Suchergebnissen sollen hingegen nie geöffnet werden.

Mehrere Persönlichkeiten von ChatGPT

Ein weiteres bemerkenswertes Detail, das durch andere Reddit-Nutzer:innen aufgedeckt wurde, ist, dass ChatGPT mehrere Persönlichkeiten hat. Diese Persönlichkeiten, als v1 bis v4 bezeichnet, unterscheiden sich in ihrem Kommunikationsstil. Die v2-Persönlichkeit ist die Hauptversion und antwortet in einem förmlichen Stil, wenn Fakten wiedergegeben werden. Die v3-Persönlichkeit ist auf einen freundlichen Konversationsstil ausgelegt, während v4 ihren Ton den Wünschen der Benutzer:innen anpasst, etwa wenn eine Antwort in der Tonalität einer bestimmten demografischen Gruppe gewünscht wird. Die v1-Persönlichkeit ist keine richtige Persönlichkeit, sondern eine Einstellung, um präzise und möglichst kurze Antworten zu liefern.

Sicherheitsbedenken und Maßnahmen

Der Vorfall hat Bedenken hinsichtlich der Sicherheit und Transparenz von KI-Systemen wie ChatGPT aufgeworfen. Experten warnen davor, dass solche Systeme potenziell sensible Informationen preisgeben könnten, wenn sie nicht ordnungsgemäß konfiguriert sind. Daher haben viele Unternehmen, darunter Apple und verschiedene Banken, die Nutzung von ChatGPT und ähnlichen KI-Produkten intern verboten, um sicherzustellen, dass keine vertraulichen Informationen an die falschen Stellen gelangen.

OpenAI hat schnell reagiert und die Lücke im System geschlossen, die diese unerwartete Offenbarung ermöglichte. Trotzdem bleibt die Diskussion darüber, wie solche Systeme sicher und transparent betrieben werden können, weiterhin aktuell.

Fazit

Der Vorfall zeigt, wie wichtig es ist, die Funktionsweise und die internen Regeln von KI-Systemen zu verstehen und zu überwachen. Während die Technologie beeindruckende Fortschritte macht, ist es ebenso wichtig, die Risiken und Herausforderungen zu erkennen und geeignete Maßnahmen zu ergreifen, um die Sicherheit und Integrität solcher Systeme zu gewährleisten.

Die Enthüllungen von ChatGPT bieten wertvolle Einblicke in die Funktionsweise moderner KI-Systeme und unterstreichen die Notwendigkeit einer fortlaufenden Überprüfung und Anpassung der Sicherheitsprotokolle, um potenzielle Risiken zu minimieren.

Bibliografie

- https://t3n.de/news/chatgpt-verraet-geheimnisse-nach-begruessung-1634180/ - https://www.finanznachrichten.de/nachrichten-2024-07/62664308-chatgpt-verraet-seine-geheimnisse-weil-ein-nutzer-die-ki-begruesst-397.htm - https://twitter.com/t3n/status/1809171168466751582 - https://www.berliner-zeitung.de/panorama/experte-mike-wooldridge-warnt-chatgpt-auf-keinen-fall-geheimnisse-verraten-li.2171576 - https://www.fluter.de/faq-woher-nimmt-chatgpt-sein-wissen - https://cnai.swiss/wp-content/uploads/2023/05/ThemenpapierChatGPT-DE-1.pdf - https://mein-mmo.de/milliardenfirma-apple-verbietet-chatgpt-wertvolle-dinge-verraet/ - https://www.iotiq.de/chatgpt.html - https://www.handelsblatt.com/technik/it-internet/chatgpt-was-sie-ueber-openais-ki-wissen-sollten-/28941524.html
Was bedeutet das?