Ein Hacker hat einen KI-Chatbot namens Freysa durch geschicktes Prompt Engineering manipuliert und damit einen Preispool von 47.000 US-Dollar gewonnen. Der Vorfall ereignete sich im Rahmen eines Wettbewerbs, bei dem Teilnehmer versuchen konnten, den Bot dazu zu bringen, Geld zu überweisen – eine Aktion, die ihm explizit untersagt war.
Der erfolgreiche Hacker mit dem Pseudonym "p0pular.eth" benötigte 482 Versuche, um die Sicherheitsmechanismen des Bots auszutricksen. Die ausgeklügelte Strategie umfasste mehrere Schritte. Zunächst täuschte der Hacker Administratorrechte vor und unterdrückte so die Anzeige von Sicherheitswarnungen. Anschließend manipulierte er die Funktion "approveTransfer", die Transaktionen autorisiert. Durch die Umdefinierung dieser Funktion gaukelte er dem Bot vor, dass es sich um eingehende und nicht um ausgehende Zahlungen handelte.
Der letzte Schritt war ebenso simpel wie effektiv: Die Ankündigung einer fiktiven Einzahlung von 100 US-Dollar. Da der Bot nun glaubte, "approveTransfer" verwalte eingehende Zahlungen, aktivierte er die Funktion und überwies seinen gesamten Kontostand von 13,19 ETH (zum damaligen Zeitpunkt etwa 47.000 US-Dollar) an den Hacker.
Der Wettbewerb, bei dem der Hack stattfand, funktionierte nach dem Pay-to-Play-Prinzip. Die Teilnahmegebühren stiegen mit dem wachsenden Preispool. Zu Beginn kostete jeder Versuch 10 US-Dollar, später stieg der Preis auf bis zu 4.500 US-Dollar. Insgesamt nahmen 195 Personen teil, die durchschnittlichen Kosten pro Nachricht betrugen 418,93 US-Dollar. Die Organisatoren teilten die Gebühren unter sich auf: 70% flossen in den Preispool, 30% gingen an den Entwickler. Um Transparenz zu gewährleisten, wurden sowohl der Smart Contract als auch der Front-End-Code öffentlich zugänglich gemacht.
Dieser Fall verdeutlicht, wie KI-Systeme allein durch Texteingaben manipuliert werden können, ohne dass dafür spezielle Hacking-Fähigkeiten erforderlich sind. Diese Sicherheitslücken, bekannt als "Prompt Injections", sind seit GPT-3 ein bekanntes Problem, doch bislang gibt es keine zuverlässige Abwehrstrategie. Der Erfolg dieser relativ einfachen Täuschung wirft Fragen zur Sicherheit von KI-Systemen auf, insbesondere bei Anwendungen mit Endbenutzer-Schnittstelle, die sensible Vorgänge wie Finanztransaktionen abwickeln. Besonders kritisch ist die Tatsache, dass der Chatbot Freysa speziell dafür entwickelt wurde, Angriffen durch Prompt Injection zu widerstehen. Der erfolgreiche Hack zeigt, dass selbst spezialisierte Sicherheitsmaßnahmen nicht unfehlbar sind.
Mindverse, als Anbieter von KI-Lösungen, ist sich dieser Herausforderungen bewusst und arbeitet kontinuierlich an der Verbesserung der Sicherheit und Robustheit seiner Produkte. Die Entwicklung von sicheren und zuverlässigen KI-Systemen ist ein fortwährender Prozess, der ständige Anpassung und Innovation erfordert.
Der Vorfall unterstreicht die Notwendigkeit weiterer Forschung im Bereich der KI-Sicherheit. Es bedarf innovativer Ansätze, um Prompt Injections effektiv zu verhindern und die Integrität von KI-Systemen zu gewährleisten. Die zunehmende Integration von KI in verschiedene Anwendungsbereiche erfordert ein stetiges Hinterfragen und Verbessern der Sicherheitsstandards. Nur so kann das volle Potenzial der künstlichen Intelligenz sicher und verantwortungsvoll genutzt werden.
Bibliografie: https://the-decoder.com/artificial-intelligence-news/ai-practice/ https://www.bitdefender.com/en-us/blog/hotforsecurity/ai-chatbots-can-be-tricked-by-hackers-into-stealing-your-data https://www.msn.com/en-us/news/technology/8-chatgpt-productivity-tips-and-tricks/ar-AA1ueh1J https://www.wired.com/story/ai-imprompter-malware-llm/ https://www.linkedin.com/posts/quickence-int_csr-freshers-experienced-activity-7166071712537677825-R7Qa https://www.atcguild.in/iwen/iwen3822/General/weekly%20security%20items%2013-September-2022.pdf https://bgr.com/tech/chatbot-hack-shows-why-you-shouldnt-trust-ai-with-your-personal-data/ https://commlaw.allard.ubc.ca/2017/08/31/news-of-the-week-august-30-2017/ https://arxiv.org/abs/2410.20911