Die Grenzen der Künstlichen Intelligenz: Auch „übermenschliche“ KI lässt sich schlagen
Einführung in die Welt der KI und Brettspiele
Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist in der Lage, hochkomplexe Aufgaben zu bewältigen, die einst als exklusiv menschliche Domäne galten. Ein Paradebeispiel dafür ist das Brettspiel Go, ein strategisches Spiel, das eine Vielzahl von möglichen Zügen und Strategien bietet. Programme wie AlphaGo und KataGo haben bewiesen, dass sie die besten menschlichen Spieler problemlos schlagen können. Doch jüngste Studien zeigen, dass selbst diese „übermenschlichen“ KIs Schwachstellen haben, die ausgenutzt werden können.
Die Schwächen der KI im Go-Spiel
Forscher der gemeinnützigen US-Organisation FAR AI haben entdeckt, dass selbst hochentwickelte KI-Systeme wie KataGo durch vergleichsweise einfache Mittel geschlagen werden können. Diese Erkenntnis basiert auf der Tatsache, dass die KIs auf bestimmte Muster und Strategien trainiert sind, aber Schwierigkeiten haben, auf unkonventionelle Züge zu reagieren. Diese Schwäche wurde durch sogenannte feindliche Angriffe (Adversarial Attacks) ausgenutzt, bei denen Bots speziell darauf trainiert wurden, die KI zu überlisten.
Die ersten Erkenntnisse aus 2022
Bereits 2022 hatten Forscher gezeigt, dass KataGo durch solche adversarialen Angriffe manipuliert werden konnte. Die Angreifer nutzten unkonventionelle Züge und Strategien, die die KI nicht vorhergesehen hatte, um sie zu schlagen. Diese Erkenntnisse veranlassten die Entwickler von KataGo, neue Verteidigungsmechanismen zu entwickeln, um das Programm robuster zu machen.
Drei Verteidigungsstrategien und ihre Schwächen
Die Forscher von FAR AI untersuchten drei verschiedene Verteidigungsmechanismen, um die Effektivität dieser Maßnahmen zu bewerten.
Erste Verteidigung: Konfrontation mit manipulativen Stellungen
Der erste Verteidigungsmechanismus bestand darin, KataGo gezielt mit manipulativen Stellungen zu konfrontieren, damit das Modell selbstständig daraus lernen konnte, wie man sie am besten kontert. Obwohl KataGo dadurch kurzfristig robuster wurde, zeigte sich, dass die Angreifer durch einige Anpassungen weiterhin in 91 Prozent der Fälle erfolgreich waren.
Zweite Verteidigung: Katz-und-Maus-Spiel
Die zweite Verteidigung setzte auf ein iteratives Lernspiel zwischen KataGo und den Angreifern, bei dem beide Seiten in mehreren Runden gegeneinander antraten und sich jeweils auf die Züge des anderen anpassten. Doch auch in diesem Fall hatten die Adversarial Bots letztlich die Nase vorn und schlugen KataGo in 81 Prozent der Fälle.
Dritte Verteidigung: Neue KI mit Vision Transformer
Die dritte Verteidigungsstrategie bestand darin, eine komplett neue Go-KI zu entwickeln, die auf einem Vision Transformer (VIT) anstelle eines Convolutional Neural Networks (CNN) basiert. Die Forscher hofften, dass die neue Architektur weniger anfällig für Angriffe sei. Allerdings zeigte auch dieses Modell ähnliche Schwächen und verlor 78 Prozent aller Spiele gegen die Angreifer.
Keine KI ist vor Angriffen sicher
Die Studie von FAR AI kommt zu dem Schluss, dass keine der getesteten Verteidigungsmaßnahmen Angriffe vollständig verhindern kann. Der Angriffsalgorithmus findet immer einen erfolgreichen Angriff, und das mit nur einem Bruchteil der Rechenleistung, die für das Training der Go-Programme erforderlich ist. Erstaunlich ist zudem, dass die angreifenden Systeme selbst relativ schlechte Go-Spieler sind und von menschlichen Spielern leicht besiegt werden können.
Implikationen für die Zukunft der KI
Diese Erkenntnisse haben weitreichende Implikationen für den Einsatz von KI in verschiedenen Bereichen. Sie zeigen, dass selbst hochentwickelte KI-Systeme nicht vor Manipulationen sicher sind und dass es schwierig sein wird, solche Schwachstellen vollständig zu beseitigen. Dies gilt nicht nur für spezialisierte Anwendungen wie Go, sondern auch für generelle KI-Anwendungen wie ChatGPT, die durch sogenannte Jailbreaks anfällig für Manipulationen sind.
Fazit und Ausblick
Die Studie von FAR AI unterstreicht die Notwendigkeit, KI-Systeme kontinuierlich zu überwachen und weiterzuentwickeln, um sie gegen feindliche Angriffe zu schützen. Sie zeigt auch, dass selbst die fortschrittlichsten KI-Modelle nicht unfehlbar sind und dass menschliche Kreativität und Einfallsreichtum weiterhin eine wichtige Rolle spielen werden, um solche Systeme zu überlisten.
KI bleibt ein faszinierendes und mächtiges Werkzeug, das in vielen Bereichen unseres Lebens eingesetzt werden kann. Doch die Forschung zeigt, dass Wachsamkeit und kontinuierliche Verbesserung notwendig sind, um die Sicherheit und Zuverlässigkeit dieser Systeme zu gewährleisten.
Bibliography
- https://www.mdr.de/wissen/naturwissenschaften-technik/kuenstliche-intelligenz-scheitert-an-schadprogrammen-100.html
- https://www.sueddeutsche.de/wirtschaft/go-ki-kellin-pelrine-lee-sedol-alphago-hobbyspieler-1.5754972
- https://kimed.badw.de/haeufige-fragen.html
- https://t3n.de/
- https://de.wikipedia.org/wiki/Existenzielles_Risiko_durch_k%C3%BCnstliche_Intelligenz
- https://www.derstandard.de/story/3000000215912/wie-die-ki-die-forschung-revolutioniert
- https://books.google.de/books?id=7EaTjqZpsF8C&pg=PA177&lpg=PA177&dq=Auch+eine+%E2%80%9E%C3%BCbermenschliche%E2%80%9C+KI+l%C3%A4sst+sich+schlagen+%E2%80%93+man+muss+nur+wissen,+wie&source=bl&ots=bpfSSIFIPf&sig=ACfU3U1pBevv99QCF2DaE1fuCDYgvIF4RQ&hl=de&sa=X&ved=2ahUKEwiS95zn0KiHAxWrHEQIHabeBC8Q6AF6BAgLEAE
- https://www.heise.de/hintergrund/KI-zwischen-Hype-und-Daemon-7188081.html