Die zunehmende Verbreitung von Künstlicher Intelligenz (KI) hat in vielen Bereichen unseres Lebens Einzug gehalten. Von der Textverarbeitung bis hin zur Automatisierung von Haushaltsgeräten – die Möglichkeiten scheinen grenzenlos. Doch nicht immer verläuft der Einsatz von KI reibungslos, wie ein aktueller Fall zeigt, bei dem ein Nutzer beinahe seine Familie vergiftet hätte, weil er einem Rezeptvorschlag der Google-KI Gemini folgte.
Ein Reddit-Nutzer berichtete, dass er beabsichtigte, Knoblauch in Olivenöl einzulegen. Dabei fragte er die Google-KI Gemini, ob dies ohne Erhitzen möglich sei und wie das genau funktionieren würde. Die KI bejahte dies und lieferte eine detaillierte Anleitung. Der Nutzer folgte der Anleitung, zerdrückte die Knoblauchzehen und legte sie in ein Glas mit Olivenöl, das er dann bei Zimmertemperatur mehrere Tage stehen ließ.
Nach einigen Tagen bemerkte der Nutzer Bläschen im Glas, die nach kurzer Zeit verschwanden. Dies rief zunächst keine Bedenken hervor. Doch als er schließlich unsicher wurde und eine weitere Recherche durchführte, entdeckte er, dass das Bakterium Clostridium botulinum den gefährlichen Giftstoff Botulinumtoxin gebildet haben könnte. Dieser Giftstoff kann Botulismus verursachen, eine lebensbedrohliche Vergiftung.
Während die Google-KI Gemini keine Warnung vor den potenziellen Gefahren bei der Herstellung von aromatisiertem Öl mit Knoblauchzehen aussprach, tat dies die Konkurrenz in unserem Test jedoch wohl. ChatGPT warnte uns bei der gleichen Anfrage, dass frischer Knoblauch in Öl eine anaerobe (sauerstofffreie) Umgebung schafft, die das Wachstum von Clostridium botulinum fördern kann.
Botulismus ist eine schwere Erkrankung, die durch das Toxin von Clostridium botulinum verursacht wird. Bereits 10 Nanogramm des Toxins gelten für den Menschen als tödlich. Die Symptome reichen von Übelkeit und Durchfall bis hin zu Sehstörungen und schlaffen Lähmungen, die auch die Atemmuskulatur betreffen können. Das Bundesinstitut für Risikobewertung warnt daher vor der eigenhändigen Herstellung von aromatisierten Ölen ohne ausreichende Erhitzung.
Der Vorfall hat in der Öffentlichkeit für Aufsehen gesorgt und Diskussionen über die Zuverlässigkeit von KI-gestützten Anwendungen entfacht. Google hat bereits angekündigt, die Sicherheitsmechanismen seiner KI zu verbessern, um solche Vorfälle in Zukunft zu vermeiden.
Der Vorfall zeigt deutlich, dass man KI-Programmen nicht blind vertrauen sollte, insbesondere wenn es um potenziell gefährliche Anweisungen geht. Nutzer sollten stets kritisch hinterfragen und gegebenenfalls zusätzliche Quellen konsultieren, um die Richtigkeit der Informationen zu überprüfen.
- https://futurezone.at/digital-life/google-gemini-kuenstliche-intelligenz-ki-rezept-botulismus-vergiftung-chatgpt-warnung-hinweis/402915166
- https://www.chip.de/news/kuenstliche-intelligenz/nutzer-vertraut-beim-kochen-auf-google-gemini-und-waere-um-ein-haar-vergiftet-worden_d004ce6f-e4e3-48e3-949c-4e0dfbcdadfe.html
- https://www.msn.com/de-at/nachrichten/other/rezeptvorschlag-von-google-ki-h%C3%A4tte-familie-fast-vergiftet/ar-BB1ovPRZ
- https://www.golem.de/news/botulismus-googles-gemini-ki-haette-beinahe-anwender-vergiftet-2406-186232.html
- https://www.golem.de/news/bundesregierung-vorschlag-fuer-komplett-digitale-arbeitsvertraege-beschlossen-2406-186265.html
- https://gemini.google.com/?hl=de
- https://www.br.de/nachrichten/netzwelt/debatte-um-google-gemini-wie-woke-ist-die-ki,U4usGOV
- https://www.zeit.de/digital/mobil/2024-06/google-gemini-app-ki-android-deutschland-faq
- https://www.faz.net/pro/d-economy/prompt-der-woche/google-gemini-eine-ernst-zu-nehmende-konkurrenz-fuer-chatgpt-19379268.html