Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat unser tägliches Leben auf vielfältige Weise bereichert. Von der Automatisierung von Aufgaben bis hin zur Bereitstellung personalisierter Empfehlungen – KI-Systeme sind allgegenwärtig. Doch wie sicher sind diese Empfehlungen wirklich? Dieser Frage widmet sich ein aktueller Fall, bei dem ein Kochvorschlag der Google-KI Gemini fast zu einer schweren Vergiftung führte.
Ende Mai 2024 rollte Google in den USA die sogenannten KI-Übersichten für seine Suchmaschine aus. Diese neuen Funktionen sollten Nutzern helfen, schnell und einfach Informationen zu erhalten. Ein Nutzer, der auf Reddit über seine Erfahrungen berichtete, hatte die Google-KI Gemini um Rat gefragt, wie man Knoblauch in Olivenöl einlegen könne, ohne es zu erhitzen. Die Antwort der KI: Ja, es sei möglich, und sie lieferte ein detailliertes Rezept dazu.
Der Nutzer folgte der Anleitung penibel. Er zerdrückte die Knoblauchzehen und legte sie in ein Glas mit Olivenöl, das er anschließend zuschraubte und mehrere Tage bei Zimmertemperatur stehen ließ. Nach einigen Tagen bemerkte er kleine Bläschen im Glas, dachte sich jedoch zunächst nichts dabei. Erst als diese Bläschen verschwanden, wurde er misstrauisch und suchte online nach weiteren Informationen.
Was der Nutzer herausfand, war erschreckend: In dem Glas könnte sich das Bakterium Clostridium botulinum gebildet haben, das den gefährlichen Giftstoff Botulinumtoxin produziert. Dieser Giftstoff kann Botulismus verursachen, eine lebensbedrohliche Vergiftung. Botulinumtoxin gehört zu den stärksten bekannten Giften und kann bereits in winzigen Mengen tödlich sein.
Das Bundesinstitut für Risikobewertung warnt ausdrücklich vor der eigenhändigen Herstellung von mit Knoblauch oder frischen Kräutern aromatisierten Ölen. In den Jahren 2008 bis 2013 wurden in Deutschland 36 Fälle von Botulismus gemeldet, von denen einer tödlich endete. Auch in den USA und Kanada sind mehrere Krankheitsausbrüche nach dem Verzehr von in Öl eingelegtem Gemüse bekannt geworden.
Während die Google-KI Gemini in ihrem Rezept keine Warnhinweise zu den Gefahren einer möglichen Botulismus-Vergiftung gab, reagierten andere KI-Systeme anders. Ein Test mit ChatGPT ergab, dass diese KI sofort auf die potenziellen Gefahren hinwies: „Frischer Knoblauch in Öl schafft eine anaerobe (sauerstofffreie) Umgebung, die das Wachstum von Clostridium botulinum fördern kann, den Bakterien, die Botulismus verursachen.“
Auch Microsofts Copilot vermied das Problem elegant, indem er ein Rezept vorschlug, bei dem der Knoblauch erhitzt wird. Dies ist eine wichtige Maßnahme, da die hitzebeständigen Sporen des Clostridium botulinum erst bei Temperaturen über 100 Grad Celsius abgetötet werden.
Dieser Vorfall unterstreicht die Notwendigkeit, Empfehlungen von KI-Systemen nicht blind zu vertrauen, insbesondere wenn es um potenziell gefährliche Anweisungen geht. Verbraucher sollten stets eine zweite Meinung einholen und sich bei unsicherer Information auf bewährte Quellen verlassen.
Die rasante Entwicklung der KI-Technologie bringt viele Vorteile, aber auch neue Herausforderungen mit sich. Es bleibt abzuwarten, wie Entwickler und Unternehmen diese Herausforderungen angehen und sicherstellen, dass ihre Systeme nicht nur nützliche, sondern auch sichere Empfehlungen liefern.
Die Geschichte des Reddit-Nutzers, der durch einen Kochvorschlag der Google-KI Gemini beinahe eine lebensbedrohliche Vergiftung erlitt, dient als eindringliche Warnung. Auch wenn KI-Systeme in vielen Bereichen nützlich sind, ist es entscheidend, ihre Empfehlungen kritisch zu hinterfragen und zusätzliche Informationen aus verlässlichen Quellen einzuholen. Nur so können potenzielle Gefahren vermieden und die zahlreichen Vorteile der Technologie sicher genutzt werden.
- https://www.chip.de/news/kuenstliche-intelligenz/nutzer-vertraut-beim-kochen-auf-google-gemini-und-waere-beinahe-vergiftet-worden_d004ce6f-e4e3-48e3-949c-4e0dfbcdadfe.html
- https://t3n.de/news/rezept-gemini-google-ki-vergiftet-1631369/
- https://www.mind-verse.de/news/gefaehrliche-ki-rezepte-google-gemini-verursacht-beinahe-familienvergiftung
- https://futurezone.at/digital-life/google-gemini-kuenstliche-intelligenz-ki-rezept-botulismus-vergiftung-chatgpt-warnung-hinweis/402915166
- https://www.golem.de/news/botulismus-googles-gemini-ki-haette-beinahe-anwender-vergiftet-2406-186232.html
- https://www.techbook.de/mobile-lifestyle/kochen-ki-gemini-chatgpt-kraeuteroel
- https://www.mimikama.org/botulismus-vermeiden-google-gemini/
- https://www.heute.at/s/user-kocht-ki-rezept-entkommt-nur-knapp-dem-tod-120043602