In der heutigen digitalen Welt wird es zunehmend schwieriger, echte Fotos von KI-generierten Bildern zu unterscheiden. Die fortschreitende Entwicklung der Künstlichen Intelligenz (KI) hat es ermöglicht, täuschend echte Bilder und Videos zu erstellen, die nicht nur in sozialen Medien, sondern auch in der politischen und wirtschaftlichen Landschaft für Verwirrung sorgen können. Eine neue Studie zeigt jedoch, dass es bestimmte Anzeichen gibt, die helfen können, Deepfakes von echten Fotos zu unterscheiden.
Deepfakes können weitreichende Probleme verursachen. Sie werden für Betrügereien auf Dating-Portalen eingesetzt oder nutzen die Identität bekannter Personen, um falsche Informationen zu verbreiten. Insbesondere in sozialen Medien können diese Fälschungen schnell viral gehen und erheblichen Schaden anrichten. Die Schwierigkeit besteht darin, dass diese Bilder oft so realistisch sind, dass selbst Experten sie nicht sofort als Fälschungen erkennen können.
Eine Studie der Royal Astronomical Society hat jedoch gezeigt, dass es einen entscheidenden Hinweis gibt, um Deepfakes zu enttarnen: die Augen. Die Reflexionen in den Augen der KI-generierten Bilder sind oft inkonsistent und erzeugen einen unrealistischen Lichteinfall. Bei echten Personen sind die Reflexionen in beiden Augen konsistent, da sie denselben physikalischen Gesetzen folgen.
Professor Kevin Pimbblet, Leiter des Centre of Excellence an der Universität von Hull, erklärt: „Die Reflexionen bei echten Personen sind konsistent, aber bei der Fake-Person (von einem physikalischen Standpunkt) inkorrekt.“ Ein Beispielbild zeigt, dass in einem Auge Reflexionen von mindestens fünf Lichtpunkten vorhanden sind, während es im anderen Auge nur drei sind. Diese Unterschiede lassen sich nutzen, um Deepfakes zu identifizieren.
Interessanterweise waren es Astronomen, die diese Erkenntnisse gewonnen haben. Normalerweise beschäftigen sich eher KI-Forscher mit Deepfakes, aber die Werkzeuge der Astronomen, die zur Analyse von Galaxien verwendet werden, haben diese Entdeckungen ermöglicht. „Um die Form von Galaxien zu erfassen, analysieren wir, wie kompakt, symmetrisch und glatt sie sind. Wir analysieren die Lichtverteilung“, so Pimbblet weiter. Diese Methoden wurden nun auf die Analyse von Augenreflexionen angewendet.
Ein weiteres Werkzeug, das verwendet wurde, ist der Gini-Koeffizient. Normalerweise wird dieser Wert verwendet, um die Lichtverteilung in Bildern von Galaxien zu messen. Ein Gini-Wert von 0 bedeutet, dass das Licht gleichmäßig über alle Pixel verteilt ist, während ein Wert von 1 eine Lichtbündelung in einem einzigen Pixel anzeigt. Für echte Personen müssen die Gini-Werte in beiden Augen identisch sein, während sie bei Deepfakes oft abweichen.
Diese Erkenntnisse bieten eine Grundlage, um das Aufspüren von Deepfakes in der Zukunft zu erleichtern. Obwohl es sich nicht um eine hundertprozentig einwandfreie Methode handelt, können diese Anzeichen genutzt werden, um die Authentizität von Bildern zu überprüfen. In der Praxis könnte dies bedeuten, dass Tools entwickelt werden, die automatisch die Reflexionen in den Augen analysieren und Deepfakes kennzeichnen.
Neben den Augenreflexionen gibt es weitere Anzeichen, die auf KI-generierte Bilder hinweisen können:
- Unnatürlich glatte Haut - Inkonsistenzen im Hintergrund - Fehler bei der Darstellung von Händen und Füßen - Unnatürlich perfekte oder fehlerhafte Schrift und ZeichenDie Entwicklung von Deepfakes stellt eine ernsthafte Herausforderung dar, doch die Forschung zeigt, dass es Möglichkeiten gibt, diese zu enttarnen. Durch die Analyse von Augenreflexionen und anderen Anomalien können wir uns gegen diese Bedrohung wappnen. Angesichts der rasanten Weiterentwicklung von KI-Tools bleibt dieses Thema von großer Bedeutung und erfordert kontinuierliche Aufmerksamkeit und Forschung.