Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
In der heutigen digitalen Welt wird es zunehmend schwieriger, echte Fotos von KI-generierten Bildern zu unterscheiden. Die fortschreitende Entwicklung der Künstlichen Intelligenz (KI) hat es ermöglicht, täuschend echte Bilder und Videos zu erstellen, die nicht nur in sozialen Medien, sondern auch in der politischen und wirtschaftlichen Landschaft für Verwirrung sorgen können. Eine neue Studie zeigt jedoch, dass es bestimmte Anzeichen gibt, die helfen können, Deepfakes von echten Fotos zu unterscheiden.
Deepfakes können weitreichende Probleme verursachen. Sie werden für Betrügereien auf Dating-Portalen eingesetzt oder nutzen die Identität bekannter Personen, um falsche Informationen zu verbreiten. Insbesondere in sozialen Medien können diese Fälschungen schnell viral gehen und erheblichen Schaden anrichten. Die Schwierigkeit besteht darin, dass diese Bilder oft so realistisch sind, dass selbst Experten sie nicht sofort als Fälschungen erkennen können.
Eine Studie der Royal Astronomical Society hat jedoch gezeigt, dass es einen entscheidenden Hinweis gibt, um Deepfakes zu enttarnen: die Augen. Die Reflexionen in den Augen der KI-generierten Bilder sind oft inkonsistent und erzeugen einen unrealistischen Lichteinfall. Bei echten Personen sind die Reflexionen in beiden Augen konsistent, da sie denselben physikalischen Gesetzen folgen.
Professor Kevin Pimbblet, Leiter des Centre of Excellence an der Universität von Hull, erklärt: „Die Reflexionen bei echten Personen sind konsistent, aber bei der Fake-Person (von einem physikalischen Standpunkt) inkorrekt.“ Ein Beispielbild zeigt, dass in einem Auge Reflexionen von mindestens fünf Lichtpunkten vorhanden sind, während es im anderen Auge nur drei sind. Diese Unterschiede lassen sich nutzen, um Deepfakes zu identifizieren.
Interessanterweise waren es Astronomen, die diese Erkenntnisse gewonnen haben. Normalerweise beschäftigen sich eher KI-Forscher mit Deepfakes, aber die Werkzeuge der Astronomen, die zur Analyse von Galaxien verwendet werden, haben diese Entdeckungen ermöglicht. „Um die Form von Galaxien zu erfassen, analysieren wir, wie kompakt, symmetrisch und glatt sie sind. Wir analysieren die Lichtverteilung“, so Pimbblet weiter. Diese Methoden wurden nun auf die Analyse von Augenreflexionen angewendet.
Ein weiteres Werkzeug, das verwendet wurde, ist der Gini-Koeffizient. Normalerweise wird dieser Wert verwendet, um die Lichtverteilung in Bildern von Galaxien zu messen. Ein Gini-Wert von 0 bedeutet, dass das Licht gleichmäßig über alle Pixel verteilt ist, während ein Wert von 1 eine Lichtbündelung in einem einzigen Pixel anzeigt. Für echte Personen müssen die Gini-Werte in beiden Augen identisch sein, während sie bei Deepfakes oft abweichen.
Diese Erkenntnisse bieten eine Grundlage, um das Aufspüren von Deepfakes in der Zukunft zu erleichtern. Obwohl es sich nicht um eine hundertprozentig einwandfreie Methode handelt, können diese Anzeichen genutzt werden, um die Authentizität von Bildern zu überprüfen. In der Praxis könnte dies bedeuten, dass Tools entwickelt werden, die automatisch die Reflexionen in den Augen analysieren und Deepfakes kennzeichnen.
Neben den Augenreflexionen gibt es weitere Anzeichen, die auf KI-generierte Bilder hinweisen können:
- Unnatürlich glatte Haut - Inkonsistenzen im Hintergrund - Fehler bei der Darstellung von Händen und Füßen - Unnatürlich perfekte oder fehlerhafte Schrift und ZeichenDie Entwicklung von Deepfakes stellt eine ernsthafte Herausforderung dar, doch die Forschung zeigt, dass es Möglichkeiten gibt, diese zu enttarnen. Durch die Analyse von Augenreflexionen und anderen Anomalien können wir uns gegen diese Bedrohung wappnen. Angesichts der rasanten Weiterentwicklung von KI-Tools bleibt dieses Thema von großer Bedeutung und erfordert kontinuierliche Aufmerksamkeit und Forschung.
Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen