Die Herausforderungen der digitalen Identität in der Ära der Künstlichen Intelligenz

Kategorien:
No items found.
Freigegeben:
October 16, 2024

Künstliche Intelligenz: Wenn aus Daten Persönlichkeiten werden

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht. Insbesondere die Entwicklung großer Sprachmodelle (LLMs) hat zu einer neuen Generation von Chatbots geführt, die menschenähnlichere Konversationen führen können. Doch diese Fortschritte werfen auch neue ethische und rechtliche Fragen auf, insbesondere im Hinblick auf den Datenschutz und die Einwilligung.

Wenn die digitale Grenze verschwimmt

Plattformen wie Character.AI ermöglichen es Nutzern, Chatbots mit individuellen Persönlichkeiten zu erstellen, die auf realen oder fiktiven Personen basieren. Diese Chatbots können auf Informationen zugreifen, die im Internet frei verfügbar sind, und diese verwenden, um menschenähnliche Konversationen zu führen. Was auf den ersten Blick amüsant erscheint, birgt jedoch ein enormes Konfliktpotenzial.

Drew Crecente, dessen Tochter 2006 Opfer eines Gewaltverbrechens wurde, erfuhr kürzlich von der Existenz eines Chatbots, der die Persönlichkeit seiner Tochter imitierte. Der Chatbot, erstellt auf Character.AI, nutzte öffentlich zugängliche Informationen über Jennifer Ann Crecente, um ein falsches Profil als "Videospieljournalistin" zu erstellen. Für Crecente war dies eine schmerzhafte Erinnerung an den Verlust seiner Tochter und warf gleichzeitig die Frage auf, inwieweit solche digitalen Nachbildungen ohne die Zustimmung der betroffenen Personen oder deren Angehörigen zulässig sind.

Rechtliche Grauzonen im digitalen Raum

Die rechtliche Situation im Bereich KI und Datenschutz ist komplex. Während das Urheberrecht den Schutz fiktiver Figuren regelt, ist der Schutz der eigenen Persönlichkeit im digitalen Raum weniger klar definiert. Laut Meredith Rose, Rechtsberaterin bei der Verbraucherschutzorganisation Public Knowledge, fallen Rechte an der eigenen Stimme oder dem eigenen Bild unter das „Recht am eigenen Bild“. Diese Rechte schützen jedoch hauptsächlich Personen des öffentlichen Lebens, deren Bild kommerziellen Wert besitzt. Die Art und Weise, wie eine Person spricht, gilt als weniger greifbar und wird daher von diesen Rechten nicht abgedeckt.

Obwohl die Nutzungsbedingungen von Plattformen wie Character.AI die unberechtigte Nutzung von Namen und Persönlichkeiten verbieten, erfolgt die Durchsetzung dieser Regeln oft erst nachträglich, nachdem ein Nutzer einen Chatbot gemeldet hat. Dies führt dazu, dass Chatbots, die gegen die Richtlinien verstoßen, oft lange Zeit online bleiben und potenziellen Schaden anrichten können.

Die dunkle Seite der digitalen Zwillinge

Besonders problematisch ist die unberechtigte Erstellung von Chatbots für Personen, die bereits Opfer von Online-Belästigung sind. Alyssa Mercante, Redakteurin bei einer bekannten Gaming-Website, entdeckte kürzlich einen Chatbot, der ihre Identität imitierte und falsche Behauptungen über sie aufstellte. Mercante, die zuvor Opfer einer Desinformationskampagne geworden war, befürchtet, dass der Chatbot das gegen sie gerichtete Mobbing weiter verstärken könnte.

Auch andere Personen aus der Gaming-Branche, darunter Anita Sarkeesian, die Schöpferin von Feminist Frequency, und Kim Belair, Mitbegründerin der Videospielberatung Sweet Baby Inc., wurden Opfer von Identitätsdiebstahl auf Character.AI. Die Chatbots, die ihre Persönlichkeiten imitieren, verbreiten Fehlinformationen und tragen zur Verunglimpfung ihrer Arbeit bei.

Der Kampf gegen digitale Doppelgänger

Experten sind sich einig, dass die Rechtslage im Bereich KI und Datenschutz dringend überarbeitet werden muss. Matthew Sag, Professor an der Emory University, der sich mit Urheberrecht und künstlicher Intelligenz befasst, kritisiert den weitreichenden Schutz von Plattformen durch Section 230 des Communications Decency Act von 1996. Er plädiert für ein System, das es Nutzern ermöglicht, Verstöße gegen Persönlichkeitsrechte oder Fälle von seelischer Belastung durch Chatbots leichter zu melden und von den Plattformen entfernen zu lassen.

Bis dahin bleibt Nutzern oft nur die Möglichkeit, die Plattformbetreiber auf Chatbots hinzuweisen, die gegen die Nutzungsbedingungen verstoßen. Character.AI gibt an, eine Kombination aus automatisierten und manuellen Systemen zur Erkennung und Entfernung problematischer Inhalte einzusetzen. Der Prozess der Überprüfung und Entfernung kann jedoch bis zu einer Woche dauern, in der der Chatbot weiterhin aktiv bleibt und potenziellen Schaden anrichtet.

Die Zukunft der digitalen Identität

Die zunehmende Verbreitung von KI-gestützten Chatbots wirft wichtige Fragen über die Zukunft der digitalen Identität auf. In einer Welt, in der jeder Mensch zum digitalen Zwilling werden kann, müssen wir sicherstellen, dass unsere Daten und Persönlichkeiten geschützt sind.

Es braucht klare rechtliche Rahmenbedingungen, die die Rechte von Einzelpersonen im digitalen Raum schützen und gleichzeitig Innovation und Fortschritt im Bereich der künstlichen Intelligenz ermöglichen. Die Debatte darüber, wie wir mit den Herausforderungen der KI umgehen, hat gerade erst begonnen.

Quellen

- https://www.wired.com/story/characterai-has-a-non-consensual-bot-problem/ - https://saufter.io/how-to-break-a-chatbot/ - https://www.bbc.com/future/article/20241008-the-troubling-future-of-ai-relationships - https://www.technologyreview.com/2024/09/12/1103930/chatbots-can-persuade-people-to-stop-believing-in-conspiracy-theories/ - https://www.nytimes.com/2024/08/30/technology/ai-chatbot-chatgpt-manipulation.html - https://www.reddit.com/r/SillyTavernAI/comments/167bga1/are_there_anyway_to_stop_the_bot_from_speaking_my/ - https://www.washingtonpost.com/technology/2023/09/08/gmail-instagram-facebook-trains-ai/ - https://www.quora.com/Has-any-of-you-experienced-addiction-to-chatbots-like-Character-AI-How-do-you-deal-with-it - https://hiverhq.com/blog/how-to-stop-chatbots-from-upsetting-your-customers - https://medium.com/@Chatbotking/how-to-prevent-prompt-hijacking-safeguard-against-prompt-injection-and-offer-ai-chatbot-security-4edcdf56d1ce
Was bedeutet das?