PrivacyLens Analyse des Datenschutzbewusstseins in Sprachmodellen

Kategorien:
No items found.
Freigegeben:
September 5, 2024
PrivacyLens: Ein neuer Rahmen zur Bewertung des Datenschutzbewusstseins von Sprachmodellen in Aktion

PrivacyLens: Ein neuer Rahmen zur Bewertung des Datenschutzbewusstseins von Sprachmodellen in Aktion

Einleitung

Mit der wachsenden Verbreitung von Sprachmodellen (LMs) in personalisierten Kommunikationsszenarien, wie dem Versenden von E-Mails oder dem Verfassen von Beiträgen in sozialen Medien, steigt auch die Notwendigkeit, dass diese Modelle den kontextuellen Datenschutzrichtlinien folgen. Dabei stellt sich die Frage, wie das Bewusstsein für Datenschutznormen bei LMs quantifiziert werden kann und welche Risiken im Zusammenhang mit der Privatsphäre bei der Kommunikation durch diese Modelle entstehen. Um diese Herausforderungen zu adressieren, wurde PrivacyLens entwickelt.

Herausforderungen bei der Evaluation von Datenschutznormen

Die Bewertung des Bewusstseins von Datenschutznormen bei Sprachmodellen ist aufgrund der kontextuellen und langwierigen Natur von datenschutzsensiblen Fällen sowie des Mangels an realistischen Bewertungsszenarien schwierig. Bisherige Ansätze konzentrieren sich meist auf einfache Abfrage- und Antwortszenarien, die nicht die komplexeren und realitätsnahen Anwendungen abbilden, in denen LMs agieren.

Das PrivacyLens-Framework

PrivacyLens ist ein neuartiger Rahmen, der darauf abzielt, datenschutzsensible Szenarien in ausdrucksstarke Vignetten und weiter in Agenten-Trajektorien zu erweitern, um eine mehrstufige Bewertung des Datenschutzlecks bei Aktionen von LM-Agenten zu ermöglichen. Der Rahmen stützt sich auf eine Sammlung von Datenschutznormen, die in der Literatur zum Datenschutz verankert sind, sowie auf crowdsourced Seeds.

Mehrstufige Bewertung

PrivacyLens bietet eine mehrstufige Bewertung, die von der Beantwortung von Abfragefragen bis hin zur tatsächlichen Ausführung von Benutzeranweisungen durch LM-Agenten reicht. Dabei wird ein erheblicher Unterschied zwischen der Leistung der Modelle bei der Beantwortung von Abfragen und ihrem tatsächlichen Verhalten festgestellt.

Datenschutzlecks in aktuellen Modellen

Die Studie zeigt, dass selbst hochmoderne Sprachmodelle wie GPT-4 und Llama-3-70B in 25,68% bzw. 38,69% der Fälle sensible Informationen preisgeben, selbst wenn sie mit datenschutzfördernden Anweisungen versehen sind. Diese Ergebnisse unterstreichen die Notwendigkeit einer kontextualisierten Bewertung und eines verantwortungsvollen Aufbaus von LM-Agenten.

Experimentelle Ergebnisse

Die Ergebnisse der Studie basieren auf einer Sammlung von 493 datenschutzsensiblen Seeds, die aus US-Datenschutzvorschriften, Literatur zu gefährdeten Gruppen und Crowdsourcing stammen. Diese Seeds wurden in Vignetten und Trajektorien erweitert, um ein umfassendes Bild der Datenschutzrisiken zu zeichnen.

Probing-basierte Evaluation

PrivacyLens verwendet mehrstufige Fragevorlagen, um das Datenschutzbewusstsein der Modelle auf verschiedenen Ebenen zu testen. Diese Methode zeigt, dass es eine Diskrepanz zwischen den Antworten der Modelle auf gezielte Fragen und ihrem tatsächlichen Verhalten gibt.

Aktionsbasierte Evaluation

Bei der aktionsbasierten Bewertung wird das endgültige Handeln eines LM-Agenten anhand der Trajektoriendatenpunkte bewertet. Dabei werden die Leckagerate und die Nützlichkeitsbewertung der endgültigen Aktion berechnet. Diese Methode zeigt, dass selbst datenschutzfördernde Anweisungen nicht immer ausreichen, um Datenschutzlecks zu verhindern.

Schlussfolgerungen und Ausblick

Die Ergebnisse der PrivacyLens-Studie verdeutlichen die Notwendigkeit einer kontextualisierten Evaluation und eines verantwortungsvollen Aufbaus von Sprachmodellen. Es besteht ein erheblicher Bedarf an verbesserten Methoden zur Sicherstellung des Datenschutzes in LM-vermittelter Kommunikation. PrivacyLens bietet dabei einen wertvollen Rahmen für die Weiterentwicklung und Bewertung von Datenschutzmaßnahmen in Sprachmodellen.

Bibliographie

- https://arxiv.org/abs/2409.00138 - https://github.com/SALT-NLP/PrivacyLens - https://arxiv.org/abs/2408.12787 - https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/240715_Discussion_Paper_Hamburg_DPA_KI_Models.pdf - https://www.pedocs.de/volltexte/2024/29036/pdf/Huebsch_et_al_2024_Articulating_tomorrow.pdf - https://dl.gi.de/items/9b618265-7b65-4a7d-9687-4041918e862f - https://aclanthology.org/2021.findings-emnlp.102.pdf - https://openreview.net/forum?id=1vqHTUTod9&referrer=%5Bthe%20profile%20of%20Ethan%20Mendes%5D(%2Fprofile%3Fid%3D~Ethan_Mendes1) - https://aclanthology.org/2023.emnlp-main.174.pdf
Was bedeutet das?