Microsoft hat neue Richtlinien und Tools veröffentlicht, um die versehentliche Übermittlung sensibler Daten durch seinen KI-Assistenten Copilot einzudämmen. Das Problem der "Übereingabe" tritt auf, wenn Copilot auf Daten zugreifen kann, die über die beabsichtigte Zugriffsebene eines Benutzers hinausgehen. Dies kann zu unerwünschter Datenexposition oder Antworten führen, die Informationen enthalten, die Benutzer nicht sehen sollten.
Die neuen Ressourcen bieten Administratoren konkrete Anleitungen zur Identifizierung und Minderung von Sicherheitsrisiken. Sie sollen Unternehmen dabei unterstützen, die Kontrolle über ihre Daten zu verbessern und gleichzeitig die Vorteile von KI-gestützten Tools zu nutzen.
Copilots Fähigkeit, Präsentationen zu erstellen, Informationen zusammenzufassen und andere komplexe Aufgaben zu erledigen, basiert auf der Durchsuchung und Indizierung interner Unternehmensdaten. Ähnlich wie Webcrawler von Suchmaschinen analysiert Copilot Dokumente, E-Mails und andere Informationen, um relevante Inhalte für Benutzeranfragen bereitzustellen.
Problematisch wird dies, wenn die Zugriffsberechtigungen für interne Dokumente nicht ausreichend restriktiv konfiguriert sind. In einigen Unternehmen sind die Berechtigungen zu weit gefasst, wodurch Copilot Zugriff auf sensible Informationen erhält, die eigentlich nur einem begrenzten Personenkreis zugänglich sein sollten.
Microsoft empfiehlt einen dreistufigen Ansatz, um das Problem der Überfreigabe anzugehen:
Phase 1: Pilotphase
In dieser ersten Phase wird Copilot mit einer begrenzten Benutzergruppe getestet. Administratoren identifizieren SharePoint-Websites mit geringerem Sicherheitsrisiko, um das Verhalten der KI in einer kontrollierten Umgebung zu beobachten. Anhand von Berichten werden potenziell überfreigegebene Websites ermittelt und der Zugriff von Copilot entsprechend angepasst.
Phase 2: Bereitstellung
Nach der Pilotphase folgt die unternehmensweite Bereitstellung von Copilot. Der Fokus liegt hier auf der Identifizierung und Begrenzung von Überfreigaberisiken. Administratoren prüfen Zugriffsberechtigungen, entfernen sensible Inhalte aus dem Zugriffsbereich von Copilot und verstärken den Datenschutz durch die Beschränkung des Seitenzugriffs auf bestimmte Teammitglieder.
Phase 3: Betrieb
Im laufenden Betrieb werden regelmäßig Berichte zur Überfreigabe erstellt. Administratoren ergreifen Korrekturmaßnahmen, um potenzielle Risiken zu minimieren. Die Sicherheit sensibler Daten wird durch automatische Kennzeichnung verbessert und die Copilot-Antworten werden optimiert, indem das Datenvolumen reduziert und das Potenzial für Überfreigaben minimiert wird.
Neben dem dreistufigen Plan empfiehlt Microsoft weitere Maßnahmen zur Verbesserung der Datensicherheit:
Nutzung von Microsoft Purview: Dieses Tool bietet erweiterte Funktionen zur Datenklassifizierung, -schutz und -governance. Administratoren können sensible Daten identifizieren, schützen und den Zugriff darauf kontrollieren.
SharePoint Advanced Management (SAM): SAM bietet Funktionen zur Verwaltung des Lebenszyklus von SharePoint-Websites, einschließlich der Identifizierung und Bereinigung inaktiver Websites, die potenzielle Sicherheitsrisiken darstellen.
Schulung der Mitarbeiter: Benutzer sollten für den Umgang mit sensiblen Daten und die korrekte Verwendung von Copilot geschult werden. Ein bewusster Umgang mit Informationen und die Beachtung von Datenschutzrichtlinien sind entscheidend, um Sicherheitsrisiken zu minimieren.
Mit den neuen Richtlinien und Tools bietet Microsoft Unternehmen konkrete Hilfestellungen, um die Sicherheit sensibler Daten im Zusammenhang mit der Nutzung von Copilot zu gewährleisten. Durch die Kombination von proaktiven Maßnahmen, regelmäßiger Überwachung und Mitarbeiterschulungen können Unternehmen die Vorteile von KI-gestützten Tools nutzen und gleichzeitig ihre Daten schützen.
Quellen: - https://www.businessinsider.com/microsoft-copilot-oversharing-problem-fix-customers-2024-11 - https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-blueprint-oversharing - https://learn.microsoft.com/en-us/purview/ai-microsoft-purview-considerations - https://learn.microsoft.com/en-us/purview/ai-microsoft-purview - https://www.syskit.com/blog/microsoft-copilot-real-life-scenarios/ - https://news.microsoft.com/ignite-2024-book-of-news/ - https://www.orchestry.com/insight/copilot-readiness-what-is-oversharing-in-microsoft-365 - https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-e5-guide - https://www.techzine.eu/news/security/126478/too-much-data-shared-with-copilot-microsoft-pulls-the-brake/ - https://learn.microsoft.com/en-us/microsoft-copilot-studio/security-faq