Microsoft 365 Copilot im Kreuzfeuer Sicherheitsbedenken gegenüber KI-Assistenten

Kategorien:
No items found.
Freigegeben:

In der Welt der Technik und Künstlichen Intelligenz (KI) schreiten Entwicklungen mit enormer Geschwindigkeit voran. Microsoft, als einer der führenden Konzerne in diesem Bereich, hat mit der Einführung von Microsoft 365 Copilot und dem darauf aufbauenden Copilot Designer im Bereich der KI-gesteuerten Assistenten für Aufsehen gesorgt. Copilot, der auf der KI-Technologie von OpenAI basiert, verspricht, die tägliche Arbeit im Büro durch intelligente Vorschläge und Automatisierungen zu revolutionieren. Doch nicht alle Entwicklungen werden im Unternehmen selbst als unbedenklich eingestuft.

Shane Jones, ein Mitarbeiter von Microsoft, spezialisiert auf KI, hat in jüngster Zeit Bedenken hinsichtlich der Sicherheit des Copilot Designers geäußert. Seine Befürchtungen beziehen sich auf das Potenzial des Tools, Inhalte zu erzeugen, die als schädlich angesehen werden könnten. Zu diesen Inhalten zählen beispielsweise die Darstellung von Gewalt, diskriminierende Bilder und das Erscheinen urheberrechtlich geschützter Charaktere in unangemessenen Kontexten. Jones hat in eigenen Tests festgestellt, dass das Tool unter Umständen dazu fähig ist, verstörende Inhalte wie Dämonen und Monster zu generieren, die mit sensiblen Themen wie Abtreibungsrechte oder Jugendliche mit Waffen verknüpft werden können.

Seine Versuche, das Tool intern offline nehmen zu lassen, fanden seit Dezember kein Gehör. Trotz der internen Anerkennung der Problematik wurde der Copilot Designer nicht deaktiviert. In einem LinkedIn-Beitrag, der mittlerweile gelöscht wurde, appellierte Jones sogar an OpenAI, das Modell DALL-E, welches die Basis für Copilot Designer bildet, vom Netz zu nehmen. Seine Forderung nach einer temporären Sperrung des Tools für die Öffentlichkeit, bis verbesserte Sicherheitsvorkehrungen implementiert werden können, wurde von Microsoft bislang nicht umgesetzt.

Jones schlug als Übergangslösung vor, einen Hinweis einzublenden, der Nutzer darauf aufmerksam macht, dass das Tool potenziell anstößige Inhalte generieren kann. Des Weiteren sollte die Android-App im Play Store mit einer Altersfreigabe von 18+ versehen werden, um jüngere Nutzergruppen zu schützen. Für die iOS-Version der Copilot-App wurde bereits eine Freigabe ab 17 Jahren erteilt.

Die Bedenken von Jones sind kein Einzelfall, auch andere Stimmen haben sich zu den Risiken von KI-generierten Bildern geäußert. Die Diskussion um die Sicherheit von KI-Tools und die damit einhergehende Verantwortung der Entwickler und Anbieter solcher Technologien ist in vollem Gange. Es gilt, einen Weg zu finden, der die Innovationskraft der KI nutzt, ohne dabei ethische und rechtliche Grenzen zu übergehen.

Die Frage, ob Microsoft den Copilot Designer offline nehmen sollte, bleibt offen und unterliegt einer komplexen Abwägung zwischen technologischem Fortschritt und gesellschaftlicher Verantwortung. Sicher ist, dass der Umgang mit dieser Thematik eine transparente Kommunikation und das Bewusstsein für die möglichen Auswirkungen der KI auf die Gesellschaft erfordert.

Quellen:
- Microsoft Support. (2023). Häufig gestellte Fragen: KI, Microsoft Copilot und Microsoft Designer. Abgerufen am 25. Januar 2024, von https://support.microsoft.com/de-de/topic/h%C3%A4ufig-gestellte-fragen-ki-microsoft-copilot-und-microsoft-designer-987b275d-f6f2-4d5d-94c5-e927cffae705
- YouTube. (2023). Introducing Microsoft 365 Copilot | Your Copilot for Work. Abgerufen am 25. Januar 2024, von https://www.youtube.com/watch?v=ToZNEcntaaw
- LinkedIn. (2023). Beiträge von Gregory Juillerat. Abgerufen am 25. Januar 2024, von https://de.linkedin.com/posts/gregory-juillerat_introducing-microsoft-365-copilot-your-activity-7130793460713824258-FX55
- Stadt Bremerhaven. (2023). Nikon übernimmt RED Cameras. Abgerufen am 7. März 2024, von https://stadt-bremerhaven.de/nikon-uebernimmt-red-cameras/

Was bedeutet das?
No items found.