In den letzten Jahren hat die Nutzung von KI-gestützten Codierwerkzeugen in der Softwareentwicklung rasant zugenommen. Trotz der damit verbundenen Vorteile, gibt es auch erhebliche Sicherheitsbedenken, die einige Unternehmen dazu veranlasst haben, die Nutzung solcher Werkzeuge zu verbieten. Eine kürzlich durchgeführte Studie von Checkmarx zeigt jedoch, dass diese Verbote in vielen Fällen ignoriert werden.
Die globale Studie von Checkmarx, einem führenden Anbieter von Cloud-nativer Anwendungssicherheit, enthüllte, dass 99% der Entwicklungsteams KI-Codierwerkzeuge verwenden, obwohl 15% der befragten Unternehmen deren Nutzung ausdrücklich untersagen. Diese Diskrepanz zwischen offiziellen Richtlinien und der tatsächlichen Praxis in den Entwicklungsabteilungen zeigt die Schwierigkeit auf, die Nutzung generativer KI zu kontrollieren.
Ein weiteres bemerkenswertes Ergebnis der Studie ist, dass nur 29% der Unternehmen irgendeine Form von Governance für generative KI-Werkzeuge etabliert haben. In 70% der Fälle gibt es keine zentrale Strategie, und die Kaufentscheidungen werden ad-hoc von einzelnen Abteilungen getroffen.
Die Sicherheitsbedenken nehmen zu, wobei 80% der Befragten besorgt über potenzielle Bedrohungen durch die Nutzung von KI durch Entwickler sind. Insbesondere äußern 60% Bedenken hinsichtlich KI-Problemen wie Halluzinationen. Trotz dieser Sorgen zeigen 47% der Befragten Interesse daran, KI unüberwachte Code-Änderungen vornehmen zu lassen.
Die Ergebnisse von Checkmarx werden durch Berichte von Entwicklern unterstützt, die zeigen, dass viele Mitarbeiter eigene KI-Werkzeuge verwenden, wenn keine von der Firma bereitgestellt werden. Oftmals diskutieren sie diese Nutzung nicht, was die systematische Implementierung von generativer KI in Geschäftsprozesse behindert.
Eine Umfrage von Stack Overflow ergab, dass Entwickler, die KI-Codierwerkzeuge verwenden, diese als zufriedenstellend und einfach zu bedienen empfinden. Die Mehrheit der Befragten (76%) gibt an, dass sie KI-Codierassistenten verwenden oder planen, sie zu verwenden. Diese Werkzeuge tragen dazu bei, die Qualität der Arbeitszeit zu erhöhen, auch wenn sie nicht immer genaue Antworten oder Lösungen für kontextuelle oder sehr spezifische Probleme bieten.
Obwohl die Nutzung von KI-Codierwerkzeugen weit verbreitet ist, gibt es immer noch erhebliche Herausforderungen bei ihrer Integration in bestehende Workflows. Eine der größten Hürden ist das Vertrauen in die Genauigkeit dieser Werkzeuge. Nur 3% der befragten Entwickler vertrauen stark auf die Genauigkeit der von KI generierten Vorschläge, während doppelt so viele (6%) ihnen stark misstrauen.
Die Umgehung von Sicherheitsrichtlinien durch Entwickler, um KI-Werkzeuge zu nutzen, stellt ein erhebliches Risiko dar. Die Studie von Snyk ergab, dass 79,9% der Befragten angaben, Sicherheitsrichtlinien zu umgehen, um KI zu verwenden. Dies erhöht das Risiko, dass unsichere Code-Komponenten in die Produktion gelangen.
Einige Unternehmen versuchen, durch die Automatisierung von Sicherheitsprozessen und die Erhöhung der Anzahl der Sicherheitsscans diesen Risiken zu begegnen. Dennoch bleibt die Automatisierung von Sicherheitsscans in vielen Unternehmen unzureichend, was eine signifikante Sicherheitslücke darstellt.
Die Nutzung von KI in der Softwareentwicklung ist trotz der bestehenden Sicherheitsbedenken weit verbreitet. Die Herausforderungen liegen in der Etablierung wirksamer Governance-Strukturen und in der Sicherstellung, dass die von KI generierten Code-Vorschläge sicher und zuverlässig sind. Unternehmen müssen einen Mittelweg finden, um die Vorteile der KI-Technologie zu nutzen, ohne dabei die Sicherheit zu gefährden.