Cybersicherheit verändert sich: Wenn KI sowohl Angriffs- als auch Verteidigungsfähigkeiten erweitert
Seit Jahren wird künstliche Intelligenz als Werkzeug zur Stärkung der Cybersicherheit positioniert. Sie erkennt Anomalien, filtert Spam und hilft Analyst*innen, schneller zu reagieren. Doch es findet ein Wandel statt. Dieselben Technologien, insbesondere grosse Sprachmodelle, werden heute genutzt, um Angriffe zu skalieren und zu automatisieren. Inzwischen sind sie auch in der Lage, Schwachstellen in Softwarecode zu identifizieren. Das verändert nicht nur die Geschwindigkeit von Bedrohungen, sondern auch ihre Art.
Was passiert
Cyberangriffe werden zunehmend automatisiert, adaptiv und überzeugend. Grosse Sprachmodelle können hochgradig personalisierte Phishing-E-Mails in mehreren Sprachen erstellen, ohne die typischen Anzeichen von Betrug. Sie können Schreibstile imitieren, gestohlene Daten zusammenfassen oder beim Schreiben von Schadcode helfen.
Eine neuere Entwicklung ist, dass diese Modelle auch Code analysieren und Schwachstellen identifizieren können. So warnte Anthropic, dass ihr neuestes Modell in der Lage ist, Zero-Day-Schwachstellen in wichtiger Software zu erkennen und auszunutzen. Was früher spezialisiertes Fachwissen in sicherer Softwareentwicklung oder Penetrationstests erforderte, kann heute teilweise automatisiert werden.
Gleichzeitig benötigen Angreifer kein tiefes technisches Fachwissen mehr. KI-basierte Tools senken die Einstiegshürde. Eine kleine Gruppe oder sogar eine einzelne Person kann Kampagnen orchestrieren, für die früher ganze Teams nötig waren.
Das ist nicht völlig neu. Automatisierung spielte in der Cybersicherheit schon immer eine Rolle. Neu ist die Kombination aus Skalierbarkeit und Zugänglichkeit. KI-Systeme können schnell iterieren, Varianten testen und sich basierend auf Reaktionen anpassen. Angriffe werden so eher zu kontinuierlichen Experimenten als zu einmaligen Versuchen.
Auch die Verteidigungsseite nutzt KI. Sicherheitsteams setzen auf Machine Learning, um ungewöhnliche Muster zu erkennen, Warnmeldungen zu priorisieren und zunehmend auch den eigenen Code auf Schwachstellen zu prüfen. Doch die Asymmetrie nimmt zu. Angreifer können sich oft schneller bewegen, als Organisationen sich anpassen können, insbesondere wenn beiden Seiten dieselben Werkzeuge zur Verfügung stehen.
Warum das relevant ist
Die Fähigkeit von KI, Schwachstellen im Code zu finden, schafft eine neue Risikodimension. Software-Schwächen können schneller, in grossem Umfang und teilweise entdeckt werden, bevor Organisationen überhaupt davon wissen. Das verkürzt das Zeitfenster zwischen dem Entstehen einer Schwachstelle und ihrer Ausnutzung.
Auch das Vertrauen verändert sich. Wenn Phishing-E-Mails nicht mehr leicht zu erkennen sind und Software selbst KI-erkannte Schwachstellen enthalten kann, bewegen sich Mitarbeitende und Nutzer*innen in einem unsichereren Umfeld. Eine gut formulierte Nachricht, die sich auf reale Projekte oder einen Kollegen bezieht, kann selbst vorsichtiges Verhalten umgehen, besonders in Kombination mit technischen Angriffen.
Die Produktivität kann auch betroffen sein: Sicherheitsteams kämpfen bereits heute mit einer Flut an Warnmeldungen. KI-gestützte Angriffe erzeugen mehr Signale, mehr Varianten und mehr falsche Spuren. Gleichzeitig können KI-generierte Berichte zu Schwachstellen Teams mit Ergebnissen überfluten, die priorisiert und überprüft werden müssen.
Was das für dich bedeutet
Für Organisationen bedeutet das, dass Cybersicherheit weniger denn je nur ein technisches Thema ist. Entwicklung, Kommunikation und Sicherheit rücken noch näher zusammen. Wenn KI Schwachstellen im Code erkennen kann, werden sichere Entwicklungspraktiken und regelmässige Code-Reviews noch wichtiger.
Führungsteams müssen Risiken einschätzen, die schwieriger zu quantifizieren sind, weil sie sich schnell verändern. Die Frage ist nicht mehr nur, ob Systeme heute sicher sind, sondern wie schnell neue Schwachstellen entdeckt und ausgenutzt werden könnten.
Für Kommunikation und Wissensvermittlung besteht die Herausforderung darin, diese Veränderungen zu erklären, ohne Angst zu erzeugen. Es geht nicht darum zu sagen, dass alles unsicher ist, sondern zu zeigen, dass sich die Kriterien für Vertrauen verschoben haben. Dieses Verständnis ist ein erster Schritt zu einem verantwortungsvollen Umgang.
Was du als Nächstes tun kannst
Integriere KI in sichere Entwicklungspraktiken. Nutze sie, um Code zu prüfen, Schwachstellen zu identifizieren und Entwickler*innen zu unterstützen, kombiniere dies jedoch mit menschlicher Überprüfung und klarer Priorisierung. Nicht jede erkannte Schwachstelle ist gleich kritisch.
Investiere in gezielte Sensibilisierung. Allgemeine Phishing-Schulungen reichen nicht mehr aus. Nutze Beispiele, die aktuelle Fähigkeiten widerspiegeln, etwa gut formulierte, kontextreiche Nachrichten oder realistische technische Szenarien.
Für die Führung gilt: Integriere KI-Risiken in übergeordnete Entscheidungsprozesse (siehe auch unseren Artikel zu KI Audits). Das betrifft Beschaffung, Partnerschaften und Kommunikationsstrategien. Stelle nicht nur die Frage, wie KI die Effizienz steigern kann, sondern auch, welche neuen Schwachstellen dadurch entstehen könnten.
Baue schliesslich ein grundlegendes Verständnis dafür auf, wie diese Systeme funktionieren. Du brauchst kein tiefes technisches Fachwissen, aber ein klares mentales Modell hilft. Zu wissen, dass KI Code generieren, analysieren und teilweise auch ausnutzen kann, ist bereits eine hilfreiche Perspektive bei der Bewertung von Risiken.
Wenn dieses Thema für deine Organisation relevant ist, erfahre mehr über unsere Executive Beratung zum Thema KI und praxisnahen Workshops zum Aufbau interner Kompetenzen.