Suchen

Security

Wie werden sich KI-basierte Angriffe durch Malware entwickeln?

| Autor/ Redakteur: Steve Rymell* / Burkard Müller

Unternehmen weltweit fürchten Angriffe durch Malware. Wie wird sich diese reelle Bedrohung entwickeln, wenn Künstliche Intelligenz (KI) und Machine Learning (ML) dabei eingesetzt werden? Und: Können diese Technologien auch zur Abwehr der Angriffe eingesetzt werden?

Firmen zum Thema

Um schmerzhafte Angriffe und Attacken als Verteidigung geht es beim Thema Malware, das in Zukunft auch von KI und ML bestimmt sein könnte.
Um schmerzhafte Angriffe und Attacken als Verteidigung geht es beim Thema Malware, das in Zukunft auch von KI und ML bestimmt sein könnte.
(Bild: gemeinfrei / Pexels)

Eines der auffälligsten Probleme der Cybersicherheitsbranche ist, dass Angreifer oft in der Lage sind, den Verteidigern scheinbar mühelos einen Schritt voraus zu sein. Die grundsätzlichen Ursachen sind hier meist technischer Natur. Das beste Beispiel sind Software-Schwachstellen, die Cyberkriminelle in der Regel vor Anbietern und ihren Kunden aufdecken. Gegen dieses sogenannte Zero-Day-Phänomen bei vielen bekannten Cyberattacken sind dann selbst die Sicherheitsexperten nahezu machtlos.

Zudem machen Unternehmen, die mit der Komplexität neuer Technologien zu kämpfen haben, Fehler und lassen unbeabsichtigt gefährdete Ports und Services ungeschützt. Ein besonders krasses Beispiel sind hier Tools und Infrastrukturen, die Organisationen eigentlich helfen sollen, sich zu verteidigen. Dazu zählen unter anderem Shodan, aber auch zahlreiche Pen-Test-Tools. Diese können mittlerweile genauso von Angreifern, die in Netzwerke eindringen, gegen Unternehmen eingesetzt werden.

Hinzu kommt, dass moderne Malware derart vielgestaltig auftreten kann, dass Angreifer kaum noch aufhaltbar erscheinen. So betonen selbst Sicherheitsanbieter zunehmend die Notwendigkeit, Angriffe nicht zu blockieren, sondern so schnell wie möglich darauf zu reagieren.

Der KI-Gegenangriff

Vor einigen Jahren gingen einige, meist in den USA ansässige Start-Ups zu einer Art Gegenangriff über: mit einer mutigen neuen Idee – KI-Machine Learning Security durch Algorithmen. Im Zeitalter von Big Data kann dies durchaus sinnvoll sein. Die Idee wurde von allen möglichen Systemen zur Bekämpfung von Spam, Malware-Erkennung, Bedrohungsanalyse und -aufklärung sowie zur Automatisierung des Security Operations Centre (SOC) aufgegriffen, wo sie zur Behebung des Fachkräftemangels eingesetzt wird.

Auch wenn dies durchaus nützliche Fortschritte sind, von vielen wird dieser Ansatz als ultimatives Beispiel für Technologie als "Black Box" bezeichnet, die niemand wirklich versteht. Woher wissen wir, dass Machine Learning in der Lage ist, neue und unbekannte Angriffstypen zu erkennen, die herkömmliche Systeme nicht erkennen? Nur weil die Produktbroschüre dies sagt?

Weiterhin stellt sich die Frage: Was sollte Angreifer davon abhalten, das defensive Machine Learning (ML) mit einem noch besseren ML zu überlisten? Wenn dies auch nur in wenigen Fällen möglich wäre, steht man wieder komplett am Anfang. Das ist natürlich reine Spekulation, denn bisher konnte kein Einsatz von Künstlicher Intelligenz in einem Cyberangriff nachgewiesen werden. Unser Verständnis davon, wie es funktionieren könnte, basiert bislang weitgehend auf akademischer Forschung wie IBMs Proof-of-Concept DeepLocker malware project.

Mögliche Szenarios bösartigen Machine Learnings

Diese Bedrohungs-Potentiale sollte man rechtzeitig in den Blick nehmen. Angreifer sind darauf angewiesen, schnell erkennen zu können, was funktioniert, beispielsweise beim Versenden von Spam, Phishing und zunehmend auch politischer Desinformation. Es ist vorstellbar, dass Big Data mit Unterstützung durch ML die Effizienz dieser Bedrohungen massiv steigern könnte, indem analysiert wird, wie die Ziele darauf reagieren und dies in Echtzeit geteilt wird. Dies impliziert die Möglichkeit, dass solche Kampagnen in nicht allzu ferner Zukunft in wenigen Stunden oder Minuten weiterentwickelt werden könnten. Das zeitnahe Bekämpfen mit heutigen Technologien würde dann extrem schwer werden.

Ein zweites denkbares Szenario wäre, dass Cyberkriminelle die Schutzmaßnahmen eines Ziels mit eigenem ML simulieren könnten, um die Erfolgsaussichten verschiedener Angriffe zu messen. Dies ist eine Technik, die bereits routinemäßig zur Umgehung von Antivirenprogrammen eingesetzt wird. Auch hier wird der Vorteil genutzt, dass Angreifer immer das Ziel im Blick haben, während sich Verteidiger auf Schätzungen verlassen müssen.

Und höchstwahrscheinlich könnte Machine Learning auch einfach dazu verwendet werden, weit größere Mengen an neuer und individueller Malware zu generieren, als es heute möglich ist. Welcher dieser Ansätze auch immer gewählt wird – und dies sind nur Beispiele für die Möglichkeiten – deutlich wird, wie unangenehm es wäre, sich gegen selbst relativ einfache ML-basierte Angriffe zu wehren. Der einzige Trost wäre dann, dass, wenn ML-basierte KI wirklich eine Black Box ist, die niemand versteht, auch Angreifer sie logischerweise nicht verstehen und Zeit mit Experimenten verschwenden werden.

Unbeabsichtigte Folgen durch den Black Box-Effekt

Trotzdem sollten wir uns gerade deswegen in Acht nehmen vor diesem Blackbox-Effekt. Zum einen gibt es bei ML-basierter Malware die Gefahr, dass sie Ungewolltes bewirkt, insbesondere beim Angriff auf kritische Infrastrukturen. Dieses Phänomen ist bereits bei Nicht-KI-Malware aufgetreten. Stuxnet im Jahr 2010 und NotPetya im Jahr 2017 sind die offensichtlichen Beispiele. Die beiden genannten hatten Tausende von Organisationen infiziert, die nicht auf ihrer ursprünglichen Zielliste standen, nachdem sie sich unkontrolliert verbreitet hatten. Wenn Malware gleich mehrere Zero Day Exploits nutzt, gibt es kaum eine Chance darauf, sie wirksam einzugrenzen. Nach der Veröffentlichung bleibt diese Art von Malware pathogen gefährlich, bis jedes System, das sie infizieren könnte, gepatcht oder offline genommen wird, was Jahre oder Jahrzehnte dauern kann.

Da Fachwissen zum Verständnis von Machine Learning bislang sehr rar ist, besteht zudem die Gefahr, dass sich Sicherheitsexperten darauf verlassen, ohne dessen Grenzen vollständig zu verstehen. Dies betrifft sowohl die Verteidigungsmöglichkeiten als auch eine Überschätzung seiner Angriffspotentiale. Das könnte dazu führen, dass zu viel an falscher Stelle investiert wird und Marketingversprechen geglaubt wird, die am Ende Ressourcen verbrauchen, die besser an anderer Stelle eingesetzt werden könnten. Eine realistischere Bewertung könnte ML dagegen als weiteres Werkzeug einstufen, das gut darin ist, bestimmte sehr spezifische Probleme zu lösen.

Worauf kommt es in Zukunft an?

Die widersprüchlich klingende Schlussfolgerung ist, dass ML und KI vielleicht überhaupt keinen grundlegenden Unterschied machen. Sie stellen lediglich eine weitere Station in der Entwicklung der Computersicherheit seit Beginn der digitalen Zeitrechnung dar. Hier müssen Vorurteile abgebaut werden, was diese bewirken können. Vor allem müssen wir die Tendenz überwinden, ML und KI als geheimnisvoll „anders“ zu betrachten, weil wir sie nicht verstehen und es daher schwierig finden, das Konzept von Maschinen, die komplexe Entscheidungen treffen, zu akzeptieren.

Auch mit der heutigen Pre-ML-Technologie sind Angreifer bereits in der Lage, tief in Netzwerke einzudringen. Auch heute werden sie dabei bereits von gut vorbereiteten Verteidigern regelmäßig mit der gleichen Technologie aufgehalten. Woran KI uns erinnert, ist, dass es letztendlich darauf ankommt, wie Organisationen verteidigt werden, nicht ob sie oder ihre Angreifer ML und KI verwenden oder nicht.

*Steve Rymell ist Leiter Technologie bei Airbus CyberSecurity.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 45960100)