Expertenbeitrag

Dipl.-Phys. Oliver Schonschek

Dipl.-Phys. Oliver Schonschek

IT-Fachjournalist, News Analyst und Commentator bei Insider Research, Oliver Schonschek, News-Analyst

Künstliche Intelligenz als Tool für Hacker Die Dunkle Seite: KI als Angriffswerkzeug

Autor / Redakteur: Dipl.-Phys. Oliver Schonschek / Nico Litzel

Mit Künstlicher Intelligenz (KI) kann man die IT-Sicherheit dabei unterstützen, Angriffe früher und besser zu erkennen. Doch könnte KI auch für die andere Seite arbeiten, für den Angreifer? Wenn ja, was ist zu tun?

Anbieter zum Thema

Können Hacker KI für sich nutzen?
Können Hacker KI für sich nutzen?
(Bild: gemeinfrei / Pixabay / CC0 )

Künstliche Intelligenz ist einer der Technologie-Trends und beeinflusst die ganze Digitalisierung. Anwendungen reichen von Chatbots im Kundenservice über automatisierte Beratung von Bankkunden bis hin zur Unterstützung von Security-Analysten im Kampf gegen Cybercrime. Kritiker warnen davor, dass es eine negative Seite gebe und denken dabei an den möglichen Verlust von Arbeitsplätzen, während die Befürworter von KI unterstreichen, dass diese Lösungen die Möglichkeiten des Menschen erweitern und ergänzen sollen.

Eines muss jedoch ganz klar sein: Künstliche Intelligenz an sich ist wie jede Technologie weder gut noch schlecht, entscheidend ist, was man damit macht. Deshalb sollte man auch nicht nur an die positiven Möglichkeiten denken, die KI-Lösungen zum Beispiel für die IT-Sicherheit bringen können. Man muss auch daran denken, dass Künstliche Intelligenz für die dunkle Seite, für die Internetkriminellen eingesetzt werden könnte.

Angriffswerkzeuge mit KI – für Nachrichtendienste durchaus denkbar

Spricht man mit Anbietern aus dem Bereich KI und stellt die Frage nach der möglichen dunklen Seite in der IT-Sicherheit, so ist das wesentliche Argument, dass Internetkriminelle solch aufwendige Systeme wie die führenden KI-Lösungen nicht selbst aufbauen und sich leisten könnten. Das mag bis auf weiteres so sein. Nicht vergessen werden sollte aber, dass Angriffe nicht nur von Internetkriminellen ausgehen, sondern auch von Staaten und Nachrichtendiensten. Dort kann man davon ausgehen, dass die Ressourcen vorhanden sind, um KI-Lösungen zu Angriffszwecken einzusetzen.

Dabei könnten KI-Lösungen eine ganze Reihe von Funktionen übernehmen, die staatlichen Angreifern helfen:

  • Analyse und Vorhersage von Schwachstellen,
  • Entwicklung von Malware, die sich besser vor KI-unterstützten Security-Lösungen verstecken kann (selbstlernende Schadsoftware),
  • Suche nach geeigneten Angriffszielen und Empfehlung von Angriffsstrategien,
  • Entwicklung von möglichst erfolgreichen Phishing-Attacken, indem die Opfer weitaus besser als heute analysiert und ihr Verhalten vorhergesagt wird und
  • kurz gesagt, die Umkehrung der Funktionen, die KI-Lösungen erbringen können, um die IT-Sicherheit zu verbessern.

KI-Nutzung nicht ohne jede Kontrolle

Man muss noch nicht einmal so weit gehen und sagen, KI-Lösungen könnten selbst bösartig werden und angreifen, weshalb es immer einen „Kill Switch“ geben müsse, um KI-Systeme im Notfall abschalten zu können. Abgesehen davon, dass Angreifer natürlich versuchen würden, den „Kill Switch“ von KI-Abwehrsystemen zu missbrauchen, reichen die Risiken durch KI bereits, wenn sie die „Möglichkeiten der Angreifer erweitern und ergänzen“, genau wie KI-Lösungen die „Möglichkeiten der Abwehr erweitern und ergänzen können“.

Grundsätzlich müssen KI-Systeme immer so betrachtet und bewertet werden, dass sie für gute, aber auch für böse Zwecke genutzt werden könnten. Das beginnt damit, dass KI-Systeme die Nutzeranalyse so weit optimieren könnten, dass Nutzer noch gläserner werden als bisher schon (Risiko für den Datenschutz).

Das geht aber auch so weit, dass KI-Lösungen die Abwehr aushebeln und den Angreifer stärken könnten (Risiko für die IT-Sicherheit). Es ist deshalb wichtig, auch in der Startphase der KI-Erkundung und -Nutzung, in der wir uns jetzt befinden, an die Kontrolle zu denken, also nicht jedem unbeschränkt Zugang zu KI-Lösungen zu gewähren, sondern durchaus auch zu hinterfragen, welche Zwecke eine neue KI-Lösung verfolgen soll. Das ist schwierig, denn es geht um Forschung und Entwicklung, doch die Vergabe von Zugängen zu KI-Systemen sollte in Zukunft genauso überprüft werden, wie es heute bereits bei Forschungsgeldern oder Experimentierzeiten an großen Forschungsanlagen der Fall ist. KI-Nutzung wird Kontrolle brauchen, nicht erst in Zukunft.

(ID:44678206)