Suchen

Autonomes Fahren Darum müssen Automobil- & Cyber-Sicherheitshersteller eng zusammenarbeiten

Autor / Redakteur: Hans-Peter Bauer* / Sebastian Human

Autonomes Fahren ist nicht mehr nur Zukunftsmusik. So finden bereits Testfahrten in Hamburg oder aktuell in München statt. Dieser Beitrag zeigt die sicherheitsrelevanten Herausforderungen auf, denen sich die Industrie hierbei stellen muss.

Firmen zum Thema

Wollen Automobilkonzerne die Akzeptanz für das autonome Fahren in der Bevölkerung erhöhen, müssen sie Bedenken hinsichtlich der Cybersecurity ernst nehmen.
Wollen Automobilkonzerne die Akzeptanz für das autonome Fahren in der Bevölkerung erhöhen, müssen sie Bedenken hinsichtlich der Cybersecurity ernst nehmen.
(Bild: gemeinfrei / Unsplash)

Automatisierte Fahrzeugkomponenten haben in Form von Einparkhilfen, Spurenassistenten oder Bremssystemen längst ihren Weg in unsere Autos gefunden. Mittlerweile werden nun auch autonom fahrende Wagen auf deutschen Straßen getestet. Ausgestattet mit modernsten Kameras und Sensoren sammeln integrierte Systeme, die auf künstlicher Intelligenz, konkret Deep Learning (Neuronales Netz) basieren, laufend Verkehrsdaten und werten diese in Echtzeit aus.

So prognostiziert Gartner, dass bis zum Jahr 2023 die Anzahl der Fahrzeuge auf 745.705 Einheiten ansteigen wird, die sich selbständig durch den Verkehr bugsieren – im Jahr 2018 waren es 137.129 Einheiten.
Allerdings stehen viele Menschen dieser Zukunft der Mobilität weiterhin skeptisch gegenüber: Über eine Umfrage konnte Bitkom feststellen, dass sich lediglich acht Prozent vorstellen können, während der gesamten Autofahrt dem KI-System die Kontrolle über das Fahrzeug zu überlassen. 63 Prozent der befragten Deutschen gaben an, sich unter anderem vor dem Eingreifen durch Hacker zu fürchten.

Von technischen Schwachstellen und cyberkriminellen Angriffen

Dieser Angst liegen konkrete Befürchtungen zugrunde: Mithilfe von Adversarial Attacks (feindlicher Attacken) beziehungsweise Model Hacking nutzen Angreifer die Fähigkeiten sowie Schwachstellen der integrierten KI-Algorithmen und -Modelle aus, um das System zu täuschen. Dies kann beispielsweise in einer Fehlklassifizierung von Verkehrsschildern und Markierungen resultieren, was unter Umständen zu einem unerwünschten Effekt im Fahrvorgang führt.

Einerseits können sich Saboteure digitalen Zugang zu Modell-Daten verschaffen und diese innerhalb der KI-Architektur manipulieren. Andererseits kann ein solcher Angriff auch analog erfolgen: Dabei verändern Angreifer systematisch physische Elemente aus dem Straßenverkehr, die während der Fahrt von den integrierten Kameras wahrgenommen werden – wie zum Beispiel Schilder, Markierungen oder andere Gegenstände.

Dabei muss nicht mal die Absicht dahinterstecken, böswillig in den Straßenverkehr eingreifen und KI-Modelle überlisten zu wollen. Graffiti an Straßenschildern gehören zum alltäglichen Verkehrsbild. Ob nun fahrlässig oder vorsätzlich: Die Bilder solcher Manipulationen können zu falschen Ergebnissen und folglich auch falschen Entscheidungen der KI führen.

In einer Zusammenarbeit sind das Advanced Analytic-Team und das Advanced Threat Research-Team von McAfee der Problematik des Model Hackings auf den Grund gegangen: Um herauszufinden, wie die KI-basierte Fahrassistenz eines Wagens umgangen werden kann, klebten die Teams ein Stück Isolierband auf ein Schild, das den Fahrer über die Höchstgeschwindigkeit von 35 m/h informiert. Die KI klassifizierte diese Manipulation jedoch als 85 m/h, was schwerwiegende Folgen haben kann. Die Kamera im technischen Labor hingegen erkannte die 35 m/h.

Autonomes Fahren und Cyber-Sicherheit in Einklang bringen

Die Ergebnisse zeigen, dass die eingesetzte Technologie vornehmlich das tut, wofür sie entwickelt wurde. Doch müssen den Automobil- und Komponentenherstellern diese bedrohlichen Szenarien bewusst sein, damit sie den Sicherheitsaspekt im Rahmen eines Security-by-Design-Konzepts während des gesamten Herstellungsprozesses mit einbeziehen können. Gemäß eines Shared-Responsibility-Ansatzes trägt jede Partei, die sowohl beim Bau als auch der Nutzung von autonomen Fahrzeugen involviert sind, eine gewisse Verantwortung dafür, dass die Sicherheit gegeben ist.

Um Schwachstellen früh genug zu identifizieren, müssen Hersteller eng mit IT-Sicherheitsfirmen und Forschung zusammenarbeiten. Regelmäßige Tests während der Produktion helfen dabei, diese aufzudecken. Hierfür stellen die Entwickler ihr KI-System auf die Probe, indem sie es mit Grenzfällen und Szenarien konfrontiert, für die die Technologie ursprünglich nicht ausgelegt war.

Zum Beispiel kann durch Adversial Training die Fehlklassifizierung von Verkehrsschildern oder Straßenmarkierungen reduziert werden: Entwickler speisen das Modell mit selbst entwickelten, feindlichen Trainingsdatensätze, klassifizieren es jedoch korrekt. Der Algorithmus lernt daraus und kann in der Praxis die richtige Entscheidung treffen. Darüber hinaus müssen Hersteller für den Schutz der Verbindung zwischen Wagen und Cloud sorgen. Die Verantwortung von Nutzern (semi-) autonomer Fahrzeuge liegt vor allem im regelmäßigen Patchen des Systems – zur schnellen Behebung von Schwachstellen, die nach der Veröffentlichung auftauchen.

Fazit

So wie Airbags und Sicherheitsgurte zur Standardsicherheitsausrüstung von Fahrzeugen gehören, so muss für autonomes Fahren der Schutz vor (Cyber-)Angriffen fester Bestandteil des Entwicklungsprozesses werden.
Hierfür ist es unablässig, dass Hersteller, IT-Sicherheitsunternehmen und Forschung eng zusammenarbeiten. Das begünstigt das schnelle Finden und Beheben von Schwachstellen in KI-Modellen, bevor Angreifer diese überlisten können. Erst dann können die Skepsis gegenüber dem autonomen Fahren überwunden und diese Form der Mobilität salonfähig gemacht werden.

* Hans-Peter Bauer arbeitet als Vice President Central Europe bei McAfee.

(ID:46905932)