Künstliche Intelligenz Fünf Kriterien für eine sichere KI

Redakteur: Alina Hailer

Künstliche Intelligenz wird in der industriellen Fertigung bisher wenig genutzt, da ihre Zuverlässigkeit nur schwer prüfbar ist. Das Fraunhofer IPA hat dafür jetzt fünf Kriterien konzipiert.

Firmen zum Thema

Die Forschung hinsichtlich der Künstlichen Intelligenz ist weit fortgeschritten, sie findet jedoch nur wenig Einsatz in sicherheitskritischen Anwendungen.
Die Forschung hinsichtlich der Künstlichen Intelligenz ist weit fortgeschritten, sie findet jedoch nur wenig Einsatz in sicherheitskritischen Anwendungen.
(Bild: gemeinfrei / Pixabay )

Das Team des Fraunhofer-Instituts für Produktionstechnik und Automatisierung (IPA) hat in einem Whitepaper fünf Kriterien vorgeschlagen, durch die Künstliche Intelligenz (KI) sicherer und zuverlässiger werden soll.

KI in der Industrie nur zögerlich im Einsatz

Doch warum braucht es mehr Zuverlässigkeit? Der Einsatz von KI bietet der Industrie einige Vorteile. Die Produktion könnte flexibilisiert werden, Wartungen vorausschauend geplant, der Warenfluss optimiert oder Logistik und Qualitätskontrolle automatisiert werden. In den letzten Jahren wurden zahlreiche KI-Algorithmen und -Architekturen entwickelt – sie werden allerdings nur zögerlich in der Industrie eingesetzt. Das Problem: Sie gelten als „nicht zuverlässig genug für sicherheitskritische Anwendungen“, erklärt Xinyang Wu, wissenschaftlicher Mitarbeiter des Fraunhofer Instituts.

Unternehmen wollen autonome und selbstlernende Roboter nur dann einsetzten, wenn diese absolut zuverlässig arbeiten und mit hundertprozentiger Sicherheit keine Gefahr für den Menschen darstellen. Genau das lässt sich bisher jedoch nicht beweisen. Es gibt weder Normen noch standardisierte Tests. Diese wären jedoch dringend nötig. Um die Anwendung von Künstlicher Intelligenz nachvollziehbar und zuverlässig zu gestalten, werden einheitliche Normen und Zertifizierungen benötigt.

Kriterien-Katalog für mehr Sicherheit

Um die Zuverlässigkeit von Maschinellem Lernen und der dazugehörigen KI zu bewerten, haben die Wissenschaftler des Instituts nun fünf Kriterien konzipiert, mithilfe derer KI-Systeme hinsichtlich ihrer Sicherheit überprüft werden können:

  • 1. Alle Entscheidungen der Algorithmen müssen für Menschen verständlich sein.
  • 2. Die Funktion der Algorithmen muss vor ihrem Einsatz mit Methoden der Formalen Verifikation geprüft werden.
  • 3. Statistische Validierung: Ist die Formale Verifikation nicht für den bestimmten Anwendungsfall gegeben, muss anhand von Testläufen eine statistische Validierung durchgeführt werden.
  • 4. Unsicherheiten, die den Entscheidungen von neuronalen Netzen zu Grunde liegen, müssen ermittelt und quantifiziert werden.
  • 5. Überprüfung während dem Betrieb: Dies kann mithilfe von Online-Monitoring und der simultanen Erfassung von Sensordaten durchgeführt werden

Laut Xinyang Wu könnten diese Kriterien künftig die Grundlage für eine standardisierte Prüfung bilden.

Whitepaper: Zuverlässige KI

Die Strategie zur Zertifizierbarkeit von Künstlicher Intelligenz wurde im Whitepaper „Zuverlässige KI - KI in sicherheitskritischen industriellen Anwendungen einsetzen“ veröffentlicht. Innerhalb der Publikation wird außerdem über den Stand der entsprechenden Technik berichtet.

Zum White-Paper

Transparenz der KI

Die zweite Grundvoraussetzung für einen sicheren Einsatz der KI-Systeme ist deren Transparenz. Diese gilt laut der Europäischen Kommission als einer der Schlüsselelemente für die Realisierung einer vertrauenswürdigen KI. Sie bezieht sich ausschließlich auf die Interaktion mit dem Menschen in der systematischen Ebene. Hierbei werden drei Punkte genannt, die laut der „High-Level Expert Group of Artificial Intelligence“ von der KI erfüllt sein müssen:

  • 1. Entscheidungen den Algorithmen müssen nachvollziehbar sein
  • 2. Die Entscheidungen müssen vom Menschen auf umfassender Ebene erklärbar sein
  • 3. KI-Systeme müssen mit dem Menschen hinsichtlich ihrer Fähigkeiten und deren Grenzen kommunizieren können

Mithilfe des Kriterien-Katalogs und der Voraussetzungen für Transparenz könnte so in Zukunft die Lücke zwischen der Forschung und der Anwendung der KI geschlossen werden.

(ID:47368939)