KI-gestütztes, selbstfahrendes Auto

asvin labs engagiert sich im Rahmen von zwei Forschungsverbünden in Deutschland und Europa bei der Absicherung von KI in verteilten Systemen.
KI spielt eine entscheidende Rolle für die Verkehrssicherheit von morgen. Insbesondere im Bereich des autonomen Fahrens werden zukünftig KI-Systeme in großer Zahl auf Fahrzeugen (Edge) ausgerollt und in der Cloud betrieben. Die so entstehenden komplexen Anwendungsarchitekturen vergrößern die Angriffsoberfläche für Angreifer enorm. Mit den Ergebnisse aus EdgeAI-Trust lassen sich die Systeme sicher und effizient betreiben.

Cyber-Sicherheitsexperten in den asvin labs arbeiten gemeinsam mit internationalen Forschern und Entwicklern an Lösungen für mehr Sicherheit und Vertrauen für KI-Systeme am Netzwerk-Rand (Edge). Die zu lösenden Herausforderungen sind vielfältig. Es gilt, die Sicherheit eines KI-Systems über die gesamte Lieferkette von Modell-Training, Modell-Verteilung bis zum Betrieb auf einem Fahrzeug sicherzustellen. Nur dadurch ist gewährleistet, dass das Verhalten eines KI-gesteuerten Fahrzeugsystems im Straßenverkehr auf einem definierten Qualitätsstandard erfolgt und dessen Entscheidungen auch im Rahmen einer Forensik nachvollziehbar sind. 

KI-Sicherheit erfordert Sicherheit über den gesamten Lebenszyklus einer Anwendung

asvin labs konzentriert sich im Forschungs- und Entwicklungsprojekt auf die Nachweisbarkeit der Integrität von KI-Modellen in der Lieferkette. Dabei soll sich der Trainingszustand eines Modells mit dem aktiven Modell auf einen Fahrzeug abgleichen lassen.

Rohit Bohara

KI-Modelle werden in Zukunft entscheidend das Verhalten eines Fahrzeugs prägen und damit auch die Sicherheit der Verkehrsteilnehmer. Ein KI-Modell ist nicht statisch, es wird sich im Verlauf der Nutzung von Fahrzeugen ändern. Damit ändert sich auch potenziell der Entscheidungsraum und das Verhalten des Modells über die Betriebszeit. Da Fahrzeugsysteme zugleich immer komplexer werden, wird es extrem wichtig, die Änderungen in KI-Modellen und deren Revisionen bei der Steuerung eines Fahrzeugs abgleichen zu können. Nur so werden sich gleichzeitig auch Manipulationen durch Cyberangriffe oder Qualitätsprobleme im Betrieb erkennen lassen.

Rohit Bohara, Forschungsdirektor bei asvin labs

Im Rahmen des Projekts entwickelt asvin Werkzeuge, die es erlauben, die Integrität eines KI-Modells zu erfassen und über seinen Lebenszyklus im Fahrzeug zu verfolgen. Dazu müssen im Trainingsprozess die Metriken einer ‘trustworthy AI’ erfasst und kryptographisch unveränderbar als Merkmal ähnlich einem Fingerabdruck gespeichert werden. Dieser Fingerabdruck eines KI-Modells kann dann zu jedem Zeitpunkt mit dem auf einem Fahrzeug installierten Modell verglichen werden. Da der Fingerabdruck kryptografisch gesichert ist, ist ein manipuliertes KI-Modell in einem Fahrzeug zweifelsfrei erkennbar. Ebenso sichtbar und damit behebbar sind der Zeitpunkt und der Ort, an dem ein Fahrzeug manipuliert wurde, beispielsweise per Austausch durch ein bösartiges KI-Modell. 

Lernende und verteilte autonome KI-Systeme im Fokus

Eine große Herausforderung sind hier insbesondere KI-Modelle für lernende autonome Systeme. Die Modelle bleiben nicht statisch, sondern sie erlernen durch Daten von anderen Fahrzeugen in der Flotte eines Herstellers laufend neue Verkehrssituationen im Fahrzeug und im Schwarm kennen. Integrität muss hier über den Zeitverlauf und im Schwarm von vielen verteilten KI-Systemen gemessen und im kryptografischen Fingerabdruck erfasst werden.

Mirko Ross

“Mit Edge AI Trust entwickeln wir ein System, das insbesondere für die forensische Analyse von autonomen Systemen einen Mehrwert liefern wird. Mit Hilfe von kryptografischer Containern wird es möglich, verlässliche Werte zum vertrauenswürdigen Systemverhalten zu erhalten. Diese Werte können dann im Test mit dem zu untersuchenden System abgeglichen werden. Es lassen sich so Abweichungen identifizieren und Art sowie Zeitpunkt einer Manipulation feststellen. Damit ergeben sich neue Möglichkeiten bei der Qualitätssicherung, und zwar sowohl für Fahrzeughersteller und Zulieferer als auch für technische Dienste und Behörden bei Prüfverfahren.”

Mirko Ross, CEO bei asvin

Internationales Konsortium für KI-Sicherheit im Software-Defined Vehicle (SDV).

KI-basierte autonome Systeme in Software-definied Vehicle (SDV) werden mit Edge-AI-Trust die notwendige Transparenz in ihrem Lebenszyklus erhalten.

asvin labs arbeitet im Edge-AI-Trust mit Zulieferern und Forschungseinrichtungen zusammen, unter anderem:

KI

FORSCHUNGSPARTNER

  • asvin GmbH

  • Deutsches Zentrum für Luft- und Raumfahrt e.V.

  • Siemens industry software nv

  • TTTech Auto Germany GmbH

  • 40 weitere tolle Partner

Finanzierung

Unterstützt wird Edge-AI-Trust durch das Bundesministerium für Forschung, Technologie und Raumfahrt sowie durch die Europäischen Union.

BMBF Logo

asvin Lab

Innovative Cybersecurity für morgen

Bei asvin labs erweitern wir die Grenzen der Cybersicherheits-forschung, um bahnbrechende Lösungen für widerstands-fähige und sichere Infrastrukturen zu entwickeln.