
asvin labs engagiert sich im Rahmen von zwei Forschungsverbünden in Deutschland und Europa bei der Absicherung von KI in verteilten Systemen. KI spielt eine entscheidende Rolle für die Verkehrssicherheit von morgen. Insbesondere im Bereich des autonomen Fahrens werden zukünftig KI-Systeme in großer Anzahl auf Fahrzeugen (Edge) ausgerollt und in der Cloud betrieben. Die so entstehenden komplexen Anwendungsarchitekturen vergrößern die Angriffsoberfläche für Angreifer enorm. Mit den Ergebnissen aus EdgeAI-Trust lassen sich die Systeme dennoch sicher und effizient betreiben.
Cybersicherheitsexperten von asvin labs arbeiten gemeinsam mit internationalen Forschern und Entwicklern an Lösungen für mehr Sicherheit und Vertrauen für KI-Systeme am Netzwerk-Rand (Edge). Die zu lösenden Herausforderungen sind vielfältig. Es gilt, die Sicherheit eines KI-Systems über die gesamte Lieferkette von Modell-Training, Modell-Verteilung bis zum Betrieb auf einem Fahrzeug sicherzustellen. Nur dadurch ist gewährleistet, dass das Verhalten eines KI-gesteuerten Fahrzeugsystems im Straßenverkehr auf einem definierten Qualitätsstandard erfolgt und dessen Entscheidungen auch im Rahmen der Forensik nachvollziehbar sind.
KI-Sicherheit erfordert Sicherheit über den gesamten Lebenszyklus einer Anwendung
asvin labs konzentriert sich im Forschungs- und Entwicklungsprojekt auf die Nachweisbarkeit der Integrität von KI-Modellen in der Lieferkette. Dabei soll sich der Trainingsstand eines Modells mit dem aktiven Modell auf einem Fahrzeug abgleichen lassen.

„KI-Modelle werden in Zukunft entscheidend das Verhalten eines Fahrzeuges prägen und damit auch die Sicherheit der Verkehrsteilnehmer. Ein KI-Modell ist nicht statisch, es wird sich im Verlauf der Nutzung von Fahrzeugen ändern. Damit ändert sich auch potenziell der Entscheidungsraum und das Verhalten des Modells über die Betriebszeit. Da Fahrzeugsysteme zugleich immer komplexer werden, wird es extrem wichtig, die Änderungen in KI-Modellen und deren Revisionen bei der Steuerung eines Fahrzeuges abgleichen zu können. Nur so werden sich gleichzeitig auch Manipulationen durch Cyberangriffe oder Qualitätsprobleme im Betrieb erkennen lassen“, konstatiert
Rohit Bohara, Forschungsdirektor bei asvin labs
Im Rahmen des Projektes entwickelt asvin Werkzeuge, die es erlauben, die Integrität eines KI-Modells zu erfassen und über seinen Lebenszyklus im Fahrzeug zu verfolgen. Dazu müssen im Trainingsprozess die Metriken einer „Trustworthy AI“ erfasst und kryptografisch unveränderbar als Merkmal ähnlich einem Fingerabdruck gespeichert werden. Dieser Fingerabdruck eines KI-Modells kann dann zu jedem Zeitpunkt mit dem auf einem Fahrzeug installierten Modell verglichen werden. Da der Fingerabdruck kryptografisch gesichert ist, ist ein manipuliertes KI-Modell auf einem Fahrzeug zweifelsfrei erkennbar. Ebenso sichtbar und damit behebbar sind der Zeitpunkt und der Ort, an dem ein Fahrzeug manipuliert wurde, beispielsweise per Austausch durch ein bösartiges KI-Modell.
Lernende und verteilte autonome KI-Systeme im Fokus.
Eine große Herausforderung sind hier insbesondere KI-Modelle für lernende autonome Systeme. Die Modelle bleiben nicht statisch, sondern sie erlernen durch Daten von anderen Fahrzeugen in der Flotte eines Herstellers laufend neue Verkehrssituationen im Fahrzeug und im Schwarm kennen. Integrität muss hier über den Zeitverlauf und im Schwarm von vielen verteilten KI-Systemen gemessen und im kryptografischen Fingerabdruck erfasst werden.

Mirko Ross, CEO bei asvin
Internationales Konsortium für KI-Sicherheit im Software Defined Vehicle (SDV)
KI basierte autonome Systeme im Software Defined Vehicle (SDV) werden mit Edge-AI-Trust die notwendige Transparenz im Lebenszyklus erhalten.
asvin labs arbeitet mit Zulieferern und Forschungseinrichtungen an Edge-AI-Trust.
Finanzierung
Unterstützt wird Edge-AI-Trust durch das deutsche Bundesministerium für Forschung, Technologie und Raumfahrt sowie durch die Europäische Union.
