Stuttgart, 20. Januar 2025 – Mit dem internationalen Innovationsprojekt „EdgeAI-Trust“ setzt asvin neue Maßstäbe bei der Entwicklung sicherer und vertrauenswürdiger KI-Lösungen für vernetzte autonome Systeme. Bei Edge-Anwendungen handelt es sich um Applikationen, die direkt am Rand des Netzwerks oder in der Nähe von Datenquellen wie Sensoren oder IoT-Geräten ausgeführt werden. Echtzeitzugriffe auf zentrale Cloud-Infrastrukturen werden damit vermeidbar. Dies ist beispielsweise bei Anwendungen mit hohen Anforderungen an niedrige Ladezeiten und autonomen Funktionen mit eingeschränkter Internet-Anbindung notwendig. Beispiele dazu betreffen das autonome Fahren, Drohnen und Industrieanlagen.
EdgeAI-Trust ist ein von der Europäischen Union mit rund 41 Millionen Euro gefördertes Projekt. Es vereint 53 Partner aus 13 Ländern, darunter neben asvin führende Unternehmen wie Infineon, Nvidia und das Deutsche Zentrum für Luft- und Raumfahrt. Ziel ist es, eine robuste Architektur für künstliche Intelligenz (KI) für Edge-Anwendungen zu schaffen, die Sicherheit, Zuverlässigkeit, Datenschutz und Energieeffizienz vereint.
KI am Edge: Die nächste Generation der KI
Edge-KI erforscht und entwickelt Lösungen für den Einsatz von KI-Algorithmen direkt auf lokalen Geräten und Sensoren – ohne ressourcenintensive Abhängigkeit von Cloud-Infrastrukturen. Diese Technologie ermöglicht die Echtzeitverarbeitung von Daten „vor Ort“. Sie findet Anwendung in sicherheits- und prozesskritischen Bereichen wie autonomem Fahren, Industrie 4.0 oder personalisierter Medizin. Dabei steht Edge-KI vor der Herausforderung, in hochdynamischen Umgebungen zuverlässig zu funktionieren und gleichzeitig Sicherheitsrisiken, beispielsweise durch Fehlentscheidungen der KI, zu minimieren.
asvins Beitrag zum Projekt EdgeAI-Trust
Im Rahmen des Projekts konzentriert sich asvin auf die Entwicklung von Mechanismen zur Plausibilitätsprüfung, zur Überwachung von Entscheidungen sowie für das Erkennen von Anomalien bei Anwendungen der KI. Als ein Ergebnis des Projektes soll eine Sicherheitsarchitektur bereitgestellt werden, die Fehlertoleranzen im Kontext der Anwendung berücksichtigt und durch Korrekturmechanismen die Zuverlässigkeit des mit KI augmentierten Systems erhöht. Dabei müssen zudem Faktoren wir Energieeffizienz und Cybersicherheit in der Architektur berücksichtigt werden.
„Mit EdgeAI-Trust schaffen wir eine Grundlage für die Entwicklung und Implementierung von vertrauenswürdige KI-Lösungen, die nicht nur sicher sind, sondern auch den teilweise extremen Anforderungen an Systemsicherheit, niedrigen Ladezeiten und Energieverbrauch am Edge gerecht werden“, erklärt Mirko Ross, CEO von asvin. „Unser Fokus liegt darauf, Betreiber von Operational Technology (OT) dabei zu unterstützen, ihre KI augmentierten Edge-Systeme resilienter gegenüber Fehlentscheidungen und Manipulationen zu machen.“
Ein europäisches Vorzeigeprojekt
Das Konsortium wird vom deutschen Unternehmen TTTech koordiniert und umfasst Partner aus Wissenschaft und Industrie. Neben der Entwicklung einer domänenunabhängigen KI-Vertrauensarchitektur liegt ein Schwerpunkt auf der Validierung durch reale Anwendungsfälle. So sollen Methoden und technologische Lösungen entstehen, die nicht nur theoretisch überzeugen, sondern auch in der Praxis umsetzbar und skalierbar sind.
Relevanz für alle Cybersicherheitskritische Industrien
Die zunehmende Verlagerung von Entscheidungsfindungen durch KI an den Rand des Netzwerks (Edge) bringt neue Herausforderungen für die Cybersicherheit mit sich. Angesichts wachsender Bedrohungen wie AML oder Manipulationen in IoT-Systemen ist eine Aufgabe in EdgeAI-Trust die Bereitstellung von Methoden und Werkzeugen zur Sicherung dieser KI augmentierten Anwendungen. Angriffe mittels Adversarial Machine Learning (AML) zielen beipielsweise darauf ab, das Training von KI durch gezielte Manipulationen zu täuschen oder die Funktionalität von KI zu beeinträchtigen. Dabei nutzen Angreifer Schwachstellen in den Trainingsprozessen oder Trainingsdaten aus, um in KI-Anwendungen falsche Ergebnisse zu erzeugen und die KI Modelle damit unzuverlässig zu machen. Insbesondere bei autonomen Systemen kann dies zu fatalen Fehlentscheidungen der KI führen, Am Beispiel von Drohnen, Industrierobotern oder Fahrzeugen mit lebensbedrohlichen Konsequenzen. Aber auch im Kontext des EU AI Act, der erstmals einheitliche Standards für den Einsatz von KI setzt, liefert das Projekt wichtige Impulse für die rechtskonforme Bewertung und Weiterentwicklung sicherer KI-Systeme.
Bei Bedarf an Hintergrundinfos zu AML, Data Poisioning oder adversialem Training vermittle ich gerne ein Interview mit Mirko Ross. Informationen zu weiteren Forschungsprojekten mit asvin-Beteiligung finden Sie unter https://asvin.io/labs/
Über asvin
Die asvin GmbH aus Stuttgart bietet innovative Lösungen im Bereich Cybersicherheit mit Fokus auf IoT-, OT- und Software-Lieferketten. Mit Technologien wie graphenbasierten Cybersecurity Knowledge Graphs und prädiktiven Analysen stärkt asvin die Resilienz kritischer Infrastrukturen weltweit.
Kontakt
Konrad Buck
e-mail: k.buck@asvin.io