Angriffe auf LLMs durch persistente Hintertüren

Große Sprachmodelle (LLMs) ermöglichen Angreifern einfache Supply-Chain-Manipulationen, indem sie beim Training mit Backdoors versehen werden, die Schadcode auslösen und persistent bleiben. Dadurch sind alle darauf basierenden AI-Systeme gefährdet, was einen Goldstandard für Sicherheit, Transparenz und Vertrauen erfordert.

Cybersecurity-Experte Mirko Ross analysiert in der Heise-Artikel dieses Risiko detailliert:

https://www.heise.de/meinung/Analyse-Angriffe-auf-grosse-Sprachmodelle-durch-die-Hintertuer-9604735.html

KI Backdooring - Heise Artikel mit einer Analyse von Mirko Ross

Konrad Buck

Leiter der Presse- und Öffentlichkeitsarbeit

Hintergrund & Expertenzugang für Medien

Ich biete Journalist:innen Zugang zu vertieften Hintergrundinformationen über unsere öffentlichen Materialien hinaus, einschließlich:
  • Produkt- & Technologieeinblicke – Technischer Kontext, Lösungsarchitektur und praxisnahe Anwendungsbeispiele für Fach- und Wirtschaftspresse.
  • Expertenkommentare & Hintergrundgespräche – Unser CEO steht als Expert:innenquelle zu aktuellen Entwicklungen in der Cybersicherheit, Bedrohungslandschaften sowie den Auswirkungen von KI auf Sicherheit und Regulierung zur Verfügung.
Pressekontakt
Ich spreche offen, faktenbasiert und ohne PR-Floskeln. Als ehemaliger IT-Journalist mit jahrzehntelanger Erfahrung in der IT- und Cybersicherheitsbranche kenne ich die Höhen und Tiefen der Industrie. Hintergrundgespräche off the record sind auf Anfrage möglich.