Angriffe auf LLMs durch persistente Hintertüren
Große Sprachmodelle (LLMs) ermöglichen Angreifern einfache Supply-Chain-Manipulationen, indem sie beim Training mit Backdoors versehen werden, die Schadcode auslösen und persistent bleiben. Dadurch sind alle darauf basierenden AI-Systeme gefährdet, was einen Goldstandard für Sicherheit, Transparenz und Vertrauen erfordert.
Cybersecurity-Experte Mirko Ross analysiert in der Heise-Artikel dieses Risiko detailliert:


Konrad Buck
Leiter der Presse- und Öffentlichkeitsarbeit
Hintergrund & Expertenzugang für Medien
Ich biete Journalist:innen Zugang zu vertieften Hintergrundinformationen über unsere öffentlichen Materialien hinaus, einschließlich:
- Produkt- & Technologieeinblicke – Technischer Kontext, Lösungsarchitektur und praxisnahe Anwendungsbeispiele für Fach- und Wirtschaftspresse.
- Expertenkommentare & Hintergrundgespräche – Unser CEO steht als Expert:innenquelle zu aktuellen Entwicklungen in der Cybersicherheit, Bedrohungslandschaften sowie den Auswirkungen von KI auf Sicherheit und Regulierung zur Verfügung.
Pressekontakt
Ich spreche offen, faktenbasiert und ohne PR-Floskeln. Als ehemaliger IT-Journalist mit jahrzehntelanger Erfahrung in der IT- und Cybersicherheitsbranche kenne ich die Höhen und Tiefen der Industrie. Hintergrundgespräche off the record sind auf Anfrage möglich.
Ich spreche offen, faktenbasiert und ohne PR-Floskeln. Als ehemaliger IT-Journalist mit jahrzehntelanger Erfahrung in der IT- und Cybersicherheitsbranche kenne ich die Höhen und Tiefen der Industrie. Hintergrundgespräche off the record sind auf Anfrage möglich.






