JAILBREAKING LLMs: Angriffe auf Regeleinstellungen und Prompt-Filter

Am 29. Oktober 2025 wird Mirko Ross im Rahmen des Online-Deep-Dive von Minds Mastering Machines Einblicke in aktuelle Angriffsvektoren auf große Sprachmodelle (LLMs) geben und aufzeigen, wie wir uns effektiv vor ihnen schützen können.

Chatbots und KI-Agenten sind eigentlich durch Regeln und prompte Filter vor unethischen oder illegalen Aktionen geschützt. Mit dem richtigen technischen Know-how können diese Schutzmaßnahmen jedoch angegriffen und umgangen werden.

Im Vortrag Jailbreaking in LLMs werden Sie erfahren:

  • welche Jailbreaking-Methoden derzeit verwendet werden
  • warum solche Angriffe ein echtes Risiko für Unternehmen darstellen, und
  • welche Schutzmaßnahmen sinnvoll sind, um KI-Systeme widerstandsfähiger gegen Missbrauch zu machen.

👉 Registrieren Sie sich jetzt und seien Sie dabei: https://www.m3-konferenz.de/llm.php#programm

Minds Masterin Machines - LLMs im Unternehmen