Prompt Injection, Tool Misuse und unkontrollierte Tool-Interaktionen führen beim Betreiben und Nutzen agentischer Systeme und LLM-gestützter Anwendungen zu Angriffsvektoren mit Folgen wie Datenexfiltration oder unerwünschten Systemzugriffen. Reale Risiken, die Softwarearchitekt:innen und -entwickler:innen verstehen und adressieren sollten.
In unserem 2-tägigen Training „Agentic Software Security“ vermitteln wir dir die entsprechenden Grundlagen dafür.
Das Training versetzt dich in die Lage, Angriffsvektoren wie direkte und indirekte Prompt Injection, unsichere Tool-Interaktionen, Supply-Chain-Risiken (z. B. Tool Poisoning oder Rug Pulls) sowie Cross-Context-Effekte zu verstehen, Risiken bei der Entwicklung und Integration agentischer Anwendungen methodisch zu bewerten und mit geeigneten Sicherheitsmaßnahmen gezielt zu verhindern.
Das Training richtet sich an Softwarearchitekt:innen und -entwickler:innen, die KI-gestützte Anwendungen mit klarem Fokus auf Sicherheit über den gesamten Lebenszyklus hinweg planen, entwickeln und im Produktivbetrieb einsetzen wollen.
Verstehe Angriffsvektoren rund um GenAI sowie deren Bewertung mittels Threat Modelling.
Setze Schutzmaßnahmen wie Guardrails, Sandboxing und korrekte Authentifizierung sowie Autorisierung zielgerichtet um.
Erarbeite ein Konzept zum sicheren Betrieb von MCP-basierten agentischen Systemen im Unternehmen; vom Onboarding über die Nutzung bis hin zum Offboarding.
Verankere die Security-Praktiken in Architektur, Entwicklung und Betrieb, unabhängig von Frameworks oder Programmiersprachen.