LLM Security

Die Herausforderung
Die umfassende Absicherung Generativer KI- und LLM (Large Language Model)-Anwendungen bedeutet Application Security zum Quadrat.
Bei Anwendungen mit Generativer KI, spezifisch bei LLM (Large Language Model)-Anwendungen, gesellen sich zu den klassischen Web- und App-Schwachstellen vielfältige weitere Möglichkeiten von Sicherheitsproblemen: Durch den Einsatz externer oder interner Modelle, die Verwendung von Plugins, Agents, RAG-Anbindungen etc. In der Praxis kommt meist noch das gesamte Spektrum der Cloud-Security dazu.
Ein erhellendes Beispiel für die „Andersartigkeit“ der Anforderungen an die Sicherheit Generativer KI ist die Art, wie das Pattern der Injection-Schwachstellen sich hier darstellt. Im Bereich der klassischen Programmierung lässt sich Injection durch die Anwendung der jeweils geeigneten Gegenmaßnahme zuverlässig ausschließen (beispielsweise Prepared Statements gegen SQL-Injection). Im Bereich von LLMs haben wir es momentan mit der grundsätzlichen Nichtrealisierbarkeit einer ähnlich sicheren Gegenmaßnahme zu tun. Einfach deshalb, weil die Benutzereingabe – der Prompt – zum Bestandteil des Gesamtkontextes werden muss, damit das System seinen Zweck erfüllen kann.
Unsere Leistung
Wir bieten umfassende Unterstüzung für die sichere Konzeption, Umsetzung und den Betrieb Ihrer KI.
Sicherheitsanalysen & Penetrationstests
Wir prüfen die Sicherheit von LLM-Anwendungen auf Basis von OWASP LLM Top 10 und Mitre ATLAS
Workshop: Security für LLM-Anwendungen
Dieser Workshop gibt das Rüstzeug, um Sicherheit bereits bei Design und Aufbau eines KI-Systems zu verankern.
Schulung: OWASP Top 10 für LLM-Anwendungen
Alles was Designer, Architekten und Softwareentwickler wissen müssen, um von Grund auf sichere KI-Systeme bereitzustellen.
