Das Open Web Application Security Project (OWASP) gibt Unternehmen eine Checkliste fĂŒr (mehr) GenAI-Sicherheit an die Hand.
Foto: Gannvector | shutterstock.com
WĂ€hrend Unternehmen wie OpenAI, Anthropic, Google oder Microsoft aber auch Open-Source-Alternativen bei ihren Generative-AIâ und Large-Language-Model-Angeboten exponentielle User-ZuwĂ€chse verzeichnen, sind IT-Sicherheitsentscheider bemĂŒht, mit der rasanten KI-Entwicklung in ihren Unternehmen Schritt zu halten.
Die Non-Profit-Organisation OWASP trĂ€gt dieser Entwicklung mit einer neuen Veröffentlichung Rechnung: der âLLM AI Cybersecurity & Governance Checklistâ.
LLM-Bedrohungskategorien
Das Thema KI ist ziemlich umfangreich, weswegen die OWASP-Checkliste vor allem darauf abzielt, FĂŒhrungskrĂ€fte dabei zu unterstĂŒtzen, die wesentlichen Risiken im Zusammenhang mit generativer KI und groĂen Sprachmodellen möglichst schnell zu identifizieren und entsprechende AbhilfemaĂnahmen einzuleiten. Das soll gewĂ€hrleisten, dass Unternehmen ĂŒber die nötigen, grundlegenden Sicherheitskontrollen verfĂŒgen, um generative KI und LLM-Tools, -Services und Produkte sicher einzusetzen.
Dabei betont OWASP, dass die Checkliste keinen Anspruch auf VollstÀndigkeit erhebt und sich mit zunehmender Reife der Technologie und Tools ebenfalls weiterentwickeln wird. Die Sicherheitsexperten ordnen LLM-Bedrohungen in verschiedene Kategorien ein, wie die nachfolgende Abbildung veranschaulicht:

Die OWASP KI-Bedrohungs-Map.
Foto: OWASP
Geht es darum, eine LLM-Strategie festzulegen, mĂŒssen Unternehmen vor allem mit den einzigartigen Risiken umgehen, die generative KI und LLMs aufwerfen. Diese mĂŒssen durch organisatorische Governance und entsprechende Security-Kontrollen minimiert werden. Im Rahmen ihrer Veröffentlichung empfehlen die OWASP-Experten Unternehmen einen sechsstufigen Ansatz, um eine wirksame LLM-Strategie zu entwickeln:

Mit OWASP in sechs Schritten zum LLM-Deployment.
Foto: OWASP
Auch hinsichtlich der Deployment-Typen in Sachen LLM empfiehlt OWASP, ganz genau hinzusehen und entsprechende Ăberlegungen anzustellen:

Welche Art von KI-Modell ist fĂŒr Sie die richtige?
Foto: OWASP
Die OWASP-KI-Checkliste
Im Folgenden haben wir die von OWASP veröffentlichte Checkliste etwas âaufgedröseltâ. Folgende Bereiche sollten Sie im Rahmen Ihrer Generative-AI- respektive LLM-Initiativen unbedingt prĂŒfen.
Adversarial Risk
Dieser Bereich umfasst sowohl Wettbewerber als auch Angreifer und konzentriert sich nicht nur auf die Angriffs-, sondern auch auf die Unternehmenslandschaft. In diesen Bereich fĂ€llt beispielsweise, zu verstehen, wie die Konkurrenz KI einsetzt, um bessere GeschĂ€ftsergebnisse zu erzielen und die internen Prozesse und Richtlinien (beispielsweise Incident-Response-PlĂ€ne) zu aktualisieren, um fĂŒr Cyberangriffe und SicherheitsvorfĂ€lle im Zusammenhang mit generativer KI gewappnet zu sein.
Threat Modeling
Die Bedrohungsmodellierung gewinnt im Zuge des von zahlreichen Security-Institutionen propagierten âSecure-by-Designâ-Ansatzes zunehmend an Bedeutung. In diesen Bereich fallen etwa die Ăberlegungen, wie Angreifer LLMs und generative KI fĂŒr schnellere Exploits nutzen können, wie Unternehmen schadhafte KI-Nutzung erkennen können und wie sich die Technologie ĂŒber interne Systeme und Umgebungen absichern lĂ€sst.
KI-Bestandsaufnahme
âMan kann nichts schĂŒtzen, von dessen Existenz man nichts weiĂâ greift auch in der Generative-AI-Welt. Im Bereich der KI-Bestandsaufnahme geht es darum, Assets fĂŒr intern entwickelte Lösungen und externe Tools und Plattformen zu erfassen.
Dabei ist nicht nur wichtig, die Tools und Services zu kennen, die genutzt werden, sondern auch ĂŒber die Verantwortlichkeiten Bescheid zu wissen. OWASP empfiehlt zudem, KI-Komponenten in SBOMs zu erfassen und Datenquellen nach SensibilitĂ€t zu katalogisieren. DarĂŒber hinaus sollte es auch einen Prozess geben, der gewĂ€hrleistet, dass zukĂŒnftige Tools und Services aus dem unternehmerischen Inventar sicher ein- und ausgegliedert werden können.
KI-Security- und -Datenschutz-Schulungen
Der Mensch ist das schwĂ€chste Glied in der Sicherheitskette â heiĂt es oft. Das muss allerdings nicht so sein â vorausgesetzt, Unternehmen integrieren KI-Sicherheits- und Datenschutztrainings in ihre GenAI-Journey.
Das beinhaltet beispielsweise, der Belegschaft ein VerstĂ€ndnis ĂŒber aktuelle AI- und LLM-Initiativen zu vermitteln â genauso wie zur Technologie an sich und den wesentlichen Problemen im Bereich Security. DarĂŒber hinaus ist in diesem Bereich eine Kultur unabdingbar, die von Trust und Transparenz geprĂ€gt ist. Das ist auch ein ganz wesentlicher Punkt, um âSchatten-KIâ zu verhindern. Anderenfalls werden Plattformen heimlich genutzt und die Security untergraben.
Business Cases fĂŒr KI etablieren
Ganz Ă€hnlich wie zuvor bei der Cloud erstellen die meisten Unternehmen keine kohĂ€renten, strategischen GeschĂ€ftsmodelle fĂŒr den Einsatz neuer Technologien â auch nicht, wenn es um generative KI und LLMs geht. Sich von Hype und FOMO anstecken zu lassen, ist relativ schnell geschehen â ohne soliden Business Case riskieren Unternehmen aber nicht nur, schlechte Ergebnisse zu erzielen.
Governance
Ohne Governance ist es nahezu unmöglich, Rechenschaftspflicht und klare Zielsetzungen zu realisieren. In diesen Bereich der OWASP-Checkliste fÀllt beispielsweise, ein RACI-Diagramm zu erstellen, dass die KI-Initiativen eines Unternehmens dokumentiert, Verantwortlichkeiten zuweist und unternehmensweite Richtlinien und Prozesse etabliert.
Rechtliches
Die rechtlichen Auswirkungen von KI sollten keinesfalls unterschĂ€tzt werden â sie entwickeln sich rasant weiter und können Reputation und finanziellem GefĂŒge potenziell betrĂ€chtliche SchĂ€den zufĂŒgen. In diesen Bereich können diverse Aspekte fallen â zum Beispiel:
-
Produktgarantien im Zusammenhang mit KI,
-
KI-EULAs oder
-
Intellectual-Property-Risiken.
Kurzum: Ziehen Sie Ihr Legal-Team oder entsprechende Experten hinzu, um die verschiedenen rechtsbezogenen AktivitĂ€ten zu identifizieren, die fĂŒr Ihr Unternehmen relevant sind.
Regulatorisches
Aufbauend auf den juristischen Diskussionen entwickeln sich auch die regulatorischen Vorschriften schnell weiter â ein Beispiel ist der AI Act der EU. Unternehmen sollten deshalb die fĂŒr sie geltenden KI-Compliance-Anforderungen ermitteln.
LLM-Lösungen nutzen oder implementieren
Der Einsatz von LLM-Lösungen erfordert spezifische Risiko- und KontrollĂŒberlegungen. Die OWASP-Checkliste nennt in diesem Bereich unter anderem die Aspekte:
-
Access Control umsetzen,
-
KI-Trainings-Pipelines absichern,
-
Daten-Workflows mappen und
-
bestehende oder potenzielle Schwachstellen in LLMs und Lieferketten identifizieren.
DarĂŒber hinaus sind kontinuierliche Audits durch Dritte, Penetrationstests und auch Code-Reviews fĂŒr Zulieferer empfehlenswert.
Testing, Evaluierung, Verifizierung, Validierung (TEVV)
Der TEVV-Prozess wird vom NIST in seinem AI Framework ausdrĂŒcklich empfohlen. Dieser beinhaltet:
-
Evaluierungen,
-
Verifizierungen und
-
Validierungen sowie
-
Kennzahlen zu FunktionalitÀt, Sicherheit und ZuverlÀssigkeit von KI-Modellen.
Und zwar ĂŒber den gesamten Lebenszyklus von KI-Modellen hinweg.
Modell- und Risikokarten
FĂŒr den ethischen Einsatz von groĂen Sprachmodellen sieht die OWASP-Checkliste Modell- und Risiko-âKartenâ vor. Diese können den Nutzern VerstĂ€ndnis ĂŒber KI-Systeme vermitteln und so das Vertrauen in die Systeme stĂ€rken. Zudem ermöglichen sie, potenziell negative Begleiterscheinungen wie Bias oder Datenschutzprobleme offen zu thematisieren.
Die Karten können Details zu KI-Modellen, Architektur, Trainingsmethoden und Performance-Metriken beinhalten. Ein weiterer Schwerpunkt liegt dabei auf Responsible AI und allen Fragen in Zusammenhang mit Fairness und Transparenz.
Retrieval Augmented Generation
Retrieval Augmented Generation (RAG) ist eine Möglichkeit, die FĂ€higkeiten von LLMs zu optimieren, wenn es darum geht, relevante Daten aus bestimmten Quellen abzurufen. Dazu gehört, vortrainierte Modelle zu optimieren und bestehende auf neuen DatensĂ€tzen erneut zu trainieren, um ihre Leistung zu optimieren. OWASP empfiehlt, RAG zu implementieren, um den Mehrwert und die EffektivitĂ€t groĂer Sprachmodelle im Unternehmenseinsatz zu maximieren.
KI-Red-Teaming
Last, but not least empfehlen die OWASP-Experten auch, KI-Red-Teaming-Sessions abzuhalten. Dabei werden Angriffe auf KI-Systeme simuliert, um Schwachstellen zu identifizieren und existierende Kontroll- und AbwehrmaĂnahmen zu validieren.
OWASP betont dabei, dass Red Teaming fĂŒr sich alleine keine umfassende Lösung respektive Methode darstellt, um Generative AI und LLMs abzusichern. Vielmehr sollte KI-Red-Teaming in einen umfassenderen Ansatz eingebettet werden. Essenziell ist dabei jedoch laut den Experten insbesondere, dass im Unternehmen Klarheit darĂŒber herrscht, wie die Anforderungen fĂŒr Red Teaming aussehen sollten. Ansonsten sind VerstöĂe gegen Richtlinien oder gar juristischer Ărger vorprogrammiert. (fm)
