Sicherheitsherausforderung der generativen KI


Große Sprachmodelle und die Frage der Data Security – Vast Data erläutert Sicherheitsfragen rund um LLMs
Im Kontext der Datensicherheit sind LLMs als Menschen zu betrachten


Angesichts der rasanten KI-Entwicklung wird immer deutlicher, dass die grundlegenden Leitplanken, Plausibilitätsprüfungen und Prompt-basierten Sicherheitsmaßnahmen, die derzeit gelten, durchlässig und unzureichend sind. Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln.

Moderne generative KI-Workflows verändern die Art und Weise, wie Daten gespeichert und abgerufen werden, grundlegend. Im Gegensatz zur herkömmlichen Datenspeicherung, bei der Metadaten und Zugriffskontrollen eng mit den Daten verknüpft bleiben, fragmentiert und verteilt die KI-Pipeline Daten auf mehrere Komponenten: das Sprachmodell selbst, Eingabeaufforderungen, eingebettete Datenbanken, Vektorspeicher und generierte Ausgaben.

Diese architektonische Verschiebung bedeutet, dass herkömmliche Sicherheitskontrollen wie Active Directory-Gruppen und Access Control Lists (ACLs), also Zugriffssteuerungslisten, unwirksam sind. Dies liegt daran, dass diese Kontrollen nicht durch den KI-Transformationsprozess weitergegeben werden. Es ist ein neues Sicherheitsparadigma erforderlich, um Daten in diesem verteilten KI-Ökosystem zu schützen.

Die Sicherheitsherausforderung der generativen KI
Chatbots, die auf Large Language Models (LLMs) basieren, sind darauf ausgelegt, hilfreich zu sein für Benutzer. Genau dies macht LLMs jedoch anfällig für Tricks und Lügen, die zur Offenlegung sensibler Informationen oder zur Umgehung von Sicherheitskontrollen führen können. Social-Engineering-KI hat sich als neuartiger und besorgniserregender Angriffsvektor herausgestellt. Im Gegensatz zu herkömmlichen Bedrohungen können KI-Systeme durch sorgfältig ausgearbeitete Eingabeaufforderungen für den Zugriff auf oder die Offenlegung geschützter Daten ausgenutzt werden.

Die Sicherheitsherausforderungen, die sich durch generative KI ergeben, sind vielfältig und komplex. Im Kern sind diese Systeme nicht von Natur aus sicher, denn die Modelle selbst können versehentlich sensible Trainingsdaten speichern und offenlegen. Dieses Risiko wird durch die Tatsache verschärft, dass herkömmliche Sicherheitsmaßnahmen und Zugriffskontrollen, auf die sich Unternehmen verlassen, nicht eindeutig auf KI-Interaktionen anwendbar sind.

Besonders besorgniserregend ist das Aufkommen von Prompt-Injection-Angriffen, bei denen sorgfältig gestaltete Eingaben KI-Systeme so manipulieren können, dass sie geschützte Informationen preisgeben. Bestehende Sicherheitstools und -rahmen wurden nicht mit Blick auf KI-spezifische Schwachstellen entwickelt, sodass gefährliche Lücken in unserer Verteidigung entstehen. Da sich die KI-Einführung beschleunigt, benötigen Unternehmen dringend neue Ansätze und Rahmenbedingungen für die Bewertung und das Management dieser einzigartigen Sicherheitsrisiken.

Obwohl Sicherheitsexperten versucht haben, Prompt-basierte Sicherheitsmaßnahmen zu implementieren, haben sich diese Lösungen als unzureichend erwiesen. Zu den gängigen Ansätzen gehören das Hinzufügen von Sicherheitsanweisungen zu Systemaufforderungen, die Implementierung von Schlüsselwortfiltern und Ausgabescans und die Verwendung von Eingabeaufforderungs-Templates und Validierung. Ebenso gängig sind die Überwachung auf verdächtige Interaktionsmuster sowie Ratenbegrenzung und Zugriffskontrollen.

Diese Maßnahmen können jedoch oft durch kreative Eingabeaufforderungsentwicklung, Kontextmanipulation oder durch Ausnutzung der Tendenz der KI, hilfreich zu sein, umgangen werden. So gibt es bereits einige Beispiele dafür, wie Menschen die Prompt-basierten Sicherheitsmaßnahmen von ChatGPT umgehen. Dies ist ein Problem, dass alle generativen KI-Workloads betrifft, ChatGPT ist derzeit das beliebteste und das größte Ziel. Folglich sind robustere, systematischere Ansätze für die KI-Sicherheit erforderlich, die KI-Systeme mit der gleichen Sicherheitsstrenge behandeln wie menschliche Benutzer.

Lösungsansätze und Beispielszenarien
Wenn es um den Schutz von Daten in generativen KI-Workloads geht, gilt es zu einer grundlegenden Wahrheit zurückkehren: Der einzige garantierte Weg, Daten vor KI-Systemen zu schützen, ist derselbe Ansatz, der dazu dient, Daten vor Menschen zu schützen. Genauso wie Unternehmen den menschlichen Zugriff auf sensible Informationen durch robuste Authentifizierungs- und Autorisierungsmechanismen sorgfältig kontrollieren, müssen sie nun entsprechende Schutzmaßnahmen auf die KI-Systeme anwenden, die mit ihren Daten interagieren. Dies bedeutet es, sicherzustellen, dass Benutzer gemäß den Zero-Trust-Prinzipien über den entsprechenden Zugriff auf Daten verfügen. Ebenso ist es erforderlich, Sicherheitskontrollen auf den Ebenen LLM, Einbettung, Vektorspeicher und Datenbank zu implementieren sowie alle Datenzugriffe zu protokollieren und zu prüfen.

Selbst wenn Unternehmen ein Allzweck-LLM verwenden, können die Daten, mit denen es interagiert, sensibel sein und denselben Schutz erfordern. Die folgenden fiktiven Beispiele verdeutlichen die Notwendigkeit von Sicherheitskontrollen auf jeder Ebene der KI-Pipeline: Ein Sicherheitsingenieur hat möglicherweise Zugriff auf ein LLM, das auf Sicherheitsdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auf jeder Ebene angewendet werden. Ein Marketingmanager wiederum hat vielleicht Zugriff auf ein LLM, das auf Marketingdaten abgestimmt ist, und die generative KI-RAG-Pipeline hat Zugriff auf weitere Daten. Die Sicherheitskontrollen müssen auch in diesem Fall auf jeder Ebene angewendet werden. Diese Personen haben möglicherweise gleichzeitig Zugriff auf zusätzliche Informationen wie Personalrichtlinien, Verfahren und andere Unternehmensdaten, was die Lösung nicht einfach macht.

Fazit von Vast Data: Umfassende Sicherheit für Generative-AI-Workloads
Die aktuellen Entwicklungen erfordern Lösungen, die eine umfassende Sicherheit für Generative-AI-Workloads im ExaScale-Maßstab bieten können, um das Problem der Datenausbreitung und die damit verbundenen Sicherheitsrisiken der Datenspeicherung an mehreren Standorten zu lösen. Ideal ist eine zentrale Instanz für die Verwaltung komplexer, mehrschichtiger Datei-Authentifizierung. Durch die Kombination sicherer Datenpipelines mit robusten Prüfmöglichkeiten gewährleistet solch eine Instanz Echtzeit-Transparenz bei Zugriffs- und Betriebsereignissen. Dieser doppelte Fokus auf Sicherheit und Verantwortlichkeit macht die InsightEngine zu einem Eckpfeiler für KI-gesteuerte Prozesse und erfüllt die Anforderungen moderner KI-Ökosysteme mit einem hohen Maß an Präzision, Skalierbarkeit und Compliance. (Vast Data: ra)

eingetragen: 24.12.24
Newsletterlauf: 06.03.25

Vast Data: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Security-Tipps und Background-Wissen

  • Hinter den Kulissen der Hacktivisten

    Check Point Software Technologies bietet Einblicke in die Machenschaften der Hacktivisten-Gruppen, die zu einer wachsenden Bedrohung geworden sind. Hacktivismus hat sich von digitalen Protesten zu ausgeklügelten, staatlich geförderten Cyber-Operationen entwickelt. Check Point Research (CPR) analysierte 20 000 Nachrichten von 35 Hacktivisten-Gruppen mithilfe von maschinellem Lernen und linguistischer Analyse, um verborgene Zusammenhänge und Handlungsmuster aufzudecken. Die Untersuchung zeigt, wie geopolitische Ereignisse solche Aktivitäten antreiben, wobei einige Gruppen während Krisen wieder auftauchen, um gezielte Angriffe durchzuführen.

  • Robuster Disaster-Recovery-Plan erfordert

    Eine aktuelle Studie von Microsoft Security belegt, dass eines von drei KMU sich in den letzten 12 Monaten gegen einen Cyberangriff wehren musste. Diese ernüchternde Statistik zeigt, dass zahlreichen kleinen oder mittelständischen Unternehmen ein robuster Disaster-Recovery-Plan fehlt. Dabei könnte es schon helfen, eine lokale Datensicherung zu etablieren.

  • Dem Software-Lieferketten-Risiko begegnen

    In den vergangenen Jahren mussten sich IT-Sicherheitsverantwortliche und ihre Teams zunehmend mit Cyberrisiken auseinandersetzen, die mit den Software-Lieferketten ihrer Anbieter und Partner in Zusammenhang stehen. Immer häufiger machen Cyberkriminelle Schwachstellen in Entwicklungspipelines, Open-Source-Komponenten und Drittanbieter-Integrationen zu einem integralen Bestandteil ihrer Angriffsvektoren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen