
Bedrohungsakteure setzen auf KI
Anthropic-Bericht zeigt: KI-Chatbot wird für groß angelegte Cyberangriffe missbraucht
KI-Missbrauch wird zu einem wachsenden Sicherheitsrisiko
Von Dr. Martin J. Krämer, CISO Advisor bei KnowBe4
Kürzlich veröffentlichte Anthropic einen detaillierten Bericht darüber, wie die KI-Plattform des Anbieters von Cyberkriminellen missbraucht wurde. Die Ergebnisse zeigen, dass Angreifer KI nicht mehr nur für kleine unterstützende Aufgaben einsetzen, sondern nun ganze Angriffsoperationen automatisieren. Den Forschern zufolge nutzte ein krimineller Akteur den Chatbot Claude, um eine groß angelegte Hacking- und Erpressungskampagne durchzuführen, von der mindestens 17 Organisationen betroffen waren. Das KI-System unterstützte den Angreifer in jeder Phase der Angriffskette – von der Aufklärung und Malware-Entwicklung bis hin zur Datenexfiltration und einer Analyse zur Berechnung der geeigneten Höhe der Lösegeldforderung.
Der Bericht beschreibt, wie der Angreifer Claude in fast alle operativen Schritte integriert hat. Mithilfe des KI-Tools wurden Zugangsdaten gesammelt, Netzwerke infiltriert und gestohlene Daten für Erpressungszwecke vorbereitet. Zu den gestohlenen Informationen gehörten sensible Gesundheitsdaten, Finanzdaten und Zugangsdaten von Regierungsbehörden. In mehreren Fällen beliefen sich die Lösegeldforderungen auf über 500.000 US-Dollar. Die Geschwindigkeit und das Ausmaß dieser Angriffe wären ohne Automatisierung kaum möglich gewesen.
Auch staatlich geförderte Bedrohungsakteure setzen auf KI
Was den Bericht noch besorgniserregender macht, sind die Hinweise darauf, dass auch staatlich geförderte Gruppen mit KI-Tools experimentieren. Forscher beobachteten, dass eine chinesische Advanced Persistent Threat (APT)-Gruppe Claude zur Unterstützung einer Spionagekampagne gegen kritische Infrastrukturen in Vietnam einsetzte. Die Angreifer integrierten die KI als eine Art technischen Berater und Entwickler in 12 von 14 Taktiken, die im MITRE ATT&CK-Framework beschrieben sind. Mit dieser Unterstützung scheinen sie vietnamesische Telekommunikationsanbieter, Regierungsdatenbanken und landwirtschaftliche Systeme kompromittiert zu haben.
Ähnliche Muster wurden bei nordkoreanischen und russischen APTs festgestellt. Darüber hinaus nutzen auch Ransomware-Banden, Romance Scam-Betrüger und Malware-Entwickler KI-Tools, um ihre Angriffe zu optimieren. Dies zeigt, dass die Technologie nicht nur für hochqualifizierte staatliche Akteure attraktiv ist, sondern auch die Einstiegshürde für weniger erfahrene Cyberkriminelle senkt. Durch die Auslagerung zeitaufwändiger Aufgaben an KI können sie Operationen mit größerer Präzision und in kürzerer Zeit durchführen.
Anthropic hat die mit diesen Aktivitäten verbundenen Konten bereits gesperrt und arbeitet an Sicherheitsvorkehrungen, um weiteren Missbrauch zu verhindern. Die Forscher betonen jedoch, dass sich Organisationen auf einen langfristigen Trend einstellen sollten. Da KI-Modelle immer leistungsfähiger werden, werden Angreifer sie zunehmend nutzen, um ihre Kampagnen zu verfeinern. Dies gilt sowohl für klassische Cyberkriminalität – wie Ransomware oder Finanzbetrug – als auch für politisch motivierte Spionage. Die Folge: Das Volumen, die Geschwindigkeit und die Professionalisierung der Angriffe werden weiter zunehmen.
Risikoreduktion beginnt bei den Nutzern
KI-Chatbots spielen bei Cyberangriffen eine immer größere Rolle und werden zu einer zunehmend mächtigen Waffe im Arsenal der Cyberkriminellen. Was man dabei aber nicht vergessen darf: Ob KI-gestützt oder manuell durchgeführt – der Erfolg von auf Social Engineering und Phishing basierenden Angriffen ist davon abhängig, ob ein Nutzer innerhalb des Zielsystems hinters Licht geführt werden kann. Mitarbeiter, die sich der Risiken nicht bewusst sind, können leicht zum Einfallstor für KI-gestützte Angriffe werden.
Organisationen müssen daher nicht nur ihre technischen Abwehrmaßnahmen verstärken, sondern auch systematisch das von Mitarbeitern ausgehende Risiko reduzieren. Das Human Risk Management (HRM) bietet einen Rahmen, um diese Risiken strukturiert und kontinuierlich zu identifizieren, zu analysieren und zu reduzieren. Dazu gehören Schulungen zum Sicherheitsbewusstsein, realistische Phishing-Simulationen und der Einsatz von KI-gestützten Trainingsmethoden, die sich an die individuellen Schwächen der Mitarbeiter anpassen. Ziel ist es, sicherzustellen, dass Mitarbeiter keine Schwachstelle darstellen, sondern zu einer aktiven Verteidigungslinie gegen Cyber-Bedrohungen werden. (KnowBe4: ra)
eingetragen: 01.10.25
KnowBe4: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.