KI und Cybersicherheit – Vergiftete Brunnen und andere Risiken
Gespeichert von Dr. Axel Spies am
Lesenswerter Artikel zu (Generativer) KI und Cybersicherheit in Forbes:
Hier einige Herausforderungen für die nahe Zukunft:
- Injektionen mittels Prompts: die reine Eingabeaufforderung ohne fachliche Anleitung kann zu riskanten Ergebnissen führen. Ein böswilliger Nutzer könnte z.B. einen Code (anstelle einer E-Mail-Adresse) eingeben, der von der Website interpretiert und ausgeführt werden könnte - ein so genannter Injektionsangriff - der möglicherweise sensible Daten kompromittiert oder Schaden anrichtet.
- Vergiftung des Brunnens: Bei der Vergiftung von KI-Daten werden irreführende oder bösartige Informationen, die als legitim erscheinen, in die Trainingsmaterialien eingefügt.
- Fehler bei den Eingabedaten: Ein Mitarbeiter gibt versehentlich nicht anonymisierte Kundeninformationen in die Trainingsdaten ein.
- Deepfakes: Ein gut gemachtes Deepfake-Video könnte eine auf KI basierende trainierte Gesichtserkennungssoftware dazu verleiten, sich einzuloggen, und so unbefugten Zugang gewähren. Ein Angreifer könnte eine Stimmimitation erstellen, um Systeme zur Stimmauthentifizierung zu umgehen.
Zitat aus dem Artikel: „Ein bösartiger Akteur zu sein, der generative KI einsetzt, ist erstaunlich billig, und der Gewinn kann beträchtlich sein. Kostenlose oder kostengünstige Toolkits zur Erstellung von Deepfakes, synthetischen Daten und bösartigen Anwendungen sind online verfügbar. Obwohl einige technische Kenntnisse erforderlich sind, ist die Einstiegshürde deutlich niedriger als bei traditionellen Hacking-Methoden.“
Weiterführend dazu der Bericht des BSI vom 27.03.2024 „Generative KI-Modelle Chancen und Risiken für Industrie und Behörden.“
Wie sehen Sie diese Herausforderungen insbesondere im Hinblick auf die Schutzmaßnahmen und Dokumentationspflichten nach der DS-GVO?