Künstliche Intelligenzen haben uns Menschen im Schach besiegt, im Go und im Poker. Sie lernen selbständig, erkennen Gesichter, malen Bilder im Stil berühmter Meister und tun Dinge, die ihre Schöpfer nicht verstehen. Mächtige KI-Systeme vonGoogle, IBM, Microsoft und Facebook stehen kostenlos im Internet zur Verfügung.

Wir können also getrost davon ausgehen, dass Cyberkriminelle längst dabei sind, die Möglichkeiten der künstlichen Intelligenz auszutesten. Lange schon suchen automatisierte Skripte das komplette Internet ständig nach Schwachstellen ab. Bisher müssen Angreifer die Ergebnisse dieser Scans noch selbst auswerten. Bei welchem lohnenden Ziel findet sich die beste Kombination möglicher Schwachstellen? In Zukunft können die Gangster das der KI überlassen. Wir müssen also davon ausgehen, dass Cyberkriminelle mit Hilfe von KI in Zukunft schneller, zielgerichteter und aggressiver angreifen werden. Aber das gleiche Arsenal steht natürlich auch den Verteidigern der Netze zur Verfügung.

Neuronale Netze und Deep Learning können Intrusion Detection Systeme dabei unterstützen, Angriffsmuster besser und schneller zu erkennen. Die Firma Cylance arbeitet schon daran. Auch zum Compliance Monitoring und zur Betrugserkennung können die Fähigkeiten von KI-Systemen wichtige Beiträge leisten. Immer, wenn es darum geht, in großen Datenmengen schnell und effektiv Muster zu erkennen, entfalten die modernen KIs ihre Stärken. KIs können so auch Schwachstellen in Software finden und sogar automatisch beheben. Die Militärforscher der amerikanischen DARPA haben das ausprobiert. In einem hochdotierten Wettbewerb versuchten sieben Supercomputer, sich gegenseitig am Zeug zu flicken.

Gegen menschliche Hacker kommen die Rechner aber nicht an. Noch nicht. Aber wie jedes Computersystem können auch KI-Systeme selbst zum Ziel von Angriffen werden. So wurde Gesichtserkennung schon mit bunten Brillen ausgetrickst. Die Systeme ordneten den Gesichtern völlig falsche Personen zu. Denkbar sind neue DoS-Angriffe (Denial-of-Service) auf dieser Basis, die direkt auf eine KI zielen. So wie der Gesichtserkennung eine falsche Person vorgetäuscht wurde, könnte man einer KI Angriffe vortäuschen. Während die KI einen fehlgeleiteten Großalarm auslöst, findet der wirkliche Angriff ungestört an einer ganz anderen Stelle statt.

Und auch durch die KI selbst entstehen neue Risiken. Ihre Veränderlichkeit führt eine völlig neue Fehlerklasse ein: Fehler durch Evolution. Durch ihre enorme Flexibilität verändern sich KI-Systeme im Laufe der Zeit selbst. Wie stellen wir sicher, dass die Systeme jederzeit noch den Anforderungen genügen und genau das tun, was sie sollen und nichts anderes? Wie behalten wir dauerhaft die Kontrolle?