Künstliche Intelligenz in Frühwarnsystemen

0
1123
Prof. Dr. Jörg Siekmann, Prof. Dr. Karl Hans Bläsius (v.l. n. r.) (Fotos: BS/privat)

Frühwarnsysteme dienen der Vorhersage und Bewertung von möglichen Angriffen durch Atomraketen auf der Basis von Sensordaten. Mit neuen technischen Möglichkeiten wird die Vielfalt an Sensordaten zur Erkennung eines Raketenangriffs wachsen. Auch die Vielfalt der Objekttypen, die zu erkennen sind, wird wachsen (z.B. Drohnen, Satelliten, Weltraum-Schrott) und damit die Bewertung von Sensorsignalen erschweren. Aufgrund der kurzen Zeitspannen für diese Bewertungen sind immer mehr computergestützte Verfahren insbesondere der Künstlichen Intelligenz (KI) erforderlich, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen. Dies ist vor allem der Fall, wenn durch neue Waffensysteme die Zeiträume immer kleiner werden, in denen Entscheidungen fallen müssen.

Entscheidungsunsicherheit

Die Entwicklung leistungsfähiger KI-Systeme hat bei den Nuklearstreitkräften eine hohe Priorität, dazu gehören unter anderem Diagnose-Expertensysteme, die einer Entscheidungsunterstützung dienen sollen. Ähnlich wie Menschen können auch KI-Systeme falsche Entscheidungen treffen. Automatisch erzeugte Erkennungsergebnisse gelten nur mit einer gewissen Wahrscheinlichkeit, das heißt die Ergebnisse können falsch sein, was dann auch für automatische Annahmen und Schlussfolgerungen gilt, die auf diesen Erkennungsergebnissen basieren.

Eine fachliche Beurteilung KI-basierter Entscheidungen durch Menschen ist in der kurzen verfügbaren Zeit kaum möglich. Dies gilt schon deshalb, weil die automatische Erkennung meist auf Hunderten von Merkmalen basiert. Die KI-Systeme können in der Regel keine einfachen nachvollziehbaren Begründungen liefern und selbst wenn Erkennungsmerkmale von einem KI-System ausgegeben werden, könnten diese nicht in der verfügbaren Zeit überprüft werden. Dem Menschen bleibt nur zu glauben, was die KI-Systeme liefern.

Mangel an Lerndaten

Für die zuletzt so erfolgreichen “deep-learning”-Ansätze besteht das Problem, dass “Lerndaten” für die Erkennungsaufgaben in Frühwarnsystemen nur sehr eingeschränkt verfügbar sind. Ein Testen in realen Situationen ist kaum möglich. Dies kann zu unvorhersehbaren Effekten führen, die eventuell von Menschen nicht bewertet und kontrolliert werden können.

Auch auf Basis weniger Beispiele können KI-basierte Erkennungen realisiert werden, aber es ist nicht möglich, alle Varianten und Ausnahmensituationen vorherzusehen, die vorkommen können. Deshalb kann es zu Fehlern kommen und es ist technisch nicht möglich, dies zu verhindern.

Folgen von Fehlern

Bei vielen Anwendungen können KI-Systeme zu besseren Entscheidungen fähig sein als Menschen. Dies wird z.B. auch für das autonome Fahren erwartet. Voraussetzung hierfür sind aber viele Tests, auch unter realen Bedingungen. Trotzdem passieren Unfälle. So ist im Mai 2016 ein Tesla-Fahrer tödlich verunglückt, da die Systeme eine weiße LKW-Fläche falsch interpretiert haben. Ein solcher Fehler kann korrigiert und eine neue Software in allen anderen Fahrzeugen installiert werden. So können im Laufe der Zeit die automatischen Systeme sicherer und die Unfallraten immer weiter reduziert werden.

Für KI-Entscheidungen in Frühwarnsystemen gelten jedoch andere Bedingungen, da Tests von solchen Systemen unter realen Bedingungen kaum möglich sind. Ähnlich große Datenmengen wie beim autonomen Fahren wird es kaum geben. Ein Unfall auf Grund einer falschen Entscheidung eines KI-Systems beim autonomen Fahren kann auch einzelne Menschenleben fordern. Aber ein solcher Fehler in einem Frühwarnsystem mit der Folge eines Atomkriegs aus Versehen würde möglicherweise alles Leben auf diesem Planeten auslöschen.

Krisen-Vorhersage

Die Bundeswehr hat im März 2018 ein Projekt “Preview” gestartet, mit dem Ziel, auf der Basis von Methoden der Künstlichen Intelligenz Krisen und Kriege vorherzusagen. Auch wenn es derzeit keine Hinweise auf einen Zusammenhang mit Frühwarnsystemen gibt und das Projekt andere Zielsetzungen hat, kann ein solcher Zusammenhang irgendwann eintreten. Wenn ein computergestütztes Frühwarnsystem einen Raketenangriff meldet und Personen, die diese Situation letztlich bewerten, Zugriff auf ein solches System zur Kriegsvorhersage haben und dieses KI-System einen Krieg vorhersagt, kann dies erheblichen Einfluss auf die Bewertung der Alarmmeldung und die endgültige Entscheidung haben. Die Mitglieder einer Bewertungskommission könnten zusätzlich beeinflusst werden und es kann schwer sein, sich solchen Vorhersagen zu widersetzen. Entscheidungsträger würden eher anstreben, ihre existenzielle Verantwortung mit einem KI-System, das den Nimbus der Allwissenheit und Unfehlbarkeit hat, zu teilen.

Die Autoren des Gastbeitrages sind Prof. Dr. Karl Hans Bläsius, Prof. Dr. Jörg Siekmann, Professoren für Informatik.

Kommentieren Sie den Artikel

Please enter your comment!
Please enter your name here