Vom Einsatz her gedacht – KI für sicherheitskritische Anwendungen

0
2140
Prof. Dr. Peter Martini, Institutsleiter Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE (Foto: Fraunhofer FKIE)

“Künstliche Intelligenz” (KI) ist eines jener Schlagworte, deren konkrete Bedeutung niemand fundiert definieren kann, von denen aber fast jeder glaubt, sie zu verstehen. Es ist ein Sammelbegriff, der Hoffnungen weckt und Ängste schürt – ein Begriff, der zurecht dazu auffordert, auch das “Big Picture” zu betrachten, statt sich ausschließlich in den Details der eingesetzten Techniken zu verlieren.

Das von mir geleitete Fraunhofer-FKIE ist ein auf Wehrtechnik ausgerichtetes IT-Institut, das mit seinen über 400 Mitarbeiterinnen und Mitarbeitern auf die Bereiche Aufklärung und Führung fokussiert. Als ich vor ca. zwei Jahren meine Abteilungsleiter fragte, in welchen der insgesamt zehn Fachabteilungen “KI-Techniken” zum Einsatz kämen, stellte sich heraus, dass es keine einzige Fachabteilung gab, die “KI-frei” war: Unsere Wissenschaftler setzen modernste KI-Techniken ebenso selbstverständlich ein, wie sie mit Datenbanken arbeiten, objektorientierte Programmiersprachen nutzen und agil Software entwickeln. Viele kommen direkt im Anschluss an ihre Hochschulausbildung zu uns. In ihrem Studium haben sie sich nicht nur mit den Grundlagen des Compilerbaus, der Betriebssysteme und der Internet-Technologie befasst, sondern auch Vorlesungen und Praktika zu “Machine Learning” besucht, zu “Sensordatenfusion” und “Data Science”. Mit großer Selbstverständlichkeit bringen sie das Erlernte in ihre Arbeit an unserem Institut ein. In ihrem Forscherdrang setzen sie unterschiedlichste KI-Techniken ein und arbeiten konsequent an der Weiterentwicklung von dem, was im jeweiligen Anwendungsbereich erfolgversprechende Ergebnisse liefert.

Als ein unbekümmertes “Try it and Fix it” beschreibt David Parnas, einer der Pioniere der Softwaretechnik, häufig das, was er vor mehr als 50 Jahren als Student der Carnegie Mellon University bei Gründungsvätern der “Artificial Intelligence” gelernt und als charakteristisch wahrgenommen hat. Von den Dozenten der Bereiche Science und Engineering lernte er, fundierte theoretische Modellbildung sowie Kenntnisse aus Physik und Mathematik zur gründlichen und aufwändigen Problemanalyse einzusetzen – und hieraus eine angemessene Problemlösung abzuleiten. Seine Dozenten zu Artificial Intelligence stützten sich hingegen weitgehend auf vage Konzepte, auf nicht messbare Attribute und auf Intuition.

Die praktische Erfahrung in den vergangenen Jahrzehnten hat gezeigt, dass wir beide Ansätze brauchen – sowohl klassische Programmierung als auch KI-basierte Techniken – und dass es darüber hinaus häufig zielführend ist, beide Ansätze verantwortungsbewusst zu kombinieren. Gerade in Anwendungsfeldern wie Bilderkennung und Sprachverarbeitung, in denen mit klassischer Programmierung nur selten befriedigende Ergebnisse erzielt werden konnten, erzielen KI-Techniken aus dem Bereich der neuronalen Netze bzw. des Deep Learning häufig beeindruckende Ergebnisse mit höchster Praxisrelevanz.
Vom Einsatz her gedacht ist dem Begriff “KI” mit größter Vorsicht zu begegnen. Da “KI” ein SEHR weit gefasster Sammelbegriff ist, ist zunächst zu klären, ob es sich um “Old School KI” mit maschinellem Lernen auf der Basis von Expertenwissen, strikter Logik und verlässlichen Daten handelt. Hier ist das Verhalten entlang einer Kausal-Kette nachvollziehbar und vorhersagbar – das Risiko von Fehlverhalten ist abschätzbar und durch systematische Verbesserungen minimierbar.

Im Bereich der KI kommen aber auch verstärkt Techniken zum Einsatz, die rein phänomenologisch arbeiten, die zwar Korrelationen aufzeigen, aber keine Kausalität. Es sind Techniken, die uns keine theoretische Durchdringung der Anwendungsdomäne abverlangen, die uns häufig aber auch keine Möglichkeit geben, domänenspezifische Vorkenntnisse jenseits eines Trainierens mit Beispielen einfließen zu lassen. Gerade in den Bereichen, die theoretischer Modellbildung nur schwer zugänglich sind, liefern solche Systeme häufig beeindruckende Ergebnisse, die mit klassischen Techniken nicht einmal näherungsweise erreichbar sind – manchmal scheitern sie aber ebenso grandios wie überraschend. Ihr Verhalten in sicherheitskritischen Situationen ist somit nicht bzw. nur durch vollständiges Testen verlässlich vorhersagbar. Solche Systeme können nur zum Einsatz kommen, wenn ein Fehlverhalten durch ergänzende Technik oder durch natürliche Intelligenz von Menschen erkannt und kompensiert wird.

Der militärische Einsatz von KI-Techniken ist in Zeiten von “Big Data” nicht eine Frage des “ob”, sondern eine Frage des “wie”. Zweckdienlich und verantwortungsbewusst eingesetzte KI-Techniken können, werden und dürfen uns Menschen nicht ersetzen, aber sie werden das Zusammenspiel von Mensch und Maschine grundlegend verändern. Sehr wachsam müssen wir uns der Frage widmen, in welcher Weise die uns umgebenden “intelligenten Assistenzsysteme” nicht nur unser Handeln verändern, sondern auch unser Denken – ob wir auch in Zukunft noch denk- und handlungsfähig sind, wenn die intelligenten Assistenten ausfallen oder so manipuliert wurden, dass sie kaum erkennbar verfälschte Ergebnisse hervorbringen.

Prof. Dr. Peter Martini, Institutsleiter Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE, hat den Gastbeitrag verfasst.

 

Kommentieren Sie den Artikel

Please enter your comment!
Please enter your name here