Der digital verzerrte Souverän

0
328
Prof. Dr. Maximilian Wanderwitz ist Professor für Wirtschaftsrecht, insbesondere das Recht der Informationstechnologie, an der Hochschule Trier, Umweltcampus Birkenfeld. (Foto: BS/Bildschön/Gierke)

 “Not macht erfinderisch” lautet das hinlänglich bekannte Sprichwort – und weil unsere staatlichen Stellen von schier endlosen Geldnöten geplagt zu sein scheinen, müssten sie geradezu ein Quell nicht enden wollender Innovationen sein. So verwundert es nicht, dass die Digitalisierung staatlichen Handelns im Jahr 2016 ausgerechnet mit dem Gesetz zur Modernisierung des Besteuerungsverfahrens einen großen Sprung nach vorne machen konnte – nämlich in Gestalt des § 35a VwVfG, der den vollständig automatisierten Erlass eines Verwaltungsaktes ermöglicht; allerdings mit Einschränkungen, denn Ermessen und Beurteilungsspielraum sind hiervon ausgenommen.

Die Gesetzesbegründung verweist auf den menschlichen Willen, der jedem Verwaltungsakt zugrunde liegen müsse und der bei dessen automatisiertem Erlass durch die Programmierung des Systems vorweggenommen werde – nur nicht bei Ermessen und Beurteilungsspielraum, denn diese erforderten stets die individuelle Beurteilung eines Sachverhalts. Doch was wäre, wenn das System ebenfalls Sachverhalte individuell beurteilen könnte, wenn es intelligent und lernfähig wäre, gleichsam einen künstlichen intelligenten Willen hätte? Einer Künstlichen Intelligenz könnten wir dann schlicht jedes staatliche Verwaltungshandeln übertragen – so scheint es zumindest.

Verzerrte Daten – verzerrtes Verhalten

Bleiben wir im Jahr 2016 und blicken wir auf den 23. März, der Tag, an dem Microsoft den Chatbot Tay auf der Social-Media-Plattform Twitter startete. Tay sollte ein junges amerikanisches Mädchen – ein Millennial – simulieren, um mit anderen Millennials zu interagieren und Forschung zum besseren Verständnis von Konversationen zu betreiben. Der Chatbot war mit einer Künstlichen Intelligenz ausgestattet, die maschinelles Lernen ebenso beherrschte wie Data Mining – und deren relevanter Input die Nachrichten bildeten, die von anderen (menschlichen) Chat-Partnern geschrieben wurden. Alsbald begannen hunderte Nutzer misogyne und rassistische Kommentare an Tay zu senden, was Tay wiederum veranlasste, sich eine ausgesprochen misogyne und rassistische Tonart sowie ein entsprechendes Vokabular anzueignen. Aufgrund dieses unangebrachten Verhaltens deaktivierte Microsoft seinen Chatbot, startete Tay jedoch drei Tage später erneut, nur um ihn kurz darauf aufgrund derselben sich abzeichnenden Verhaltensänderung endgültig von Twitter zu entfernen.

Das Desaster um den Chatbot Tay mag wie eine absurde Spielerei aus den Weiten der virtuellen Welt klingen, doch die zugrunde liegenden Mechanismen bergen ein ganz und gar ernstzunehmendes Risiko. Eine Künstliche Intelligenz lernt anhand ihrer Trainingsdaten – sind diese verzerrt, enthalten sie also einen Bias, so wird auch das gelernte Verhalten der Künstlichen Intelligenz verzerrt sein; dasselbe gilt für jeglichen Input, den die Künstliche Intelligenz verarbeitet und aus dem sie lernt. Hinzu kommt, dass maschinelles Lernen meist mithilfe neuronaler Netze realisiert wird und es nahezu unmöglich ist, ein konkret gelerntes Verhalten aus den jeweiligen Verbindungen der künstlichen Neuronen abzuleiten – ein Phänomen, für das sich der Ausdruck “Black Box” eingebürgert hat. Und selbst wenn dies möglich wäre, so verändert die Künstliche Intelligenz doch mit jedem neuen Input ihr gelerntes Verhalten, weshalb wir es schlicht nicht vorhersagen können und verzerrtes Verhalten nachgerade unsichtbar bleibt.

Verzerrtes Verhalten – verzerrter Souverän

Übertragen wir einer solcherart verzerrt agierenden Künstlichen Intelligenz unser staatliches Verwaltungshandeln, so können sich diese Verzerrungen in den erlassenen Verwaltungsakten niederschlagen – und es eröffnet sich gleichermaßen ein Risiko für unsere Demokratie, nämlich für die demokratische Legitimation. Denn immer gilt “alle Staatsgewalt geht vom Volke aus” (Art. 20 II 1 GG), und diese Volkssouveränität reicht bis in das staatliche Verwaltungshandeln – unter anderem durch die sachlich-inhaltliche demokratische Legitimation in Gestalt von Gesetzen. Eine verzerrt agierende Künstliche Intelligenz bricht mit dieser Form der demokratischen Legitimation, denn ihr Verwaltungshandeln orientiert sich weniger an Recht und Gesetz, sondern stattdessen an ihren Verzerrungen; selbst wenn dies bei ihren kunstvollen Argumentationen zum Ermessen und zum Beurteilungsspielraum nicht offenbar werden sollte. Wir haben also, wenn man so will, einen digital verzerrten Souverän.

Doch sind dies mitnichten Kassandrarufe gegen den Einsatz Künstlicher Intelligenz in der öffentlichen Verwaltung. Vielmehr kennen wir die Verzerrungsrisiken, können regulierend eingreifen, Vorgaben und Institutionen schaffen, die Künstliche Intelligenzen auf einen verantwortungsvollen Weg bringen und solche Verzerrungen im Keim ersticken, um schlussendlich Verwaltung und Künstliche Intelligenz zusammenzuführen – ohne Schaden für unsere Demokratie, zum Nutzen für uns alle, ja zum Nutzen unseres Souveräns. 

Der Autor des Gastbeitrags ist Prof. Dr. Maximilian Wanderwitz. Er ist Professor für Wirtschaftsrecht, insbesondere das Recht der Informationstechnologie, an der Hochschule Trier, Umweltcampus Birkenfeld.

Risiken und Potenziale Künstlicher Intelligenz wird Prof. Dr. Maximilian Wanderwitz im Rahmen des Fachforums Verwaltung kann KI: Forschung, Entwicklung, Umsetzung vertiefen. Weitere Informationen sowie die Möglichkeit zur Anmeldung finden sich hier.

Kommentieren Sie den Artikel

Please enter your comment!
Please enter your name here