- Anzeige -
- Anzeige -
- Anzeige -
- Anzeige -
StartDigitalesMenschliche Intelligenz im Umgang mit KI gefragt

Menschliche Intelligenz im Umgang mit KI gefragt

Der Einsatz von Künstlicher Intelligenz (KI) in der öffentlichen Verwaltung wirft viele Fragen auf: nach Souveränität, Datenschutz und menschlicher Verantwortung. Die Bühne des ÖV Symposiums 2024 in Düsseldorf wurde genutzt, um Ideen zum großen Hype-Thema und Hoffnungsträger unserer Zeit auszutauschen.

Die eingesetzten KI-Lösungen müssten zur deutschen Verwaltung passen – „wir müssen authentisch bleiben“, sagte Richard Bürmann, Senior Vice President Public Services bei CGI. Eines passt sicher zur deutschen (Verwaltungs-)Mentalität: sich viele Gedanken über die Einhaltung von Gesetzen zu machen. Das taten auch die Referenten des ÖV-Symposiums, welches Materna zum 25. Jahr in Folge veranstaltete. Bürmann erklärte, die Daten müssten in Europa bleiben. Der Abteilungsleiter „Digitalisierung, Startups und Dienstleistungen“ im NRW-Wirtschaftsministerium, Dr. Johannes Velling, betonte die zentrale Bedeutung des Datenschutzes bei öffentlichen Daten. An die öffentliche Hand gebe der Bürger seine Daten schließlich aufgrund von Gesetzen, also zwangsweise. „Ja, der Bürger gibt seine Daten auch an Google – aber er macht das freiwillig. Das ist ein riesiger Unterschied“, so Velling.

Noch nicht übermenschlich intelligent

Im Kontext von Künstlicher Intelligenz ist der Abteilungsleiter der Ansicht, dass weiterhin Menschen die Entscheidungen treffen müssen: „Wir können nicht die Verantwortung auf die KI verlagern.“ Außerdem sei eine KI nur so gut wie die Daten, auf denen sie trainiert wurde. Das müssten in Zukunft Verwaltungsdaten sein. Jonas Andrulis, CEO und Gründer des deutschen KI-Unternehmens Aleph Alpha, führte in seiner Keynote die aktuellen Einschränkungen von KI vor und bekräftigte: „Ich kann die moderne KI alle möglichen Dinge lernen lassen: Texte schreiben, Inhalte finden, Videos erzeugen. Aber die KI versteht nicht, was sie da eigentlich macht. Sie erzeugt nur Muster, die so ähnlich sind wie das, was sie beim Lernen gesehen hat.“ Neue Probleme und Aufgaben könne die Künstliche Intelligenz nicht richtig lösen, wenn sie diese im Training nicht gesehen habe – selbst, wenn sie den gelernten Aufgaben ähnelten, resümierte Andrulis. So entstünden fehlerhafte Antworten. Daher müsse der Mensch stets nachvollziehen können, welches Muster die KI gelernt hat und als Basis für das Ergebnis gedient hat.

Unabhängig von Anbietern

Zudem sei es wichtig, eine Technologie zu entwickeln, die unabhängig von Plattformen und Anbietern funktioniert, um sogenannte „Lock-in-Effekte“ zu vermeiden, bei welchen Kunden der Produktwechsel erschwert wird. Diese Ansicht teilt Knuth Molzen, Vertriebsleiter „Digital Solutions“ bei T-Systems, der auf die Schnelllebigkeit des KI-Markts hinwies. „Der springende Punkt ist, dass man sich von keiner KI-Lösung abhängig machen darf“, bekräftigte Molzen. Er empfahl weiterhin, für jede Technologie einen Rahmen zu entwickeln, um seine souveräne Implementierung zu garantieren. „Wir machen für jede Lösung ein PSA-Verfahren [Anmerkung der Redaktion: Privacy and Security Assessment]“, erläuterte der Vertriebsleiter. Dieses sei „unglaublich kompliziert“, beinhalte einen Penetrationstest und über 400 Fragen. Molzen glaubt, die Verwaltung hier als Industriepartner bei der Vorauswahl von Lösungen unterstützen zu können. Der CEO von Materna, Michael Hagedorn, fasste eine Idee des Panels zusammen: Man müsse nach „vernünftigen Anwendungsfällen“ Ausschau halten, aus denen man lernen und den tatsächlichen Nutzen der Technologie erkennen könne. „Nächstes Jahr schauen wir mal, was es gebracht hat und können dann weiter diskutieren“, schloss der Geschäftsführer.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein