Die demokratisch legitime KI

0
938
Prof. Dr. Katharina Anna Zweig, die Leiterin des Algorithm Accountability Lab der Technischen Universität Kaiserslautern warnt davor, KI als alternativlos anzusehen. Stattdessen solle man daran arbeiten, mithilfe von Daten sinnvolle Entscheidungsgrundlagen für die eigenen Mitarbeiter zu schaffen. (Foto: BS/Dombrowsky)

Neben der Blockchain ist die Künstliche Intelligenz (KI) seit einer Weile das große Hype-Thema in der Digitalisierung. Während in Behörden und auf Veranstaltungen regelmäßig über die breit gefächerten möglichen Anwendungsgebiete diskutiert wird, gibt es hingegen wenig Diskurs darüber, dass es „die KI“ als solche nicht gibt. Stattdessen gibt es zahlreiche Facetten der KI, die jeweils ihre eigene Betrachtung erfordern. Die meistgenutzte dabei ist wohl das Maschinelle Lernen, das es in simpler Form bereits seit den 1950er Jahren angewandt wird, wie Prof. Dr. Katharina Anna Zweig, die Leiterin des Algorithm Accountability Lab der Technischen Universität Kaiserslautern, auf dem Fachkongress Digitaler Staat erläuterte: „Im Grunde geht es beim Maschinellen Lernen darum, dass menschliche Kategorisierungen in Systeme implementiert werden. Früher waren das harte Regeln mit klaren Entscheidungen, aber heute müssen die Regeln immer weicher werden, um möglichst dynamische Entscheidungen zu ermöglichen.“ Dabei gehe es heute beispielsweise um Übersetzungen, Erkennung von Audio und Bildern sowie semantische Textanalysen, um Sprachassistenten und Chat Bots richtig betreiben zu können, die aus diesen weichen Datensätzen sinnvolle Antworten generieren können.

Besondere Vorsicht ist dagegen geboten, wenn es um Entscheidungen geht, die richtungsweisende Wirkung haben können. Bislang sei bei den meisten KI-Systemen kaum nachvollziehbar, wie sie aus den Datenpools ihre Entscheidungen herleiten. Daher müsse hier ein transparentes, funktionierendes System geschaffen werden und gleichzeitig Vorbehalte in der Bevölkerung vorab abgebaut werden, so Prof. Dr. Zweig: „Die Menschen fürchten sich häufig vor Scoring-Verfahren und Klassifikationen. Dabei haben wir auch im analogen Raum schon lange solche Systeme, wenn wir nur mal an unseren Schufa-Score und die Klassifizierung in der Versicherung denken.“ Es müsse jedoch dringend für den Bürger ersichtlich sein, wie sich ein Score berechnet und wie man diesen als Person durch das eigene Verhalten proaktiv wieder selbst ändern kann, so die Forscherin. Wenn diese Nachvollziehbarkeit und Transparenz jedoch sauber umgesetzt werden, könne KI durchaus helfen, intrinsische Diskriminierungen im Gesamtsystem einer Anwendung auszumerzen, so Zweig: „Bei einer Arbeitsmarktberechnung in Österreich wies das System beispielsweise gewissen Gruppen ein höheres Risiko zu, keine Chance mehr am Arbeitsmarkt zu haben. Solche Ergebnisse kann man anschließend nutzen, um den Markt an sich nachzujustieren.“

Abschließend sei wichtig, dass KI nicht als alternativlos angesehen werde. Stattdessen müsse man versuchen, anhand von Daten gut austarierte Entscheidungsregeln für die Mitarbeiter zu erarbeiten und KI an den richtigen Stellen zur Arbeitsentlastung zu nutzen.

Kommentieren Sie den Artikel

Please enter your comment!
Please enter your name here