- Anzeige -
- Anzeige -
- Anzeige -
StartDigitalesChatGPT: Gespräche mit einer Maschine

ChatGPT: Gespräche mit einer Maschine

Sie wird als der nächste große Schritt in der Künstlichen Intelligenz gefeiert: Chat GPT. Dabei handelt es sich um einen Sprachassistenten, über den man mit einem großen Sprachmodell chatten kann. Die Maschine gibt überzeugende Antworten auf alle möglichen Fragen, aber mit der Wahrheit nimmt sie es nicht so genau.

Die Stiftung OpenAI hat das Programm „ChatGPT“ im November veröffentlicht. Es ist auf Dialog („Chat“) spezialisiert. Das zugrundeliegende großen Sprachmodells wird auch von anderen Künstlichen Intelligenzen (KI) der Stiftung OpenAI verwendet.

Hinter ChatGPT verbirgt sich ein neuronales Netz, das mit einer riesigen Menge Text in verschiedenen Sprachen gefüttert wurde. Dann trainierten die Schöpfer ChatGPT mit Dialogen, in denen menschliche Trainerinnen und Trainer sowohl den menschlichen Part als auch den Maschinenpart spielten. Schließlich generierte ChatGPT eigene Antworten. Menschen bewerteten einige zufällig ausgewählte Antworten der Dialogmaschine, damit diese lernte, was eine gute Antwort war und was nicht. Das nennt sich Reinforcement Learning from Human Feedback (RLHF).

Inzwischen haben Nutzerinnen und Nutzer – über eine Million sollen sich schon registriert haben – der KI alle möglichen Fragen gestellt. Sie ließen ChatGPT programmieren, Skripte für Fernsehserien schreiben oder sich Quantenphysik auf Grundschulniveau erklären. Die meisten Antworten waren passabel. Alle klingen plausibel. Doch gerade wenn es um Wahrheit oder Quellenverweise geht, bekommt ChatGPT schnell eine lange Nase. So soll die KI schon ganze Studien und wissenschaftliche Abhandlungen erfunden haben.

Informationen erfunden

Gegenüber dem Behörden Spiegel hat sie ein sogenanntes eGovernement-Portal erfunden. „Das eGovernment-Portal bietet Zugang zu einer Vielzahl von Verwaltungsdiensten und Informationen, die für Bürgerinnen und Bürger und Unternehmen relevant sind“, erklärt die Künstliche Intelligenz. Auf Nachfrage gibt sie einen Link an, der zur Webseite einer Zeitung führt, und einen weiteren zur Bundesregierung. Auf ihren Fehler hingewiesen verlinkt sie wieder zur Bundesregierung, diesmal auf eine Fehlermeldung.

Und was hält ChatGPT von der Verwaltungsdigitalisierung in Deutschland? Sie bleibt diplomatisch: „Insgesamt lässt sich sagen, dass die Digitalisierung der Verwaltung in Deutschland Fortschritte macht, aber es gibt immer noch Raum für Verbesserungen.“ Dazu passt, dass die KI Deutschland im internationalen Vergleich des „eGovernment Development Index“ (EGDI) der Vereinten Nationen (UN) auf Platz sieben verortet. Und zwar im EGDI-Bericht des Jahres 2021. Allerdings wird der EGDI nur alle zwei Jahre erhoben – zuletzt 2020 und aktuell wieder im Jahr 2022. Deutschland war weder im einen noch im anderen Jahr auf dem siebten Platz im E-Government.

Kann man ChatGPT auf Wahrhaftigkeit trainieren?

ChatGPT ist also bislang keine vertrauenswürdige Informationsquelle. Die Hersteller von ChatGPT schreiben: „Dieses Problem zu lösen ist herausfordernd: Während des RL-Trainings (Anm. d. Red.: Reinforcement Learning) gibt es gegenwärtig keine Quelle der Wahrheit.“ Sprich, die Trainer wissen ja auch nicht alles.

Des Weiteren sei es nicht zweckmäßig, die KI darauf zu trainieren, nichts zu sagen, wenn sie sich nicht sicher sei. Dann würde sie keinen Dialog mehr führen, obwohl sie antworten könnte. Außerdem hingen die Antworten des Modells davon ab, was das Modell wisse. Nicht davon, was die Trainerin bzw. der Trainer an Informationen habe. Wenn man also dem Modell Antworten vorschreibe, die nicht auf seinen Daten beruhten, würde die KI in die Irre geführt.

1 Kommentar

  1. >Menschen bewerteten einige zufällig ausgewählte Antworten der Dialogmaschine, damit diese lernte, was eine gute Antwort war und was nicht.
    Und hier schließt sich der (Teufels)Kreis.

    >So soll die KI schon ganze Studien und wissenschaftliche Abhandlungen erfunden haben.
    Noch besser wird das Ganze, wenn diese ‚Studien‘ dann von KI peer-reviewed werden…

    >“Das eGovernment-Portal bietet Zugang zu einer Vielzahl von Verwaltungsdiensten und Informationen, die für Bürgerinnen und Bürger und Unternehmen relevant sind”
    Mit freundlichen Grüßen – Ihre Bundesregierung 🙂

    >“…gibt es gegenwärtig keine Quelle der Wahrheit.”
    Nihil novi sub sole

    > Wenn man also dem Modell Antworten vorschreibe, die nicht auf seinen Daten beruhten, würde die KI in die Irre geführt.
    Tja, da wäre es hilfreich Beine, Hände, Kopf und 5 Sinne zu haben, loszugehen und sich die Dinge mal anzuschauen, über die man so ‚intelligent‘ daher redet…

    >Auf ihren Fehler hingewiesen verlinkt sie wieder zur Bundesregierung, diesmal auf eine Fehlermeldung.
    Wahrscheinlich eine 404. Auf den Seiten der Bureg nicht selten…

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein