Große Sprachmodelle verändern gerade die Welt. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) kümmert sich darum, dass die Sicherheit dabei nicht zu kurz kommt. Ein Papier lässt ahnen, wohin die Reise geht.
Das BSI sieht Chancen und Risiken. „In Sachen IT-Sicherheit können KI-Sprachmodelle sich als nützliche Werkzeuge erweisen“, erklärte Dr. Gerhard Schabhüser. Der BSI-Vizepräsident rechnet damit, dass die Modelle Spam und Phishing-Mails erkennen werden. Sie könnten künftig Fake News oder Hate Speech in den Sozialen Medien aufspüren. Doch sie könnten auch den Cyber-Kriminellen helfen, prognostiziert Schabhüser. „Bereits jetzt wird im Darknet über den geeigneten Einsatz von KI zu Erstellung von Schadcode und Phishing-Mails diskutiert“, stellte er fest. „Und: KI-gestützte Sprachmodelle eignen sich leider sehr gut zur Erstellung und Verbreitung von Falschinformationen.“ Die Gesellschaft müsse auf diese Risiken hin geschult werden, erklärte der BSI-Vize.
Im Rahmen des 19. Deutschen IT-Sicherheitskongress hat das Cyber-Sicherheitsamt ein Positionspapier zu Großen KI-Sprachmodellen veröffentlicht. Darin plädieren die Autorinnen und Autoren unter anderem dafür, Mails und Chatnachrichten kryptografisch zu authentifizieren. Nur so könne die Echtheit der Nachricht nachgewiesen werden. Denn die KIs seien sehr gut darin, den Schreibstil einer Person zu imitieren. Die Zeit, wo die Nutzenden Spam an der schlechten Rechtschreibung erkennen konnten, seien vorbei. Zugleich kündigte das BSI eine Handreichung für Verbraucherinnen und Verbraucher an. Laut dem BSI sollten die Sprachmodelle als Werkzeuge gesehen werden. Grundsätzlich müssten Menschen die KI-generierten Texte oder KI-generierten Code auf Richtigkeit überprüfen.