(BS) Bei den Olympischen Spielen 2024 in Paris stehen 13 chinesische Schwimmerinnen und Schwimmer unter Dopingverdacht. US-Basketballer Joel Embiid wird von Teilen des französischen Publikums ausgepfiffen, weil er statt für die USA auch für Frankreich hätte spielen können. Diese beiden unterschiedlichen Geschichten haben eines gemeinsam: Sie gehen mit Hass im Netz einher. Um Athletinnen und Athleten davor zu schützen, setzt das Internationale Olympische Komitee (IOC) Künstliche Intelligenz (KI) ein.
Kirsty Burrows, Leiterin für Safe Sport beim IOC, leitet ein Team, das rund 15.000 Sportlerinnen und Sportler – Olympische Spiele und Paralympics zusammengerechnet – im digitalen Raum schützen will. Dank einer KI, die die großen Social-Media-Plattformen wie Facebook, Instagram und TikTok durchforstet, könnten Anfeindungen und Diskriminierungen „in großer Menge, mit hoher Geschwindigkeit und in Echtzeit“ erkannt werden, so Burrows in einem Interview mit dem International Centre for Sport Studies (CIES). Das Scannen läuft über das sogenannte Natural Language Understanding (Natürliches Sprachverständnis), das die Namen der Olympiateilnehmenden ebenso erkennt wie Begriffe, die der Hassrede zuzuordnen sind. Voraussetzung ist, dass ein Beitrag oder ein Kommentar öffentlich auf dem Kanal einer Athletin oder eines Athleten gepostet wurde. In Chats und andere private Kommunikationskanäle dringt die KI nicht ein.
Die KI entdeckt, der Mensch bewertet
Die von der KI erfassten Daten werden in unterschiedliche Bedrohungsstufen kategorisiert und dann von Burrows und ihrem Team bewertet. Immerhin ist KI noch nicht in der Lage, etwa satirische Beiträge von ernst gemeinten zu unterscheiden. Im besten Fall werden aufgespürte Hass-Postings vom Provider direkt gelöscht. In schweren Fällen werden diese strafrechtlich verfolgt.





