Ab dem 2. August müssen nach der europäischen Verordnung über Künstliche Intelligenz (AI-Act) KI-Modelle mit allgemeinem Verwendungszweck, wie beispielsweise ChatGPT oder Gemini, bestimmte Informationspflichten erfüllen. Die Anbieter sollen dadurch dazu gebracht werden, ihre Systeme nachvollziehbar, vertrauenswürdig und rechtlich sauber zu gestalten.
Kern der Regelung ist die Pflicht für Anbieter, offenzulegen, welche Inhalte sie zum Training ihrer Modelle genutzt haben. Zudem müssen sie dokumentieren, wie ihre Modelle funktionieren, welche Risiken bestehen und wie das europäische Urheberrecht eingehalten wird. Diese Informationen sind künftig öffentlich bereitzustellen – ein Novum in der bisherigen KI-Entwicklung.
Dirk Binding, Bereichsleiter für Digitale Wirtschaft bei der Deutschen Industrie- und Handelskammer (DIHK), räumt gegenüber dem MDR ein, dass Modelle, welche bereits im Einsatz sind, „in der Regel noch bis August 2027 Zeit haben, um sich an die Regeln anzupassen. Das ist eine Übergangsfrist“.
Begleitet werden diese Pflichten durch eine neue Aufsichtsstruktur. Auf EU-Ebene übernimmt das European AI Office die Koordination, in Deutschland wird die Bundesnetzagentur eine zentrale Rolle spielen. Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des Jahresumsatzes.
Unterstützt werden Unternehmen durch einen „Code of Practice“, Leitlinien zur Risikobewertung und Vorlagen für Trainingsdatennachweise, die von der EU-Kommission bereitgestellt wurden. Dennoch ist die Kritik groß: Mehr als 40 Unternehmen – darunter OpenAI, Meta und Google – warnten zuletzt, dass zentrale Standards und Definitionen noch fehlen. Meta verweigert sogar die Teilnahme am EU-Verhaltenskodex.
Trotz dieser Unklarheiten sehen viele Beobachter in der Verordnung einen wichtigen Schritt hin zu einer verantwortungsvollen KI. Ab August ist klar: Wer in Europa KI-Systeme auf den Markt bringt, muss künftig auch erklären, wie sie funktionieren – und womit sie gelernt haben.