Transparenzpflichten für KI-Inhalte: Was wirklich im AI Act steht

Ab dem 2. August 2026 gelten die Transparenzpflichten des EU AI Act (KI-VO) und das betrifft natürlich auch uns Contentprofis. Rund um dieses Gesetz kursieren allerdings diverse Falschinformationen. So habe ich gerade neulich wieder die Behauptung gesehen, dass künftig ausnahmslos alle KI-generierten Inhalte eine Kennzeichnung benötigen. Das aber ist, kurz gesagt, Quatsch. Das Gesetz fordert das keineswegs so pauschal.

Dieser Artikel bringt dir hoffentlich mehr Klarheit für deinen Content-Alltag. Ich schaue mir darin den Artikel 50 des Gesetzestextes genau an und erkläre, welche Regeln für die Content-Erstellung mit Künstlicher Intelligenz wirklich gelten.

Außerdem gehe ich darauf ein, dass es bei diesem Thema nicht nur um Rechtsfragen geht. Es hat auch eine ethische Komponente.

Hinweis zu Rechtsthemen

Ich bin kein Rechtsanwalt. Dieser Artikel zeigt dir auf, was im Gesetzestext steht und erklärt, was diese Formulierungen aus meiner Sicht bedeuten. Er stellt aber keine Rechtsberatung dar, kann nicht auf spezifische Einzelfälle eingehen und übernimmt keine Gewähr für die hier gemachten Aussagen. Außerdem solltest du beachten, dass neue Gesetze immer Grauzonen aufweisen. Mehr dazu unten. Im Zweifel konsultiere immer einen Anwalt.

Die wichtigste Regel für Texte

Schauen wir uns als erstes an, was das Gesetz zu Texten sagt. Hier ist Absatz 4 von Artikel 50 entscheidend. Dort steht zunächst eine scheinbar klare Grundregel: Wer KI nutzt, um Texte zu erzeugen oder zu verändern, und diese veröffentlicht, muss das offenlegen. Das gilt für Texte, die die Öffentlichkeit über „Angelegenheiten von öffentlichem Interesse“ informieren sollen.

Genauer gesagt steht dort:

„Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.“

Eine Klarstellung: Im Juristendeutsch sind wir „Betreiber eines KI-Systems“, wenn wir Angebote wie ChatGPT, Gemini, Claude usw. nutzen. Müssen wir nun alles kennzeichnen? Nein, denn das Gesetz formuliert für diese Offenlegungspflicht eine entscheidende Ausnahme. Die findest du im Satz, der direkt auf das obige Zitat folgt:

„Diese Pflicht gilt nicht, (…) wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.“

Übersetzt in alltägliches Deutsch heißt das: Du musst den Einsatz der KI nicht kennzeichnen, wenn zwei Bedingungen erfüllt sind. Erstens muss der Text durch Menschen überprüft und kontrolliert werden. Zweitens muss eine Person oder ein Unternehmen die redaktionelle Verantwortung für die Veröffentlichung tragen.

Mit anderen Worten: Die bisweilen falsch zitierte „Pflicht zur Kennzeichnung“ zielt auf vollautomatisiert erstellte Texte. Den Lesenden soll in diesem Fall deutlich gemacht werden, dass die Fakten und Aussagen ohne menschliche Aufsicht von einer Maschine erzeugt wurden.

Für den Content-Alltag bedeutet das eine Entwarnung: Wenn du einen KI-generierten Entwurf liest, ihn redigierst und Informationen überprüfst, entfällt die rechtliche Pflicht zur Kennzeichnung. Zugleich bist du aber für solche KI-Inhalte ebenso verantwortlich wie für alle anderen Veröffentlichung auch. Das kannst du nicht auf den Anbieter des KI-Werkzeugs abschieben.

Regeln für Bilder, Video und Audio

Während das Gesetz also bei Texten viel Spielraum für Redaktionen lässt, sind die Vorgaben bei visuellen und auditiven Inhalten auf den ersten Blick strenger. Auch hier liefert der Absatz 4 von Artikel 50 die Grundlage. Im ersten Teil heißt es dazu:

„Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.“

Eine redaktionelle Ausnahme, wie wir sie oben bei Texten gesehen haben, gibt es nicht. Es ist in diesem Fall also irrelevant, ob eine Person oder Redaktion dahinter steht und die Verantwortung übernimmt.

Musst du deshalb nun alle KI-erzeugten Bilder, Videos und Audio-Dateien kennzeichnen? Auch hier gilt: Nein, nicht ausnahmslos. Das zentrale Wort ist „Deepfake“. Laut der Begriffsdefinitionen zum AI Act meint dieses Wort …:

„… einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde“

Auf den Punkt gebracht: Es geht dem Gesetzgeber hier offenbar primär um die Gefahr der Täuschung.

Ein Beispiel für diese Interpretation: Du schreibst einen Text für die Tourismuswebsite eines Badeortes und lässt die KI ein Strandfoto generieren. Dann musst du das kennzeichnen, weil das Bild nicht die Wirklichkeit wiedergibt, aber auf deine Leserschaft so wirken könnte. Schreibst du hingegen einen Ratgeberartikel für Urlauber und nutzt ein KI-generiertes Strandfoto rein zu illustrativen Zwecken, entfällt diese Pflicht.

Ein anderes Beispiel: Du arbeitest für einen Modeshop und lässt KI-Bilder generieren, in denen fiktive Modelle die angebotenen Kleidungsstücke tragen. Das musst du kennzeichnen, da diese Bilder echt aussehen können, aber nicht die Wirklichkeit wiedergeben. Erstellst du hingegen ein Prospekt für einen Supermarkt und nutzt ein KI-Bild für Weintrauben, ist das nicht notwendig. Es ist schließlich nur eine symbolhafte Darstellung. Niemand erwartet, dass die Weintrauben im Geschäft exakt so aussehen wie im Produktbild.

Es gibt zugleich eine wichtige Sonderregel für künstlerische Formate. Das Gesetz formuliert das so:

„Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die in diesem Absatz festgelegten Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.“

Das bietet dir bei kreativen Projekten also eine gewisse Freiheit. Wenn du ein satirisches Video oder ein Kunstwerk erschaffst, musst du die Nutzung von KI zwar transparent machen. Du bist aber nicht gezwungen, das Bild mit einem riesigen Warnhinweis zu versehen. Ein dezenter Hinweis im Abspann, in den Metadaten oder in der begleitenden Bildbeschreibung sollte in solchen Fällen ausreichen.

Kennzeichnungspflichten gibt es nicht nur in Gesetzen

Beachte bitte, dass eine Kennzeichnungspflicht auch aus anderen Gründen bestehen kann. So haben es manche KI-Anbieter eventuell in den Nutzungsbedingugen vermerkt. Oder du postest deinen Inhalt auf einer Plattform wie TikTok, Instagram oder LinkedIn, die eigene Regeln haben können. In diesem Artikel geht es allein um den AI Act (KI-VO). Entsprechend beziehen sich alle Aussagen nur auf den Gesetzestext.

Was die Tool-Anbieter leisten müssen

Bisher haben wir vor allem über uns als Anwender gesprochen (die „Betreiber“ der KI-Tools). Der AI Act nimmt aber auch die Entwickler der KI-Modelle selbst in die Pflicht. Diese werden als „Anbieter“ bezeichnet. Deren Aufgaben regelt Absatz 2 von Artikel 50.

Dort heißt es:

„Anbieter von KI-Systemen (…) stellen sicher, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.“

Unternehmen wie OpenAI oder Midjourney müssen ihre Systeme also so entwickeln, dass die generierten Inhalte unsichtbare Metadaten oder digitale Wasserzeichen enthalten. Diese sollen maschinell auslesbar sein, um KI-Inhalte auf technischer Ebene erkennbar zu machen.

Für dich als Content-Profi leitet sich daraus ein Hinweis für die Praxis ab, sofern du auf der sicheren Seite sein willst: Du solltest darauf achten, ob die von dir genutzten Werkzeuge diese Vorgabe erfüllen. Bei Open-Source-Modellen, die du unter anderem auf Kreativplattformen findest, könnte das etwa eine Schwachstelle sein. Wer die Inhalte veröffentlicht, trägt die Verantwortung dafür. Fehlt die technische Kennzeichnung, könnte das problematisch sein.

Absatz 2 enthält am Ende aber auch eine Ausnahme:

„Diese Pflicht gilt nicht, soweit die KI-Systeme eine unterstützende Funktion für die Standardbearbeitung ausführen oder die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern (…)“

Das bedeutet: Wenn du eine KI lediglich als Assistenz nutzt, um bspw. Tippfehler zu finden, einen Satz flüssiger zu formulieren oder die Helligkeit eines Fotos anzupassen, fallen diese Tätigkeiten sehr wahrscheinlich nicht unter die Transparenzpflichten.

Die unvermeidlichen Grauzonen

Wie bei jedem neuen Gesetz gibt es auch beim AI Act Formulierungen mit Interpretationsspielraum. Klare Grenzen und Regeln werden sich erst in der juristischen Praxis herausbilden. Für uns Contentprofis bedeutet das vorerst, mit gewissen Grauzonen zu leben.

Mir ist da etwa der Begriff das „öffentlichen Interesses“ aufgefallen, wenn es um Texte geht. Definiert wird der im Gesetzestext nicht. Ist damit alles gemeint, was nicht intern ist? Oder sind damit nur besonders wichtige Informationen erfasst, etwa zu Gesundheits- und Finanzthemen? Nehmen wir einmal einen Blogpost auf einer Unternehmensseite als Beispiel oder einen Fachbeitrag in einem Branchenmagazin: Fallen die auch unter „öffentliches Interesse“? Und wo liegt hier die Grenze?

Eher schwammig erscheint mir auch das Thema der Täuschung bei „Deepfakes“. Wann könnte ein Video, ein Bild oder eine Tonaufnahme „einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen“? Und ab wann ist das überhaupt ein Problem?

Außerdem spricht das Gesetz von einer „Standardbearbeitung“. Diese ist erlaubt, solange sich die Bedeutung eines Textes oder Bildes nicht „wesentlich“ verändert. Aber diese Grenze ist natürlich fließend, wie wir alle wissen. Die Korrektur von Rechtschreibfehlern erscheint mir als unproblematisch. Wenn eine KI aber einen Absatz umformuliert und dabei inhaltliche Nuancen anpasst, ist das dann bereits eine „wesentliche“ Veränderung?

Das Büro für Künstliche Intelligenz der EU soll Praxisleitfäden ausarbeiten, die hoffentlich solche und andere Fragen beantworten. Diese Dokumente werden im Idealfall detaillierte Beispiele liefern, wie die Regeln im Arbeitsalltag umzusetzen sind. Bis diese Leitfäden erscheinen, ist bei der Auslegung vor allem gesunder Menschenverstand gefragt. Und wie so oft ist es besser, im Zweifel vorsichtiger zu sein als es unbedingt nötig erscheint.

Transparenz als ethische Entscheidung

Der rechtliche Rahmen des AI Act ist aber sowieso nur die eine Seite der Medaille. Das Thema Transparenz hat für mich außerdem eine ethische Dimension: Solltest du KI-Inhalte nicht der Ehrlichkeit halber immer kennzeichnen, selbst wenn es das Gesetz nicht erfordert?

In der Content-Branche sehen wir uns an dieser Stelle leider mit einem Dilemma konfrontiert. Denn einerseits fühlt sich ethisches Verhalten natürlich ganz ausgezeichnet an. Wir tun „das Richtige“. Andererseits reagieren viele Personen allergisch auf das Thema KI. Alles, was mit Maschinenhilfe erstellt wurde, wird dann als wertloser „Slop“ abgetan, egal wie viel Zeit, Mühe und Engagement hineingeflossen ist.

Entsprechend groß ist die Versuchung, die künstliche Hilfe zu verheimlichen. Das halte ich jedoch für den falschen Weg. Das gilt besonders dann, wenn Inhalte fast ausschließlich maschinell erstellt werden.

So halte ich es selbst: Beispiel Smart Content Report

Am konkreten Beispiel: Ich stecke viel Energie und Leidenschaft in den Smart Content Report. Diese Website und der Newsletter kosten mich etliche Stunden im Monat. Ohne KI-Hilfe wäre ich nicht im Stande, dieses Angebot umzusetzen.

Es ist sehr verlockend, diesen KI-Einsatz einfach zu verschweigen, alles unter meinem eigenen Namen erscheinen zu lassen oder einige fiktive Autorinnen und Autoren hinzuzufügen, damit es nicht so offensichtlich ist.

Stattdessen habe ich mich für Transparenz entschieden, auch wenn viele dadurch meine Arbeit als „Slop“ abtun werden.

Deshalb gibt es auf dieser Seite zwei Autorennamen:

Meinen eigenen Namen liest du dort, wo ich die Federführung für einen Inhalt hatte. Das gilt zum Beispiel für diesen Beitrag. Google Gemini hat mich beim Schreiben unterstützt, aber der Löwenanteil der Arbeit stammt von mir. Ich habe umformuliert, ergänzt, geleitet und auch korrigiert: Gemini hatte etwa im Abschnitt zu Bild, Video und Audio das Wort „Deepfake“ im Gesetzestext ignoriert und nicht gleich verstanden, dass die strengen Regeln nur unter bestimmten Umständen gelten. Das war ein perfektes Beispiel dafür, warum menschliche Aufsicht so wichtig ist.

Das Kürzel „SCR“ kommt hingegen zum Einsatz, wenn die KI einen zentralen Teil der Arbeit leistet. Ich wähle die Themen, aber die KI schreibt die erste Version des Textes. Ich kontrolliere und überarbeite,  erledige alle manuellen Handgriffe wie etwa die Tags. Ich bestimmte die Überschrift.

In der Autorenbeschreibung wird das so erklärt:

„Artikel mit dem Autornamen SCR wurden mit KI-Hilfe erstellt. Jan Tissler wählt die Themen manuell aus. Jeder Beitrag wird von ihm vor der Veröffentlichung kontrolliert und bearbeitet. Er übernimmt die volle redaktionelle Verantwortung für die Inhalte.“

Laut AI Act müsste ich das nicht offenlegen. Ich tue es aber trotzdem.

Außerdem kannst du exakt nachlesen, wie ich diese Website erstelle und welche Prompts ich nutze.

Ich hoffe, dass sich diese Ehrlichkeit kombiniert mit meiner Leidenschaft für das Thema am Ende durchsetzt. Und falls das nicht der Fall sein sollte, bleibt mir dennoch ein entscheidender Trost: Ich kann mir weiterhin mit einem guten Gefühl selbst in die Augen sehen.

Über den Autor

Mehr zum Thema:

Bleib up-to-date:

Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (3. Ausgabe, Januar 2026)

Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklich gewinnbringend für deine Arbeit ein?

Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.

Mehr Informationen