AI-Act in der Praxis

Kennzeichnung von KI-Inhalten

Schaffenshöhe dokumentieren, damit die eigene Leistung nicht entwertet wird.

Der Einzug Künstlicher Intelligenz (KI) in den Workflow-Alltag von Medienschaffenden (oder neudeutsch: „Creators“) ist in vollem Gange, und es ist eine sprunghafte Entwicklung bei Qualität und Quantität der verfügbaren Tools zu verzeichnen. Positive und negative Effekte wirken parallel auf sämtliche untergeordnete Disziplinen und Projektschritte. Gestalter*innen müssen sich ein weiteres Mal neu erfinden und den Umgang mit erdrutschartigen Umwälzungen in ihrem täglichen Betätigungsfeld lernen. Grundlegende Fragen sind dabei noch weitgehend ungeklärt, auch aufgrund der Unüberschaubarkeit der weiteren Entwicklungen und Konsequenzen auf Gesellschaft und Ökonomie.
Ein Schritt in Richtung Transparenz und Neuordnung ist dabei der sogenannte AI Act. Darin enthalten ist die ab 2. August 2026 in Kraft tretende Kennzeichnungspflicht für KI-generierte Inhalte.
Für die Medienschaffenden ist dabei von existenzieller Bedeutung, dass die „Schaffenshöhe“ ihrer Werke, an denen KI beteiligt ist, adäquat ausgewiesen wird, damit die eigene Leistung keine dauerhafte Entwertung erfährt. Daher gewährleistet die Dokumentation der Projektschritte die Nachvollziehbarkeit des Entstehungsprozesses des Werkes.

In der heutigen Kreativlandschaft stehen Creator vor einem Paradoxon: Während generative Tools wie Gemini, Midjourney ungeahnte visuelle Horizonte eröffnen, wächst gleichzeitig die Sorge, dass die eigene Leistung als Medienschaffende(r)/Creator überlagert und entwertet wird. Und die Angst vor dem Vorwurf der Täuschung führt dazu, dass KI-Nutzung oft wie eine „Black Box“ behandelt wird – man nutzt sie intensiv, schweigt jedoch darüber.

Doch dieses Versteckspiel hat ein Verfallsdatum. Mit dem EU AI Act rückt ein regulatorischer Wendepunkt näher, der Transparenz von der Kür zur Pflicht macht. Aber nicht nur der Gesetzgeber, auch Plattformen wie YouTube und Meta implementieren bereits jetzt Standards zur Kennzeichnung synthetischer Medien. Wer heute eine klare Strategie entwickelt, begreift Transparenz nicht als lästiges Übel, sondern als professionelles Statement. Es geht darum, die Rolle vom bloßen Tool-Nutzer zum Bildregisseur weiterzuentwickeln. Eine Kennzeichnung ist kein Geständnis einer Schwäche, sondern der Nachweis von Kontrolle und künstlerischer Souveränität.

Das „Sparkle-Symbol“ (✨) hat sich in unterschiedlicher Ausprägung inzwischen als Symbol für KI etabliert. Es signalisiert dem Betrachter sofort, dass KI-gestützte Prozesse im Spiel waren. Für Medienschaffende (Creators) ist jedoch die präzise Einordnung entscheidend. Der Zusatz „AI assisted compositing“ (hier: in Bezug auf visuelle Bilder oder Elemente) bietet die ideale Abgrenzung zu simplen „One-Click“-Generaten. Diese Formulierung findet sich nicht direkt im relevanten Paragrafen des AI-Acts, sondern stellt eine Empfehlung dar, die auf ausführlichen Recherchen und im Diskurs mit Kolleg*innen und Klient*innen entstanden ist.
Diese Art der Kennzeichnung verdeutlicht, dass die KI lediglich assistiert hat, während die kreative Leitung, das Konzept und die finale Komposition beim Menschen verbleiben. Es ist eine bewusste Entscheidung für die Anerkennung der eigenen „Schöpfungshöhe“. Die KI ist hier das digitale Werkzeug, nicht die/der Urheber*in.
Durch diese Differenzierung bleibt die ästhetische Entscheidung klar den Künstlerinnen und Künstlern zugeordnet. Sie zeigen damit, dass sie nicht die Kontrolle abgegeben, sondern das Instrumentarium erweitert haben. Nach dem Motto: „Meine Werke entstehen in einem mehrstufigen, kuratierten Prozess. Ausgehend von einem festen, künstlerischen Konzept, nutze ich generative KI-Systeme als erweitertes Instrumentarium. […] Die KI fungiert hierbei als digitaler Pinsel in einem hochgradig kontrollierten, kreativen Workflow.“

Der 2. August 2026 ist die kritische Deadline, ab der die Transparenzpflichten des EU AI Acts vollumfänglich greifen. Ab dann müssen KI-generierte Inhalte in der EU klar und sichtbar gekennzeichnet sein, um Täuschungen zu vermeiden.
Während das Gesetz die Pflicht zur Transparenz vorschreibt, ist die folgende, dreistufige Nomenklatur ein mögliches, strategisches Framework für eine professionelle Deklaration:

  1. KI-Unterstützt: Die KI wurde für Recherche, Strukturierung oder Korrektur genutzt (z. B. „Erstellt mit KI-Unterstützung“).
  2. KI-Mitgewirkt: Teile des Inhalts (Fragmente) stammen direkt aus einer KI (z. B. „Teilweise KI-generiert“).
  3. KI-Generiert: Der Inhalt wurde maßgeblich und in seinen Kernbestandteilen von einer KI erstellt.

Wer diese Transparenz proaktiv lebt, sichert sich einen Vertrauensvorsprung. In einer Welt, in der große Plattformen bereits „Authenticity Scores“ o. ä. einführen.

Ästhetik vs. Gesetz – Kennzeichnung muss das Werk nicht ruinieren!

Das Gesetz verlangt eine Kennzeichnung in „geeigneter Weise“. Anstatt einen permanenten Schriftzug im Bild einzublenden, etablieren sich zwei Ebenen der Kennzeichnung:

  • Sichtbare Ebene: Ein kurzes Einblenden (2–3 Sekunden) im Intro oder Outro sowie ein Hinweis in der Videobeschreibung (✨ AI assisted compositing) reichen demnach aus.
  • Technische Ebene (Metadaten): Standards wie C2PA (kryptografische Herkunftsnachweise) und SynthID (unsichtbare Wasserzeichen) sind Optionen für eine Kennzeichnung. Browser und Plattform-Algorithmen können diese Daten auslesen und Ihr Werk als „verifiziert“ und „transparent“ einstufen. Das stärkt die Markenintegrität, ohne die Ästhetik zu stören.

Die Forderung des AI Acts nach einer Kennzeichnung in „geeigneter Weise“ schließt explizit die maschinenlesbare Offenlegung ein. Für Medienschaffende bedeutet dies, dass die Information über den KI-Einsatz nicht nur visuell, sondern auch technisch im Code der Datei verankert sein sollte.

Hierbei spielen zwei Standards eine zentrale Rolle:

  1. IPTC (International Press Telecommunications Council): Der klassische Standard für Bildmetadaten wurde um Felder wie „Digital Source Type“ erweitert, um KI-Generierung (z. B. als „trainedAlgorithmicMedia“) eindeutig zu deklarieren.
  2. XMP (Extensible Metadata Platform): Diese von Adobe entwickelte Plattform ermöglicht es, komplexe Herkunftsnachweise (Content Credentials) direkt in der Datei zu speichern.

(In professionellen Anwendungen werden diese Daten meist automatisch hinzugefügt und können ggf. editiert werden.)

Viele Medienschaffende und digitale Produzent*innen (Creators) blicken besorgt auf ihre bereits veröffentlichten Werke. Aber: Inhalte, die vor dem 2. August 2026 final veröffentlicht wurden („Inverkehrbringen“), müssen in der Regel nicht nachträglich bearbeitet werden. Dennoch gibt es einen Unterschied zwischen dem einmaligen Post und dem „Bereitstellen“ von Inhalten, die Sie auch nach 2026 noch aktiv als Referenz oder Werbung nutzen. Für solche Werke empfiehlt sich ein kurzer Archiv-Disclaimer in der Beschreibung.

Fazit: Mit der Kennzeichnung von KI-Inhalten kann ggf. dokumentiert werden, dass Sie als Medienschaffende(r) die volle Kontrolle über den Prozess behalten haben – von der ersten Prompt-Iteration bis zum finalen Compositing. In einer Ära, die von synthetischen Medien geflutet wird, wird die menschliche Gestaltungshöhe zum wertvollen Gut. Wer seine Methode transparent macht, schützt seine Urheberschaft.

Literaturverzeichnis/Quellen:

Europäisches Parlament & Rat der Europäischen Union. (2024). Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über Künstliche Intelligenz). Amtsblatt der Europäischen Union, L 2024/1689. https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689.

HÄRTING Rechtsanwälte. (2024). Transparenzpflichten in der KI-Verordnung (Art. 50). HÄRTING Wissen. https://haerting.de/wissen/transparenzpflichten-in-der-ki-verordnung/.

Dreyer, S., Lampert, C., & Andresen, S. (2025). Kennzeichnung von bearbeiteten (Influencer-)Fotos: Erforderlichkeit, Wirkung, Regelungsansätze (Arbeitspapiere des Hans-Bredow-Instituts | Projektergebnisse, Nr. 75). Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI). https://doi.org/10.21241/ssoar.99635.

AI Act in practice

Labelling AI-generated content

Document the level of your work so that your own achievements are not devalued.

The integration of Artificial Intelligence (AI) into the day-to-day workflows of media professionals (or, to use the modern term, ‘creators’) is in full swing, and there has been a dramatic increase in both the quality and quantity of available tools. Positive and negative effects are having a parallel impact on all related disciplines and project stages. Creators must once again reinvent themselves and learn to navigate the seismic upheavals in their daily work. Fundamental questions remain largely unanswered, partly due to the unpredictability of future developments and their consequences for society and the economy.
One step towards transparency and reorganisation is the so-called AI Act. This includes a labelling requirement for AI-generated content, which comes into force on 2 August 2026.
For media professionals, it is of existential importance that the ‘creative contribution’ of their works involving AI is adequately documented, so that their own work does not suffer permanent devaluation. Therefore, documenting the project stages ensures the traceability of the work’s creation process.

In today’s creative landscape, creators face a paradox: whilst generative tools such as Gemini and Midjourney open up unimagined visual horizons, there is a growing concern that their own contribution as media professionals or creators will be overshadowed and devalued. And the fear of being accused of deception means that the use of AI is often treated like a ‘black box’ – people use it extensively but remain silent about it.

But this game of hide-and-seek has an expiry date. With the EU AI Act, a regulatory turning point is drawing nearer, making transparency a requirement rather than an option. But it is not just legislators; platforms such as YouTube and Meta are already implementing standards for labelling synthetic media. Those who develop a clear strategy today view transparency not as a necessary evil, but as a professional statement. It is about evolving from a mere tool user to a visual director. Labelling is not an admission of weakness, but proof of control and artistic sovereignty.

The “sparkle symbol” (✨) has now established itself in various forms as a symbol for AI. It immediately signals to the viewer that AI-assisted processes were involved. For media creators, however, precise classification is crucial. The addition of “AI-assisted compositing” (here: in relation to visual images or elements) provides the ideal distinction from simple “one-click” generation. This wording is not found directly in the relevant section of the AI Act, but represents a recommendation that has emerged from extensive research and discussions with colleagues and clients.
This type of labelling makes it clear that the AI has merely assisted, whilst creative direction, the concept and the final composition remain with the human. It is a conscious decision to acknowledge one’s own “level of creativity”. Here, the AI is the digital tool, not the creator.
Through this differentiation, the aesthetic decision remains clearly attributed to the artists. In doing so, they demonstrate that they have not relinquished control, but rather expanded their toolkit. True to the motto: “My works are created through a multi-stage, curated process. Starting from a fixed artistic concept, I use generative AI systems as an extended toolkit. […] The AI functions here as a digital brush within a highly controlled, creative workflow.”

2 August 2026 is the critical deadline from which the transparency obligations of the EU AI Act will take full effect. From then on, AI-generated content in the EU must be clearly and visibly labelled to avoid deception.
Whilst the law mandates transparency, the following three-tiered nomenclature offers a possible strategic framework for a professional declaration:

  1. AI-assisted: The AI was used for research, structuring or proofreading (e.g. “Created with AI assistance”).
  2. AI-contributed: Parts of the content (fragments) originate directly from an AI (e.g. “Partially AI-generated”).
  3. AI-generated: The content was created predominantly and in its core components by an AI.

Those who proactively embrace this transparency secure a head start in terms of trust. In a world where major platforms are already introducing ‘authenticity scores’ or similar measures.

Aesthetics vs. law – labelling need not ruin the work!

The law requires labelling in an “appropriate manner”. Instead of overlaying a permanent text overlay on the image, two levels of labelling are becoming established:

  • Visible level: A brief overlay (2–3 seconds) in the intro or outro, as well as a note in the video description (✨ AI-assisted compositing), is therefore sufficient.
  • Technical level (metadata): Standards such as C2PA (cryptographic proof of origin) and SynthID (invisible watermarks) are options for attribution. Browsers and platform algorithms can read this data and classify your work as “verified” and “transparent”. This strengthens brand integrity without disrupting the aesthetics.

The AI Act’s requirement for labelling in an “appropriate manner” explicitly includes machine-readable disclosure. For media professionals, this means that information regarding the use of AI should be embedded not only visually but also technically within the file’s code.

Two standards play a central role here:

  1. IPTC (International Press Telecommunications Council): The classic standard for image metadata has been expanded to include fields such as “Digital Source Type” in order to clearly declare AI generation (e.g. as “trainedAlgorithmicMedia”).
  2. XMP (Extensible Metadata Platform): This platform, developed by Adobe, makes it possible to store complex content credentials directly within the file.

(In professional applications, this data is usually added automatically and can be edited if necessary.)

Many media professionals and digital creators are looking with concern at their previously published works. However: content that was finally published (‘put into circulation’) before 2 August 2026 generally does not need to be edited retrospectively. Nevertheless, there is a difference between a one-off post and the ‘making available’ of content that you will continue to actively use as a reference or for advertising even after 2026. For such works, a brief archive disclaimer in the description is recommended.

Conclusion: By labelling AI content, you can, where applicable, document that you, as a media professional, have retained full control over the process – from the first prompt iteration to the final compositing. In an era flooded with synthetic media, the level of human creative control becomes a valuable asset. Those who make their methods transparent protect their authorship.

Bibliography/Sources:

European Parliament & Council of the European Union. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689. https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689.

HÄRTING Rechtsanwälte. (2024). Transparency obligations in the AI Regulation (Art. 50). HÄRTING Knowledge. https://haerting.de/wissen/transparenzpflichten-in-der-ki-verordnung/.

Dreyer, S., Lampert, C., & Andresen, S. (2025). Labelling of edited (influencer) photos: Requirements, impact, regulatory approaches (Working Papers of the Hans Bredow Institute | Project Results, No. 75). Leibniz Institute for Media Research | Hans Bredow Institute (HBI). https://doi.org/10.21241/ssoar.99635.