Zuletzt aktualisiert am 25. Juli 2024
Muss man KI generierte Inhalte kennzeichnen?
Gleich vorweg: Dieser Text ist eine Gemeinschaftsarbeit. Ich, die menschliche Autorin, habe den Text mit freundlicher KI-Unterstützung (ChatGPT und Microsoft Copilot) erstellt. Die beiden Tools haben mir zum Beispiel dabei geholfen, eine ansprechende Überschrift zu formulieren, passende Fragestellungen zu finden, die Rechtschreibung zu überprüfen und ja, auch ganze Absätze zu formulieren.
Sie wissen jetzt also Bescheid. Und mit Sicherheit ist dies nicht der erste Text, den Sie lesen, der mit oder ohne Ihr Wissen teilweise oder komplett durch eine KI erstellt wurde. Aber hätte ich Ihnen diese Information überhaupt mitteilen müssen? Genau darum geht es in diesem Beitrag.
Wir, also die KI und ich, haben in diesem Artikel für Sie zusammengefasst, was genau es derzeit bei der Kennzeichnung von KI-generierten Inhalten zu beachten gibt, was der beschlossene EU AI Act künftig ändern wird und wie man KI-generierte Bilder und Texte kennzeichnen kann.
Tipp: Besuchen Sie unsere kostenfreien Online-Veranstaltungen zum Thema KI- und Urheberrecht:
11. Dezember:
KI-generierte Texte
Muss ich Texte, die von einer KI erstellt wurden, als solche kennzeichnen?
Meine beiden Co-Autoren sind sich einig: Ich MUSS laut ChatGPT und Copilot nicht darauf hinweisen, dass Sie mir bei der Erstellung der Texte unter die Arme gegriffen haben. Beide Tools weisen jedoch darauf hin, dass ich alle Fakten prüfen soll. Außerdem wird aus Transparenzgründen von beiden Tools empfohlen, auf die Unterstützung durch KI hinzuweisen. Vorbildlich!
Screenshots der Anfragen an ChatGPT (3.5) und Microsoft Copilot (März 2024)
Aber sagen die Tools hier die Wahrheit?
Ja. Wenn Sie die KI nutzen, um Texte zu erstellen, müssen Sie dies als Nutzer:in nicht zwangsläufig kennzeichnen. Der im Mai im EU-Parlament beschlossene AI Act regelt, welche KI-generierten Texte und Bilder als solche eindeutig gekennzeichnet werden müssen (mehr dazu weiter unten im Text). Die Verordnung trat am 1. August 2024 in Kraft und ist – bis auf einige Ausnahmen – 24 Monate nach ihrem Inkrafttreten uneingeschränkt anwendbar.
Kein Urheberrecht für KI-generierte Texte
Und jetzt die schlechte Nachricht: Leider sind Ihre KI-generierten Texte (noch) nicht durch das Urheberrecht geschützt. Denn eine Künstliche Intelligenz kann nicht als Urheber von Werken gelten, da dies ausschließlich menschlichen Schöpfer:innen vorbehalten ist. Selbst der Mensch, der die KI mittels eines Prompts dazu auffordert, einen Text zu erstellen, wird nicht automatisch zum Urheber des resultierenden Produkts. Dies führt dazu, dass KI-generierte Texte (und Bilder) uneingeschränkt kopiert und erneut veröffentlicht werden dürfen. Diese Regelung könnte insbesondere für PR- oder Werbeagenturen problematisch sein, die künstliche Intelligenz nutzen, um maßgeschneiderten Content zu generieren. Diese Agenturen müssen damit rechnen, dass ihre kreativen Schöpfungen durch Dritte ohne rechtliche Konsequenzen reproduziert werden dürfen.
KI-generierte Bilder
Welchen Vorteil haben KI-generierte Bilder?
Vor allem die Kolleginnen und Kollegen im Marketing kennen es: Wenn es darum geht Blogartikel, Kampagnen oder Social-Media-Beiträge zu illustrieren, hat man im eigenen Archiv nicht immer die passenden Bilder parat. Also werden die üblichen Bilddatenbanken nach geeignetem Material durchforstet. Doch leider zeigt sich schnell: Die Auswahl ist begrenzt und oft sehr einseitig. Unsere Redaktion stöbert immer wieder durch die gängigen Datenbanken und staunt über die skurrilen Stockfotos von extrem fröhlichen (oder je nach Kontext: extrem ärgerlichen oder sehr verwirrten) Büroangestellten in „Team-Meetings“. Auch wer regelmäßig Beiträge zu Themen wie „Digitalisierung“ oder „Künstliche Intelligenz“ bebildern möchte, weiß schon vor der Suche, dass die Auswahl vor allem von „digitalen Netzen“, Gehirnen in jeder Form und Robotern dominiert wird. Schnell entwickelt man ein Auge für die Stockbilder und entdeckt sie bald überall: auf anderen Websites, in den Social-Media-Kanälen, auf Flyern oder digitalen Anzeigen.
Und genau hier liegt ein großer Vorteil von KI-generierten Bildern: Die Technologie ermöglicht die schnelle Erstellung hochwertiger visueller Inhalte für verschiedene Anwendungen, von Marketing über Design bis hin zur Filmproduktion. Und das Beste daran: Die Inhalte sind einzigartig und mit dem richtigen Tool und Prompt können Sie qualitative und kreative Inhalte erzeugen.
Tipp: Wie Sie das Beste aus den KI-Tools herausholen, erklärt Ihnen unser Artikel: So schreiben Sie perfekte Prompts für ChatGPT & Co. für bessere Bilder und Texte!
Kennzeichnungspflichtig: Muss ich angeben, wenn Bilder KI-generiert sind?
Nein.
Die Kennzeichnung von KI-generierten Bildern ist ein Thema, das zunehmend an Relevanz gewinnt. Klare Richtlinien, ob und wie solche Bilder als KI-generiert erkennbar gemacht werden sollen, sind entscheidend für die Transparenz gegenüber den Betrachtenden. Dies trägt nicht nur zur Wahrung der Authentizität bei, sondern ermöglicht auch eine bewusste Entscheidung des Publikums im Umgang mit digitalen Inhalten.
Die rechtliche Pflicht zur Kennzeichnung von KI-generierten Bildern ist derzeit noch nicht einheitlich geregelt. In vielen Ländern gibt es jedoch Bestrebungen und Diskussionen darüber, Transparenzrichtlinien für den Umgang mit KI und durch den durch sie generierten Inhalten zu schaffen.
In Deutschland beispielsweise ist die Kennzeichnung von KI-generierten Inhalten derzeit nicht ausdrücklich gesetzlich vorgeschrieben. Allerdings könnten bestehende Regelungen zum Verbraucher:innenschutz und zur Irreführung möglicherweise Anwendung finden. Es wird empfohlen, die Nutzenden über die Verwendung von KI-generierten Bildern zu informieren, um eine transparente Kommunikation sicherzustellen.
Achtung: Es gelten andere Regeln für „Deepfakes“ und manipulierte Bilder
Deepfakes an sich sind nicht zwangsläufig illegal. Jedoch könnte die Erstellung von Deepfakes, die eine bestimmte Person betreffen, gegen deren Recht am eigenen Bild, das allgemeine Persönlichkeitsrecht oder das Urheberrecht verstoßen. Zudem könnten Handlungen wie Beleidigung, Verleumdung und üble Nachrede im Zusammenhang mit einem Deepfake vorliegen.
Wichtig: Der AI Act gibt zu Deepfakes vor: Diese müssen künftig als solche eindeutig gekennzeichnet werden.
Kurze Erklärung zu Deepfakes
Deepfakes sind manipulierte Medieninhalte, die mithilfe von KI-Technologien erstellt werden. Diese Techniken ermöglichen es, Gesichter und Stimmen in Videos oder Bildern so zu verändern, dass sie täuschend echt wirken. Deepfakes können für verschiedene Zwecke verwendet werden, von kreativen Projekten bis hin zu betrügerischen Aktivitäten. Die Sorge um Deepfakes liegt oft in der potenziellen Täuschung und den damit verbundenen ethischen und rechtlichen Fragen.
Wie kennzeichnet man KI generierte Bilder?
Aus Transparenzgründen kann es auch heute schon sinnvoll sein, Ihre KI-generierten Bilder zu kennzeichnen. Diese Möglichkeiten gibt es:
- Textliche Hinweise: Fügen Sie einen klar verständlichen Text hinzu, der darauf hinweist, dass das vorliegende Bild mithilfe Künstlicher Intelligenz generiert wurde. Dies könnte beispielsweise im Bildtitel oder in der Bildunterschrift erfolgen.
- Wasserzeichen: Ein unaufdringliches Wasserzeichen auf dem Bild selbst kann eine visuelle Kennzeichnung bieten.
- Metadaten integrieren die Informationen über die Generierungsmethode in die Metadaten des Bildes. Diese können von Anwendungen und Plattformen genutzt werden, um automatisch auf die KI-Generierung hinzuweisen.
- Beschreibung in Begleittexten: Erläutern Sie in Begleittexten oder Beschreibungen, dass es sich um ein KI-generiertes Bild handelt. Dies kann beispielsweise in Blogposts, Marketingmaterialien oder Online-Galerien erfolgen.
- Dedizierte Kennzeichnung auf Plattformen: Wenn Sie KI-generierte Bilder auf Social-Media-Plattformen teilen, könnten Sie spezielle Hashtags wie „#KIgeneriert“ oder „#GenerativeKunst“ verwenden, um die Herkunft zu verdeutlichen.
Kennzeichnung von KI-Inhalten auf Social Media
Der Meta-Konzern (Facebook, Instagram und Threads) will zukünftig Bilder, Videos und Audioinhalte, die mithilfe von Künstlicher Intelligenz erstellt wurden, mit einem entsprechenden Hinweis versehen. Bei Video- und Audio-Inhalten liegt die Verantwortung für die Kennzeichnung bei den Uploader:innen selbst. Für fotorealistische Bilder plant Meta die Einführung einer automatisierten Erkennung, um festzustellen, ob die Erzeugnisse von Google, OpenAI, Microsoft, Adobe, Midjourney oder Shutterstock stammen. Die Frage, wie und ob die Kennzeichnung auch für Texte erfolgen soll, bleibt bisher unklar. Laut einem Blogeintrag des Meta-Managers Nick Clegg ist der Grund für die Einführung des KI-Labels der Wunsch der Nutzer:innen nach mehr Transparenz im Zusammenhang mit dieser neuen Technologie. Der kürzlich verabschiedete AI Act der EU sieht ebenfalls Transparenzpflichten für KI-Inhalte vor. Expert:innen gehen außerdem davon aus, dass im US-Wahlkampf vermehrt KI-generierte Inhalte zum Einsatz kommen werden.
Was muss ich bei der Nutzung von KI-generierten Bildern beachten?
Stellen Sie sicher, dass die verwendeten Datenmodelle und Inhalte ordnungsgemäß lizenziert sind -Verletzungen von Urheberrechten oder Persönlichkeitsrechten der Modelle sollten vermieden werden. Klare Vereinbarungen über die Nutzung der generierten Bilder sind entscheidend. Hierfür ist es nötig, die AGBs des Tools zu studieren, dass Sie verwenden.
Achten Sie dabei auf folgende Angaben:
- Mit welchen Bildern wurde die KI trainiert? Gibt es hierzu Angaben?
- Dürfen Sie die Bilder kommerziell nutzen?
Werden die KI-generierten Bilder durch das Urheberrecht geschützt?
Nein.
Im Allgemeinen genießen KI-generierte Bilder von DALL-E, Midjourney oder Adobe Firefly kein Urheberrechtsschutz in Deutschland. Dies liegt daran, dass gemäß dem deutschen Urheberrechtsgesetz nur Werke, die als persönliche geistige Schöpfungen gelten, entsprechenden Schutz erhalten.
Achtung: Ihre KI-generierten Bilder dürfen also, nach bisher geltendem Recht, auch von anderen Personen genutzt werden, da Sie kein Urheberrecht an den Bildern haben.
Der EU AI Act
Was ist der EU AI Act?
Das Europäische Parlament hat mit dem AI Act das weltweit erste Gesetz zur staatlichen Regulierung von Künstlicher Intelligenz beschlossen. Es regelt, wofür KI in der EU verwendet werden darf und unter welchen Bedingungen.
Der AI Act kategorisiert KI-Anwendungen in drei Risikoklassen:
- Hohes Risiko: KI-Systeme, die als „Hochrisiko-Anwendungen“ identifiziert wurden sind solche, die in sensiblen Bereichen eingesetzt werden, die das Leben, die Gesundheit, Bildungschancen, Sicherheit von Produkten, Beschäftigung, Kreditwürdigkeit, Strafverfolgung, Migrationskontrolle und demokratische Prozesse beeinflussen können.
Bevor solche Systeme auf den Markt kommen, müssen sie umfassende Risikobewertungen, hohe Datenqualität, Aktivitätsprotokollierung, detaillierte Dokumentation, klare Nutzerinformationen, menschliche Aufsicht und hohe Robustheit und Genauigkeit aufweisen. - Begrenztes Risiko: bezieht sich auf die potenziellen Gefahren, die mit unzureichender Transparenz bei der Nutzung von Künstlicher Intelligenz (KI) einhergehen. Das KI-Gesetz führt spezifische Transparenzverpflichtungen ein, um sicherzustellen, dass Menschen bei Bedarf informiert werden und Vertrauen in KI-Systeme entwickeln können.
Beispielsweise sollten Nutzerinnen und Nutzer beim Einsatz von KI-Systemen wie Chatbots darauf hingewiesen werden, dass sie mit einer Maschine interagieren. Dadurch können sie eine informierte Entscheidung darüber treffen, ob sie die Interaktion fortsetzen oder abbrechen möchten. Anbieter müssen außerdem sicherstellen, dass KI-generierte Inhalte als solche erkennbar sind. Dies gilt auch für KI-generierten Text, der dazu dient, die Öffentlichkeit über wichtige Themen zu informieren. Audio- und Videoinhalte, die Deepfakes darstellen, müssen ebenfalls als künstlich erzeugt gekennzeichnet werden. - Minimales oder kein Risiko: Das KI-Gesetz gestattet die unbeschränkte Verwendung von KI mit geringem oder keinem Risiko. Hierzu zählen Anwendungen wie KI-unterstützte Videospiele oder Spamfilter. Die überwiegende Mehrheit der aktuell in der EU eingesetzten KI-Systeme fällt in diese Kategorie.
Kennzeichnung von KI-generierten Bildern und Texten nach dem EU AI Act
Der EU AI Act regelt in Artikel 50 die Transparenzverpflichtungen für Anbieter:innen und Nutzer:innen von bestimmten KI-Systemen und GPAI-Modellen. Zu KI-generierten Bildern und Texten finden sich die folgende Passagen:
„Wer ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert, die einen Deep Fake darstellen, muss offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.“
und
„Wer ein KI-System einsetzt, das Text generiert oder manipuliert, der zu dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, muss offenlegen, dass der Text künstlich generiert oder manipuliert wurde.“
„Diese Verpflichtung gilt nicht, […], wenn die KI-generierten Inhalte einer menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.“
Die genannten Passagen des EU AI Act haben wesentliche Auswirkungen auf Nutzer:innen von generativen KI-Anwendungen. Sie betonen die Bedeutung von Transparenz und Verantwortlichkeit beim Einsatz solcher Systeme:
- Transparenz bei Deep Fakes: Nutzende müssen offenlegen, wenn Inhalte durch KI erzeugt oder manipuliert wurden, insbesondere wenn es sich um Deep Fakes handelt. Dies soll sicherstellen, dass die Empfänger der Inhalte über deren künstliche Herkunft informiert sind und Täuschungen vermieden werden.
- Offenlegung bei KI-generierten Texten: Wenn Texte, die von KI-Systemen generiert oder manipuliert wurden, veröffentlicht werden, um die Öffentlichkeit über wichtige Angelegenheiten zu informieren, muss ebenfalls offenbart werden, dass diese Texte künstlich erstellt wurden. Dies dient der Wahrung der Integrität von Informationen und der Vermeidung von Desinformation.
Die wichtigste Einschränkung: Wenn Sie sicherstellen, dass die Texte durch Personen überprüft werden und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt, müssen KI-generierte Texte nach dem AI-Act künftig wahrscheinlich nicht gekennzeichnet werden.
Diese Punkte zielen darauf ab, das Vertrauen in KI-Systeme zu stärken und gleichzeitig die Nutzer:innen und die breite Öffentlichkeit vor potenziellen Missbräuchen oder Irreführungen durch KI-generierte Inhalte zu schützen. Es ist wichtig, dass sowohl Anbietende als auch Nutzende von KI-Anwendungen sich dieser Verpflichtungen bewusst sind und entsprechende Maßnahmen ergreifen, um Compliance zu gewährleisten.
Der AI Act sieht außerdem vor, dass KI-generierte Texte, Bilder, Videos oder Audiodateien durch die Anbieter der KI technisch gekennzeichnet werden müssen (z. B. durch ein Wasserzeichen). Weitere Informationen hierzu finden Sie in unserem Beitrag „AI Act beschlossen: Das müssen Unternehmen jetzt wissen„.
Fazit: KI-generierte Inhalte und die Herausforderung der Kennzeichnung
Die Debatte über die Kennzeichnungspflicht von KI-generierten Inhalten ist komplex. Der Beitrag zeigt, dass es derzeit keine gesetzliche Verpflichtung gibt, solche Inhalte zu kennzeichnen. Mit dem EU AI Act wird sich das aber künftig ändern. Besonders interessant ist die Betrachtung von KI-generierten Texten und Bildern im Kontext von Transparenz und rechtlicher Absicherung.
Fest steht: Wir halten Sie auf dem Laufenden!
Text: Christel Schmuck
Besuchen Sie unser nächstes großes Event in Berlin:
Mit Kopf und KI – smartes Wissensmanagement in Unternehmen
Verabschieden Sie sich von Wissenssilos und erfahren Sie, wie Sie Ihr Unternehmen zukunftssicher aufstellen! Am 22. Januar 2025 laden wir Sie herzlich ein, innovative Wege im Wissensmanagement zu entdecken – mit praktischen Lösungen und der Unterstützung Künstlicher Intelligenz.