
GenAI
und
Urheberrecht.
GenAI
und
Urheberrecht.
von
Das EUIPO hat eine Studie zur Entwicklung generativer künstlicher Intelligenz (GenAI) aus urheberrechtlicher Sicht veröffentlicht. Welche Auswirkungen hat generative KI auf das Urheberrecht? Wir stellen die Erkenntnisse der Studie vor.
Die Revolution durch generative KI
Künstliche Intelligenz (KI) hat in den letzten Jahren eine rasante Entwicklung genommen. Besonders sogenannte Generative Künstliche Intelligenz (GenAI) – also KI-Systeme, die eigenständig Inhalte wie Texte, Bilder, Videos oder Code erzeugen – steht im Zentrum einer technologischen Zeitenwende. Systeme wie ChatGPT oder Bildgeneratoren wie DALL·E sind heute fester Bestandteil vieler IT-Produkte und -Dienstleistungen.
Doch mit dem Aufstieg dieser Technologie gehen auch erhebliche urheberrechtliche Fragestellungen einher. Was passiert, wenn KI auf geschützte Inhalte zugreift? Dürfen Unternehmen öffentlich verfügbare Daten einfach für das Training ihrer Systeme verwenden? Und wie können Rechteinhaber ihre Werke vor ungewollter Nutzung schützen?
Die EUIPO-Studie „The Development of Generative Artificial Intelligence from a Copyright Perspective“ liefert nach der Studie des BSI eine umfassende technische und rechtliche Analyse für den EU-Raum.
Wie funktioniert GenAI überhaupt?
GenAI-Systeme werden auf riesigen Datenmengen trainiert – z. B. Texten, Bildern oder Code. Diese Daten werden durch sogenannte Text- und Data-Mining-Verfahren (TDM) analysiert und in mathematische Muster (Modelle) überführt. Aus diesen Modellen kann die KI später neue Inhalte generieren.
Diese Trainingsdaten stammen häufig aus dem Internet – viele davon sind jedoch urheberrechtlich geschützt. Das bedeutet: Auch wenn Inhalte öffentlich abrufbar sind, dürfen sie nicht automatisch für KI-Trainings genutzt werden.
Was erlaubt ist – und was nicht
Im EU-Recht spielt insbesondere die Richtlinie über das Urheberrecht im digitalen Binnenmarkt (CDSM-Richtlinie) eine zentrale Rolle. Sie erlaubt unter bestimmten Voraussetzungen das Text- und Data-Mining, unterscheidet aber zwei Fälle:
- Artikel 3 CDSM: TDM für wissenschaftliche Forschung ist privilegiert (z. B. an Universitäten).
- Artikel 4 CDSM: Kommerzielle Nutzer (z. B. Unternehmen) dürfen Inhalte nur dann verwenden, wenn die Rechteinhaber kein Opt-out erklärt haben.
Opt-Out vom Text- und Data-Mining
Unternehmen und Rechteinhaber können ein Opt-out vom Text- und Data-Mining (TDM) gemäß Art. 4 der EU-Urheberrechtsrichtlinie (CDSM-Richtlinie) umsetzen, indem sie die Nutzung ihrer Inhalte technisch oder rechtlich ausschließen. Der Ausschluss muss bei online veröffentlichten Inhalten allerdings mit maschinenlesbaren Mitteln erfolgen. Dies könnte etwa über den Einsatz von robots.txt-Dateien, TDM-Reservierungsprotokollen (TDMRep) oder maschinenlesbaren Metadaten wie „noai“/„noindex“-Tags erfolgen.
Allerdings bestehen erhebliche Unsicherheiten in Bezug auf die Wirksamkeit, Einheitlichkeit und Durchsetzbarkeit solcher Opt-outs. So ist etwa unklar, welche technischen Mittel als „angemessen“ im Sinne der Richtlinie gelten, ob etwa das REP-Protokoll allein genügt. Zudem sind Crawler-Identitäten oft intransparent, und es fehlt bislang ein verbindlicher Standard für maschinenlesbare Opt-out-Erklärungen. Auch bleibt offen, wie Plattformen und Dritte mit dem Opt-out umgehen müssen, insbesondere wenn Inhalte aggregiert oder zwischengespeichert werden.
Mit dem neuen KI-Gesetz (AI Act) verpflichtet die EU außerdem Anbieter sogenannter GPAI-Systeme (General Purpose AI), die Trainingsdaten offen zu legen und sicherzustellen, dass generierte Inhalte als solche erkennbar sind.
Technische und rechtliche Schutzmaßnahmen
Rechteinhaber haben heute mehrere Möglichkeiten, um ihre Inhalte vor ungewollter Nutzung durch KI-Systeme zu schützen:
- Technische Mittel: z. B. Robots Exclusion Protocol (REP), TDMRep, digitale Wasserzeichen, Metadaten-Standards wie C2PA oder ISCC.
- Juristische Maßnahmen: z. B. ausdrückliche Nutzungsbedingungen auf Websites oder Lizenzmodelle mit KI-Entwicklern.
- Kombinationslösungen: Viele setzen auf eine Mischung technischer und rechtlicher Schutzstrategien.
Einheitliche Standards existieren bislang nicht, aber es zeichnet sich ein Trend zur Standardisierung und zu Open-Source-Lösungen ab.
Wer haftet für problematische Inhalte?
Auch die von KI erzeugten Inhalte sind juristisch problematisch. Einige Modelle neigen dazu, Inhalte aus dem Training „wörtlich zu wiederholen“ (Memorisation). Das kann zu verstecktem Plagiat führen.
Die Studie zeigt: Techniken wie Modell-„Unlearning“, Watermarking und Ausgabe-Filter können helfen, solche Risiken zu minimieren. Einige KI-Anbieter bieten mittlerweile vertragliche Freistellungen (Indemnification) an, um Kunden vor etwaigen Haftungsrisiken zu schützen.
Zugleich besteht Bedarf an mehr Transparenz: Der AI Act verlangt, dass Inhalte als KI-generiert erkennbar gemacht werden. Technische Lösungen wie Provenance-Tracking und digitale Signaturen sollen hier künftig helfen.
Chancen nutzen, Risiken kennen – und rechtssicher handeln
Die EUIPO-Studie zeigt deutlich: GenAI ist keine rechtliche Grauzone, sondern ein komplexes Feld, das Technologie und Urheberrecht eng miteinander verzahnt. Unternehmen, die KI einsetzen oder entwickeln, müssen verstehen:
- Inhalte aus dem Internet sind nicht automatisch frei nutzbar.
- Rechteinhaber haben effektive Möglichkeiten zur Reservierung ihrer Rechte.
- Eine klare Strategie für Rechteklärung und Lizenzierung ist essenziell.
- Auch für KI-Ausgaben bestehen rechtliche Risiken – vor allem in Bezug auf mögliche Urheberrechtsverletzungen.
Wer in der IT-Branche tätig ist, sollte sich frühzeitig mit diesen Fragen beschäftigen und bei Bedarf rechtliche Beratung einholen. Denn nur wer rechtssicher handelt, kann das volle Potenzial generativer KI nutzen – ohne böse Überraschungen.
Wir beraten
Sie gerne zu
Fragen zu KI!
