Urheberrecht im KI-Zeitalter

Rechtsprechung und ihre Auswirkungen auf die Risikobewertung: Das Urteil GEMA gegen Open AI

Urheberrecht und KI
Aktueller Fall: KI-Modelle des Anbieters Open AI trainieren ohne Lizenz mit urheberrechtlich geschützten Liedtexten.
Startseite » Beiträge zum Thema Datenschutz » Urheberrecht im KI-Zeitalter
Artikel-Metadaten

In diesem Artikel:

  1. Urheberrecht & KI: Landgericht München setzt klare Grenzen
  2. Was war der Streit?
  3. Die Entscheidung des Gerichts
  4. Auswirkungen auf die Praxis
  5. Besonderheiten in der Haftung bei Software as a Service KI-Tools
  6. Risikobewertung
  7. Handlungsempfehlungen

Urheberrecht & KI: Landgericht München setzt klare Grenzen

Am 11. November 2025 hat das Landgericht München I ein Urteil mit Signalwirkung gefällt: Die Nutzung urheberrechtlich geschützter Liedtexte durch den KI-Anbieter OpenAI – konkret durch das Sprachmodell ChatGPT – verstößt gegen deutsches Urheberrecht.

Die Entscheidung betrifft neun bekannte Songs, darunter „Atemlos“ von Helene Fischer und „Über den Wolken“ von Reinhard Mey. Die Texte wurden nicht nur zum Training verwendet, sondern auch auf einfache Nutzeranfragen nahezu wortgleich ausgegeben.

Was war der Streit?

Die GEMA hatte OpenAI verklagt, weil deren KI-Modelle mit urheberrechtlich geschützten Liedtexten trainiert wurden – ohne Lizenz. Die KI war in der Lage, diese Texte auf Anfrage zu reproduzieren. OpenAI berief sich auf die Schrankenregelung des § 44b UrhG (Text und Data Mining), wonach bestimmte Nutzungen zu Analysezwecken erlaubt sind. Das Gericht folgte dieser Argumentation jedoch nicht.

Die Entscheidung des Gerichts

Die 42. Zivilkammer stellte nach der Pressemitteilung zur Entscheidung klar: Sowohl das Training als auch die Ausgabe der Liedtexte durch ChatGPT stellen urheberrechtlich relevante Vervielfältigungen dar. Die Schrankenregelungen des Urheberrechts greifen hier nicht. Die Klage der GEMA war somit in erster Instanz erfolgreich. Für eine genauere Analyse ist die Entscheidung im Volltext nach deren Veröffentlichung noch abzuwarten.

Auswirkungen auf die Praxis

Das Urteil ist noch nicht rechtskräftig. Es liegt nahe, dass OpenAI Rechtsmittel einlegen wird. Unabhängig davon ist die Entscheidung ein Indikator für die Richtung, in die sich die Rechtsprechung entwickeln könnte. Sollte sich diese Auffassung durchsetzen, drohen KI-Anbietern sowie selbstgehosteten KI-Tools erhebliche Haftungsrisiken.

Die Entscheidung betont die hohe Eigenverantwortung der Anbieter solcher Systeme. Der sogenannte „Memorisierungseffekt“ – also die Fähigkeit von KI-Modellen, Inhalte aus dem Training nahezu identisch wiederzugeben – trifft zahlreiche Modelle, die für allgemeine Verwendungszwecke vorgesehen sind.

Dies betrifft nicht nur Musik, sondern auch Bilder und personenbezogene Daten. Auch bei Llama, dem beliebten AI-Modell von Meta, sind Urheberrechtsverletzungen beim Sammeln der Trainingsdaten öffentlich bekannt geworden.

Besonderheiten in der Haftung bei Software as a Service (SaaS) KI-Tools

Einige SaaS-Angebote bieten Freistellungen durch Lizenzvereinbarungen und können so Risiken beim Einsatz für Verantwortliche in Urheberrecht und Datenschutz minimieren, z.B.

  • Adobe Firefly
  • Microsoft 365 Copilot
  • OpenAI Foundation Model in Azure von Microsoft

Die Freistellungen entbinden jedoch nicht von der Verantwortung der Nutzer beim Prompten selbst. Abseits von Forschung und Lehre (§§ 60a, 60c UrhG) und Werken, die unter Creative Commons-Lizenzen veröffentlicht sind, wird unter Zugrundelegung der Rechtsmeinung des LG Münchens eine Nutzung ohne Einwilligung des Rechteinhabers nicht zulässig sein.

Und auch im Datenschutz gilt, dass der Prompt nur dann personenbezogene Daten beinhalten darf, wenn eine Rechtsgrundlage für die Verarbeitung besteht. In der Regel wird nur eine Nutzung mit anonymisierten Daten zulässig sein.

Risikobewertung

Betreibt man ein eigenes KI-System oder greift dazu auf ein SaaS-Angebot zurück, wird sich das Risiko des „Ausfalls der Verfügbarkeit“ durch Rechtsstreitigkeiten erhöhen.

Das bedeutet, sofern das Risiko durch ein Risikomanagement mit den Faktoren Schwere und Eintrittswahrscheinlichkeit erfasst und eingestuft wurde, wird man die Eintrittswahrscheinlichkeit von überschaubar auf substantiell hochstufen müssen:

  • überschaubar = Schaden kann zwar eintreten, aus bislang gemachten Erfahrungen bzw. aufgrund der gegebenen Umstände scheint der Eintritt unwahrscheinlich zu sein
  • substanziell = Schadenseintritt scheint auf Basis bislang gemachter Erfahrungen bzw. aufgrund der gegebenen Umstände zwar möglich, aber nicht sehr wahrscheinlich zu sein

Durch diese Änderung, kann sich das Gesamtrisiko für die Anwendung erhöhen (z.B. von „normale Risiken“ in die Stufe „hohe Risiken“), so dass stärkere Gegenmaßnahmen nötig sind.

Beispielhaft können etwa die Gefährdungsszenarien seitens der Nutzer durch passende Richtlinien entschärft werden. Risiken, die im Modell oder bei dessen Entwicklern liegen, können durch die Multi-Vendorstrategie oder Exitplanung minimiert werden. Risiken gegenüber Anbietern können durch Freistellungsvereinbarungen im Hinblick auf die Schadenshöhe reduzieren werden.

Handlungsempfehlungen

  • Schärfen Sie Ihre KI-Richtlinie: Prüfen Sie, ob Ihre Richtlinien den aktuellen rechtlichen Anforderungen genügen.
  • Prüfen Sie die vertraglichen Regelungen mit den Anbietern Ihrer KI-Tools.
  • Überprüfen Sie, ob Ihre Risikobewertungen zu Ihren IT-Systemen noch aktuell im Hinblick auf Rechtsrisiken durch KI-Systeme sind.
  • Verteilen Sie die Risiken und bevorzugen Sie gemeinschaftlich angebotene KI-Tools wie etwa die Bayern KI.
  • Holen Sie sich KI-Kompetenz ins Haus: Etwa durch spezialisierte Beratung, wie sie die actago GmbH bietet.

Wie die actago GmbH Sie unterstützen kann

Mit einer ganzheitlichen KI-Beratung begleiten wir Sie strukturiert und schlüsselfertig von der Potenzialanalyse bis zur offiziellen Bestellung Ihres KI-Beauftragten und der Sicherstellung der fortlaufenden Compliance. Sorgen Sie damit für Rechtssicherheit und Kompetenz im Umgang mit Künstlicher Intelligenz.

Quellen

Über den Autor

Verlinktes Autorenprofil Kurz
Autorenfoto-Johannes Nehlsen - Leiter der Stabsstelle IT-Recht der bayerischen staatlichen Universitäten und Hochschulen

Johannes Nehlsen

Leiter der Stabsstelle IT-Recht der bayerischen staatlichen Universitäten und Hochschulen