EU-Urheberrecht: Unerfüllbare Sehnsüchte?
Univ.-Prof. Dr. Torsten J. Gerpott analysiert die Haltung der deutschen Politik im aktuellen Urheberrechtsstreit.
Bild: Torsten J. Gerpott/Universität Duisburg-Essen
Am 15. April 2019 verabschiedete der Europäische Rat mit Zustimmung der Bundesregierung die Richtlinie „über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt“. Besonders umstritten ist ihr Artikel 17 zur „Nutzung geschützter Inhalte durch Diensteanbieter für das Teilen von Online-Inhalten“. Er betrifft den Einsatz von „Filtern“ zur Vermeidung illegaler Uploads. Deutsche Politiker argumentieren, dass eine Umsetzung dieser Vorschrift in nationale Gesetze unter Verzicht auf Upload-Filter geboten und möglich sei. Der vorliegende Beitrag analysiert die Haltbarkeit dieser Position. Er kommt zu dem Schluss, dass in Deutschland ein Verzicht auf Programme zum Schutz vor Urheberrechtsverletzungen
auf Upload-Plattformen weder aus gesellschaftlicher Sicht zwingend notwendig
noch juristisch vertretbar ist.
Am 15. April 2019 nahm der Europäische Rat mit Zustimmung der Bundesregierung die Richtlinie über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt“ in einer gegenüber dem Ursprungsvorschlag der Kommission vom 14. September 2016 (COM(2016) 593 final) erheblich weiter entwickelten Fassung an.
Der 86 Erwägungsgründe und 32 Artikel umfassende Rechtsakt zur Modernisierung des EU-Urheberrechts angesichts der Entwicklung digitaler Netze und Endgeräte war und ist politisch hoch umstritten.
Er wurde zwar am 26. März 2019 vom Europäischen Parlament in zweiter Lesung mit 348 Ja-Stimmen bei 274 Gegenstimmen und 36 Enthaltungen recht klar angenommen. Ein in der Sitzung zuvor gestellter Antrag, getrennt über einzelne Teile der Richtlinie zu entscheiden, um bestimmte Artikel gezielt zurückweisen zu können, scheiterte jedoch nur knapp (317 Ablehnungen, 312 Zustimmungen und 24 Enthaltungen) und wohl auch deshalb, weil einige Abgeordnete versehentlich gegen ihn stimmten.
Im Zentrum der Debatte stand und steht der mit „Nutzung geschützter Inhalte durch Diensteanbieter für das Teilen von Online-Inhalten“ überschriebene Artikel 17 der Richtlinie.
Artikel 17: Ziel
Univ.-Prof. Dr. Torsten J. Gerpott analysiert die Haltung der deutschen Politik im aktuellen Urheberrechtsstreit.
Bild: Torsten J. Gerpott/Universität Duisburg-Essen
Die Norm verfolgt das Ziel, gewinnorientierte Betreiber großer Online-Plattformen zum Teilen digitalisierter Inhalte (Videos, Fotos, Musik, Texte), die von Privatpersonen oder Organisationen auf der Plattform gespeichert werden, dazu zu motivieren, mit Inhabern von Urheberrechten an solchen Schutzgegenständen Lizenzvereinbarungen abzuschließen. Diese Nutzungsgestattungen sollen wiederum eine angemessene Vergütung der Erschaffer bzw. Rechteinhaber geschützter Werke für den Fall beinhalten, dass sie über die von nicht gewerblich handelnden Personen auf der Plattform abgelegten Dateien öffentlich zugänglich gemacht werden. Artikel 17 Abs. 3 beabsichtigt einen Anreiz zu Lizenzvereinbarungen zwischen Betreibern kommerzieller Upload-Plattformen und Inhabern von Urheberrechten dadurch zu schaffen, dass erstere für sich aus fehlenden Lizenzen ergebende Urheberrechtsverstöße ihrer Privatnutzer „verantwortlich“ sind und sich damit u.a. Schadensersatzforderungen der Rechteinhaber
ausgesetzt sehen können.
Diese Regelung stellt insoweit einen Paradigmenwechsel dar, als dass zuvor Rechteinhaber Schadensersatzforderungen (mühsam) gegenüber jedem einzelnen Nutzer, der ihre Rechte verletzt hatte, geltend zu machen hatten. Hingegen waren Plattformbetreiber gemäß Artikel 14 Abs. 1 der Richtlinie 2000/31/EG für bei ihnen gespeicherte Inhalte gegenüber dem Rechteinhaber im Regelfall nicht verantwortlich.
Artikel 17 Abs. 4: Haftungsausnahmen für Betreiber von Upload-Plattformen
Gemäß Artikel 17 Abs. 4 der neuen Richtlinie können sich Plattformbetreiber von den neu entstandenen Haftungsrisiken unter bestimmten Voraussetzungen befreien. Sie sind dann nicht für unerlaubte Uploads geschützter Werke durch Privatnutzer verantwortlich, wenn sie nachweisen, „alle Anstrengungen unternommen“ zu haben, um die Nutzungsgestattung einzuholen, und um bei Fehlen der Gestattung „nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt“ zu gewährleisten, dass von Rechteinhabern klar bestimmte geschützte Inhalte nicht verfügbar sind. Als zusätzliche Bedingungen für einen Haftungsausschluss bei unerlaubten Uploads von Privatnutzern nennt Artikel 17 Abs. 4 lit. c, dass Plattformbetreiber nach Erhalt eines hinreichend begründeten entsprechenden Hinweises von Rechteinhabern unverzüglich den Zugang zu illegal öffentlich zugänglich gemachten Inhalten zu sperren bzw. sie zu löschen und „alle Anstrengungen“ zu unternehmen haben, um zukünftige unerlaubte Uploads zu verhindern. Diese Auflagen gehen über die „notice and take/ stay down procedure/obligation“ der bislang einschlägigen Vorgaben von Artikel 14 Abs. 1 lit. b der Richtlinie 2000/31/EG hinaus, weil sie von Plattformbetreibern Ex-ante-Maßnahmen zur Vermeidung illegaler und nicht lediglich rasche Reaktionen nach Beschwerden von Rechteinhabern fordern.
Macht der Worte: Upload-Filter statt Starke-Urheber-Technik
Angesichts der enormen Menge der bei marktrelevanten Plattformbetreibern realisierten Uploads – in verschiedenen Presseberichten wird sie für YouTube mit 400 Stunden Videomaterial pro Minute beziffert – ist weitgehend unbestritten, dass solche Unternehmen zur proaktiven Vermeidung von wegen fehlender Lizenzierung unerlaubten Uploads auf den Einsatz von Programmen angewiesen sind, die mittels maschineller Entscheidungsregeln automatisiert anstreben, urheberrechtlich unzulässige Nutzungen geschützter Inhalte zu identifizieren und deren Upload zu verhindern.
Gegner solcher Lösungen zur Wahrung von Schutzrechten tragen vor, dass sie die (Meinungs- und Informations-)Freiheit im Internet in einer von ihrer Nutzen-Kosten-Relation her unverhältnismäßigen bzw. unvertretbaren Weise einschränken und zu einer „automatisierten Zensur im digitalen Raum“ [Link entfernt] führen würden.
Mit diesen Behauptungen ist es ihnen gelungen, zumindest im deutschen Sprachraum die etwaige Risiken solcher Verfahren zur Inhalteklassifikation in den Vordergrund stellende Formulierung „Upload-Filter“ durchzusetzen.
Hingegen haben Befürworter solcher Programme es versäumt, Framing-Effekte zu ihren Gunsten zu erzeugen, weil sie die Diskussion nicht mit Begriffen wie „Starke-Urheber-Technik“ oder „Gute-Urheberschutz-Verfahren“, welche die positiven Aspekte der Lösungen (z.B. Schutz von geistigem Eigentum als ein zentrales Rechtsgut) betonen, geprägt haben.
Nicht zuletzt auch durch ihr geschicktes Framing konnten Kritiker von Software-Systemen zur Vermeidung illegaler Uploads, zahlreiche Bürger und Politiker aller Parteien ganz besonders in Deutschland so mobilisieren, dass die „Zivilgesellschaft“ sich massiv in Demonstrationen, Unterschriftensammlungen, schriftlichen Äußerungen und Beiträgen in den Massenmedien gegen den Einsatz von Schutztechniken zur Wahrung von Urheberrechten auf großen Upload-Plattformen positioniert hat.
Protokollerklärung der Bundesregierung zur EU-Urheberrechtsnovelle
Etliche Politiker hat diese Protestwelle nicht unbeeindruckt gelassen: Abgeordnete aller im Bundestag vertretenden Parteien haben sich in der jüngeren Vergangenheit gegen Upload-Filter auf Online-Plattformen zum Teilen von Inhalten ausgesprochen.
Auch in der Bundesregierung hatte der Meinungssturm Folgen. Ungeachtet ihrer Zustimmung zur EU-Urheberrechtsnovelle im Europäischen Rat fordert sie in einer auf den 15. April 2019 datierten Protokollerklärung zum Ratsbeschluss bei der Umsetzung von Artikel 17 „unionsweit“ Upload-Filter „nach Möglichkeit zu verhindern“ bzw. „weitgehend unnötig zu machen“.
Sie vermittelt damit eine „Vision“, die aus drei Hauptgründen als wirklichkeitsfremd einzustufen ist.
Upload-Filter bereits im praktischen Einsatz
Erstens verkennt sie, dass Betreiber großer Upload-Plattformen wie YouTube mit „Content ID“ bereits seit längerem Softwaresysteme einsetzen, um Uploads von Kinderschutzzielen oder bestimmten Moralvorstellungen zuwider laufenden Inhalten (z.T. unabhängig von der Frage der urheberrechtlichen Zulässigkeit, sie öffentlich zugänglich zu machen) zu verhindern.
Filterungen finden längst statt und die neue Richtlinie eröffnet keine Spielräume, um sie künftig rückgängig zu machen. Ein Indiz dafür, dass der Bundesregierung diese Sachlage eigentlich bewusst ist, aber von ihr nicht offen kommuniziert wird, ist der o.g. Protokollerklärung zu entnehmen: Dort spricht sie sich dafür aus, „die Entwicklung von Open-Source-Technologien mit offenen Schnittstellen ... [zu] fördern“, um zu verhindern, „dass marktmächtige Plattformen mittels ihrer etablierten Filtertechnologie ihre Marktmacht weiter festigen.“
Pauschallizenz kein Ausweg
Zweitens ist insbesondere die von der CDU vertretene Meinung, dass eine Umsetzung von Artikel 17 zumindest in Deutschland ohne Upload-Filter über eine „gesetzlich verpflichtend ausgestaltete Pauschallizenz“ [Link entfernt] möglich sei, rechtlich unhaltbar.
Die neue Richtlinie zum Urheberrecht lässt keinen Raum dafür, dass auf nationaler Ebene sämtliche Inhaber von Schutzrechten dazu gezwungen werden können, Upload-Plattformen (gegen eine Vergütung) Lizenzen zur Verbreitung ihrer Inhalte zu erteilen. Es ist auszuschließen, dass sämtliche Eigentümer kommerziell wertvoller Inhalte (z.B. Netflix) sich mit allen Betreibern von Plattformen zum Teilen von Inhalten auf Lizenzen und Preis(system)e für die uneingeschränkte Distribution ihrer Werke einigen werden. Damit bleibt es aber auch zukünftig unumgänglich, Schutzsoftware einzusetzen, um verbotene Uploads auf diesen Plattformen zu vermeiden.
Ähnlich führt auch eine Umsetzung der in der Protokollnotiz der Bundesregierung enthaltenen Idee, Uploads auf Sharing-Plattformen immer dann als erlaubt zu betrachten, „wenn Nutzer ... mitteilen, dass sie Inhalte Dritter erlaubterweise hochladen“, keineswegs dazu, dass Upload-Filter überflüssig werden. Auch bei diesem Verfahren hat der Plattformbetreiber bei Weigerung von Nutzern eine entsprechende Erklärung abzugeben und für den Fall, dass Nutzer wiederholt falsche Angaben machen, Software einzusetzen, die solche Personen bzw. von ihnen angestrebte Uploads herausfiltert.
Risiko von Overblocking übertrieben
Drittens wird übersehen, dass Betreiber von Upload-Plattformen – anders als etwa chinesische oder russische Staatsorgane – betriebswirtschaftlich kein Interesse daran haben, Upload-Filter für eine dezidiert politisch ausgerichtete „Zensur“ zu verwenden. Die Umsätze der Betreiber aus Werbung, Verkaufsbeteiligungen und anderen Quellen steigen mit der Nutzerzahl und der Verweildauer der Nutzer auf der Plattform. Nutzerzahl und -verweildauer werden wiederum positiv von der Menge, Qualität und Vielfalt der auf der Plattform verfügbaren Inhalte beeinflusst.
Folglich bestehen für die Betreiber starke Anreize, ein bewusstes „Overblocking“ (nach politischen Kriterien) zu vermeiden und sich um Verwendungsgestattungen für besonders attraktive Inhalte zu bemühen.
Hinzu kommt, dass bei einer „scharfen“ Filterung die Zahl der Nutzer steigt, die sich über aus ihrer Sicht zu Unrecht vorgenommene Verweigerungen von Uploads beschweren.
Auf solche Einwände haben Betreiber nach Artikel 17 Abs. 9 dadurch zu reagieren, dass sie maschinelle Entscheidungen durch Mitarbeiter „zügig“ überprüfen lassen. Um die hierdurch entstehenden Personalkosten nicht in die Höhe zu treiben, liegt es für den Betreiber nahe, ihre Schutzsoftware so zu optimieren, dass sie Upload-Wünsche nicht in exzessiver Weise ablehnt.
Schließlich sind auch in verschiedenen Massenmedien gern präsentierte Fälle, bei denen insbesondere Uploads künstlerischer Werke aufgrund technischer Funktionsdefizite von Schutzsoftware verhindert wurden, obwohl keine Verletzung von Schutzrechten vorlag, wenig geeignet, um die Sinnhaftigkeit der Programme komplett zu diskreditieren. Solche Beispiele mögen zwar spektakulär sein. Sie sollten aber nicht über den Mangel an belastbaren empirischen Belegen dafür, dass technisch bedingte Klassifikationsfehler bei einem erheblichen Teil von Uploads auftreten, hinwegtäuschen. Erstaunlicherweise beklagen sich die Kritiker von Upload-Filtern nicht darüber, dass auch die nach der bisherigen Rechtslage geltende „notice and take/stay down obligation“ (s.o.) eine „Zensur“ nicht unmöglich macht: So ist nicht auszuschließen, dass Plattformen dem Begehren von Petenten, hochgeladene Dateien zu sperren oder zu löschen, aufgrund von Softwarefehlentscheidungen entsprechen, obwohl der Upload keine Schutzrechte verletzt.
Im Ergebnis ist festzustellen, dass Gegner von Software zur Wahrung von Urheberrechten – ganz in der Tradition von Protesten gegen die angebliche Bedrohung der Freiheit im Internet durch Vorschriften über die Netzneutralität in der Verordnung (EU) 2015/2120 und durch Zero-Rating-Praktiken von Mobilfunknetzbetreibern – das Risiko eines durch solche Programme ermöglichten politisch motivierten oder technisch bedingten „Overblocking“ klar überschätzen.
Fazit
Alles in allem haben insbesondere die Bundesregierung mit ihrer Protokollerklärung und allgemein die Bundestagsparteien mit ihren jüngsten Verlautbarungen zur EU-Urheberrechtsnovelle die Chance verspielt, selbstbewusst den konkreten gesellschaftlichen Nutzen von Softwarelösungen zum Schutz von Urheberrechten auf Sharing-Plattformen bzw. von Artikel 17 Abs. 4 der Richtlinie zu erklären.
Stattdessen erwecken die politischen Akteure den Eindruck von Duckmäusern, die unter dem Druck der Medien und Straße zuvor noch für tragfähig gehaltene Sachargumente in der Hoffnung abschreiben, so möglichst wenig an Wählerzustimmung zu verlieren. Dies gilt umso mehr, als dass die deutsche Politik in anderen Zusammenhängen (z.B. Netzwerkdurchsetzungsgesetz, Entwurf einer EU-Verordnung zur Verhinderung der Verbreitung terroristischer Inhalte) der Delegation von Filterfunktionen an große Online-Plattformen keineswegs ähnlich fundamental ablehnend gegenübersteht.
Zur Person
Univ.-Prof. Dr. Torsten J. Gerpott leitet den Lehrstuhl für Unternehmens- und Technologieplanung an der Mercator School of Management Duisburg der Universität Duisburg-Essen.