zum Inhalt springen

Aktuelles

17.08.2015

Bericht zur Jahrestagung der Institute für Rundfunkrecht und Rundfunkökonomie am 19.06.2015 in Köln

Media Bias im Internet – Tendenzfreiheit und Vielfalt von Medien(inhalten) – Aktuelle Phänomene, Entwicklungen, ökonomische Analyse, rechtliche Regulierung

Bias bezeichnet eine subjektiv verzerrte, befangene Perspektive, die bei medialen Inhalten problematisch erscheint, wenn sie zu Vielfaltsverengungen führt und wenn sie das Ergebnis nicht offenbarter Fremdeinflüsse ist. Zu dem Phänomen veranstaltete das Institut für Rundfunkrecht an der Universität zu Köln gemeinsam mit dem Institut für Rundfunkökonomie der Universität zu Köln im Juni 2015 eine Tagung, in deren Rahmen das Ausmaß von Media Bias bei Internetdiensten phänomenologisch diskutiert wurde, um Entwicklungen in ökonomischer, journalistischer und juristischer Hinsicht nachzuzeichnen und ggf. Lücken oder Fehlsteuerungen in der Regulierung aufzudecken.

Das Medienrecht hat einen Ordnungsrahmen formuliert, der dafür sorgen soll, dass Meinungsbildung frei, ohne Einfluss von Täuschungen oder Manipulationen gelingen kann. Dazu gehören etwa die Trennung und Kennzeichnung von Werbung und Programm, der Schutz der redaktionellen Freiheit der Veranstalter, die Garantie der Staatsferne des Rundfunks, der Schutz einer freien Presse nicht nur vor staatlicher, sondern auch vor wirtschaftlicher Einflussnahme auf die Inhalte.

Der Justiziar der Bayerischen Landeszentrale für neue Medien, Professor Roland Bornemann, erläuterte den Regelungsrahmen für sog. journalistisch-redaktionelle Telemedien, um die es vielfach (z.B. bei Wikipedia oder manchen YouTube-Angeboten) geht. Der Regulierungsrahmen soll dafür sorgen, dass anerkannte journalistische Grundsätze gelten sowie eine Nachrichtenprüfung auf Inhalt, Herkunft und Wahrheit erfolgt. Dies gilt auch für den „Laienjournalismus“. Die von Bornemann gezeigten Beispiele diverser YouTube oder Instagram-Angebote demonstrierten allerdings das hohe Beeinflussungspotential aufgrund der typischen Identifikation Jugendlicher mit den auf den Sozialen Medien agierenden „Stars“ und die dünne Linie zwischen Verbraucherberatung, Produktplatzierung und einseitiger Anpreisung mit Grenzübertritt zur Schleichwerbung. Die zersplitterte Regelung der Aufsicht über Telemedien, die keineswegs bundesweit in der Hand der problemsensiblen Medienanstalten liegt, verstärkt die Gefahren, die durch ohnehin bereits unklare gesetzliche Abgrenzungen geschaffen wurden.

Der Blick auf die Nachbardisziplinen zeigte schnell, dass Verzerrungen nicht kommerziell motiviert sind. Professor Dr. Gabriele Siegert vom Institut für Publizistikwissenschaft und Medienforschung der Universität Zürich sah als Ursachen für Verzerrungen zudem politische, berufsbedingte, technologische und kulturelle Einflüsse, die einzeln oder kumuliert den Verständnishorizont des Rezipienten beeinflussen. Verzerrungen würden allerdings erleichtert durch das ökonomisch getriebene Bedürfnis nach einer werbefreundlichen oder werbeaffinen Präsentation von Themen („Native Advertising“), eine gesuchte personalisierte Ansprache (werbe-)attraktiver Zielgruppen, die Hervorhebung konflikt- und machtbezogener Themen in leicht visualisierbarer und kostenschonender Form. Bei Internetangeboten hätten ökonomische Einflüsse (neue Wettbewerber) und technologische Einflüsse (algorithmische Selektion) ein besonderes Gewicht. Neue Einflussfaktoren sei das Auftreten von „Trollen“ (provokative, destruktive und hetzerische Akteure), insbesondere auch Personen, die im Auftrag Dritter verzerrend kommunizieren und damit klassisches Spin-Doctoring betreiben („Petersburger Troll-Fabrik“, getarnte Portalbewertungen oder -empfehlungen). Weitere neue Phänomene sind die gezielte Suchmaschinenoptimierung sowie die Versuchung von Suchmaschinenbetreibern, durch die von ihnen eingesetzten Algorithmen und Dienste Bevorzugungen vorzunehmen. Es gehe zum Teil um alten Wein in neuen Schläuchen, nämlich um für die Medienwelt typische Mechanismen schneller, einfacher Vermittlung von Inhalten mit Fortsetzungspotential und hoher Reaktivität bei kostengünstiger Produktion. Neu seien die Einflüsse algorithmischer Selektion und Bewertung sowie die Möglichkeit zur schnellen Nutzung und Verbindung großer Datenmengen (Big Data). Im Internet liege die entscheidende Herausforderung darin, „zum relevanten Datenbestand“ zu gehören („to be or not to be in the Data Set“).

Professor Dr. Johannes Münster, Institut für Rundfunkökonomie der Universität zu Köln, bestätigte aus volkswirtschaftlicher Sicht, dass Verzerrungen politisch und ökonomisch motiviert sein können, aber zusätzlich aus einer Art Weichspüler-Effekt (Softness Bias) in der medialen Darstellung resultieren. In der volkswirtschaftlichen Forschung spiele die Untersuchung von Verzerrungen eine wachsende Rolle, man unterscheide inhalts-, publikums- und wirkungsbasierte Methoden. Inhaltsbasierte Untersuchungen haben Evidenz dafür ermittelt, dass das U.S.-Portal Wikipedia, das Wert auf einen neutralen Standpunkt legt, einen leichten Bias zu den Positionen der demokratischen Partei zeigt. Publikumsbasierte Untersuchungen haben gezeigt, dass Internetdienste ein liberaleres Publikum als traditionelle Medien haben, politische Extreme aber stärker polarisiert werden und Diskussionsgruppen sehr viel höher (ideologisch) segregiert sind als dies in den meisten Offline-Medien der Fall ist. Andererseits aber ist die ideologische Segregation online niedriger als in alltäglichen Interaktionen beispielsweise im Wohnumfeld. Die vertikale Produktdifferenzierung bei Nachrichtenseiten, wird dafür ebenso verantwortlich gemacht wie das gezielte politische Interesse der solche Seiten aufsuchenden Internetnutzer. Wirkungsbasierte Untersuchungen im Bereich kommerzieller Verzerrungen haben bereits für die klassische Medienwelt gezeigt, dass Werbetreibende Reality und Comedy im Fernsehen bevorzugen, weil die Aura des Leichten auf das Produkt abfärbe. Der dadurch bewirkte Bias behindere News- und Action-Formate und verstärke einen Softness Bias, der auch für Online-Medien zu erwarten sei. Da Online-Medien überwiegend werbefinanziert seien, werde der Einfluss der Werbewirtschaft daher den Trend zu Native Advertising jedenfalls bei bestimmten Formaten stärken. Der Einfluss wirtschaftlicher Interessen der Eigentümer von Medien werde etwa dadurch steigen, dass wirtschaftsnahe Themen strategisch platziert werden (z.B. Bericht über Schneefälle in Skigebieten kurz vor dem Wochenende). Der Einfluss wirtschaftlicher Interessen der Autoren sei auch bei Produktbewertungen, z.B. von Hotels, klar nachzuweisen. Insgesamt bestätigte also auch Münster die von Siegert hervorgehobene Erkenntnis, dass der Trend zur einfachen, weichen Berichterstattung und Information besonders Anfälligkeiten für Verzerrungen setze.

Aus journalistischer Sicht betonte Professor Dr. Volker Lilienthal, Institut für Journalistik und Kommunikationswissenschaft der Universität Hamburg, dass Verzerrungen sowohl bei der Nachrichtenauswahl als auch bei der Nachrichtendarstellung eine Rolle spielten, die zum Teil aus Unkenntnis erfolge, zum Teil aber auch gezielt provoziert werde. Neben den ökonomisch auffälligen Sachverhalten spielten Verzerrungen bei der politischen Tendenzberichterstattung, deren Wertehintergrund nicht offengelegt werde oder die mit manipulativen Methoden arbeite, eine Rolle. Diese Entwicklung sei auf allen Seiten des Spektrums zu beobachten, von den Pegida-Vorwürfen gegenüber einer „Lügenpresse“ bis hin zu einseitiger Kritik gegenüber der Politik Russlands oder der Griechenland-Berichterstattung in etablierten Medien. Rezipienten hätten etwa gegenüber der Ukraine-Berichterstattung mehrheitlich (58% nach einer Forsa-Umfrage) den Eindruck nicht ausgewogener Berichterstattung geäußert. Das Phänomen sei nur auf mehreren Ebenen zu bekämpfen, von der gezielten Vermittlung von Kompetenzen für die digitale Recherche, über die Skepsis im Umgang mit Social Media bis hin zur Stärkung der journalistischen Berufsethik.

Man war sich also aus Sicht aller beteiligten Disziplinen einig, dass Media Bias im Internet zwar an bekannte Phänomene in der „alten“ Medienwelt anknüpfe, vielfach aber neue Dimensionen, neue Mittel und neue Intensität erreiche. Mehrere Vorträge setzten sich mit der Frage auseinander, wie Verzerrungen auf einfache, möglichst automatisierte Weise auffindbar und messbar sind. Drei Redner widmeten sich diesem Feld. Marc Egger, Geschäftsführer der Insius UG und Doktorand am Seminar für Wirtschaftsinformatik und Informationsmanagement der Universität zu Köln, erläuterte die Möglichkeiten der Wirtschaftsinformatik, große Datenmengen in Internetdiensten zu strukturieren und ihren Inhalt nach relevanten Worten und Phrasen zu erkennen und zu ordnen. Die gute Nachricht aus Sicht der Erkennbarkeit von Verzerrungen ist, dass Maschinenlernverfahren den bei manueller Suche kaum zu bewältigenden Zeitaufwand erheblich verkürzen und die bei Booleschen Suchen bescheidene Ergebnisqualität deutlich verbessern. Anhand instruktiver Beispiele wurde dargestellt, dass durch solche Verfahren nutzergenerierte von redaktionell erzeugten Inhalten unterscheidbar werden, aber auch meinungsgeleitete von neutralen Inhalten jedenfalls in Bereichen unterschieden werden können, in denen Werbeattribute deutlich hervorgehoben oder politische Orientierungen anhand typischerweise verwendeten Phrasen zuordenbar werden.

Diese Beobachtung wurde bestätigt von PD Dr. Simon Hegelich, Universität Siegen, der sich mit der Analyse politischer Tendenzen in Medieninhalten befasste. Hegelich untersuchte den Einsatz von Social Botnets als Propaganda- und Cyberwarfare-Werkzeug. Social Botnets sind automatisierte  Computeranwendungen („Robots“), die mit getarnten Accounts scheinbaren Verkehr in Sozialen Medien wie Twitter erzeugen und dadurch den Eindruck besonderer Relevanz einer Meinung oder eines Themas erzeugen. Da auch etablierte Medien Trends in Sozialen Medien beobachten, kann auf diese Weise Agenda-Setting bewirkt werden. Zum Einsatz kommen Social Botnets in regionalen Konflikten. Hegelich berichtete über ein Tarn-Twitter-Account (Twitter-Botnet), der im Ukraine-Konflikt eine auffällige Menge an Tweets erzeugte. Die Durchmusterung solcher Tweets und die Aufdeckung einer Verzerrung durch Tarnung sind aufwändig, können aber anhand typischer Kommunikationsmuster erfolgen, die im Vortrag näher dargestellt wurden. Die massenhafte, automatisierte und autonom ablaufende Funktionsweise erschwert allerdings die Auffindbarkeit von Verzerrungen. Hinderlich ist auch, dass sich die Untersuchungsmethoden derzeit auf das Text-Mining beschränken.

Daran knüpfte der Vortrag von Dr. Christan Baden, Hebrew University of Jerusalem, an. Er erläuterte zunächst, dass das Thema besondere Herausforderungen stellt, weil die unterschiedlichsten Typen von Verzerrungen eine Rolle spielen. Nicht alle Verzerrungen sind leicht zu definieren und dementsprechend sind nicht alle Formen gleichermaßen einfach zu messen. Besonders schwer (automatisiert) zu messen sind Verzerrungen in bildlichen Darstellungen, weil diese häufig einen elaborierten Verständnishorizont des Betrachters erfordern, den programmgesteuerte Mechanismen nicht haben und auch nicht lernen können (Bsp.: sog. „Meme-Darstellungen“). Schwer zu beurteilen ist so, ob eine geschlechtsbezogene Verzerrung bereits darin liegt, dass Frauen einseitig dargestellt werden oder auch darin, dass Frauen als Akteure in Darstellungen nicht vorkommen. Die Identifikation auffälliger Muster erfordert also eine Definition dessen, was auffällig ist. Vieles, auch Komplexes sei messbar, wenn solche Definitionen vorlägen. Zuständig für diese Definitionen seien eher Juristen als Ökonomen.

Damit war der Ball wieder zurückgespielt an die Juristen, zum Abschluss des Vortragsteils der Tagung namentlich an PD Dr. Jan Eichelberger, LL.M. oec., Albert-Ludwigs-Universität Freiburg, der sich einigen Fallstudien aus den Bereichen Schleichwerbung bzw. getarnte Werbung in der Presse zuwandte. Die von ihm dargestellten Fälle, z.B. Good News, zeigten, dass die Durchsetzung von gegen solche Tarnung gerichteten Regeln besonders gut dort gelingt, wo eine Regel (Kennzeichnung von Inhalten) sehr klare Anforderungen (Verwendung des Wortes „Anzeige“) definiert. Bei Internetangeboten fehlen solche eindeutigen verbalen Kennzeichnungen, Erkennbarkeit von Fremdeinflüssen wird hier in erster Linie über bildliche Elemente bewirkt. Diesbezüglich wird wieder eine manuelle Einzelanalyse des Gesamteindrucks des Auftritts erforderlich. Ob damit stets auch das Ausmaß möglicher Einflussnahmen und Verzerrungen passgenau definiert ist, wurde in der Diskussion gezielt hinterfragt.

Zusammenfassend ergab sich, dass Verzerrungen in Medien in weitaus größerem Maße eine Rolle spielen als dies die aktuelle Regulierung von Schleichwerbung, Produktplatzierung und direkter Werbung im Medienrecht zeigt oder erfasst. Vor diesem Hintergrund musste sich die abschließende Podiumsdiskussion zahlreichen Themen zuwenden. An der Diskussion nahmen Vertreter der Medienpolitik (Dr. Carsten Brosda, Senatskanzlei Hamburg), der Medienaufsicht (Doris Brocker, LfM NRW), des öffentlich-rechtlichen Rundfunks (Susanne Spiekermann, LL.M., Geschäftsführerin der ARD-Gremienvorsitzendenkonferenz) und der Journalismusforschung (Professor Dr. Volker Lilienthal, Universität Hamburg) teil. Es überwog die Haltung, dass Internetdienste keinesfalls so wie klassische Mediendienste reguliert werden sollten. Das Feld sei noch zu neu und auch zu diversifiziert, um mit alten Schläuchen diesen jungen Wein zu fassen. Die Medienpolitik plädierte für die Aufstellung von flexiblen, hinreichend allgemeinen Zielvorgaben durch Prinzipien, die Medienaufsicht wünschte sich ebenfalls viel Flexibilität, um stärker beraten zu können als verbieten zu müssen. Der öffentlich-rechtliche Rundfunk schien am wenigsten Probleme zu sehen, weil die bei ihm vorhandene Binnenorganisation schon bei der Frage, ob bestimmte Dienste überhaupt betrieben werden, beteiligt werde („Drei-Stufen-Test“). Aus journalistischer Sicht sind Übertreibungen ebenfalls zu vermeiden. Die Meinungsvielfalt habe derzeit in einem solch erheblichen Ausmaß zugenommen, dass Platz für verschiedenste Angebote sei. Die Vorsicht in der Regulierungsdiskussion reflektiert die in der Tagung hervorgetretenen Unsicherheiten bei Definition, Messung und Auffindung von Verzerrungen sowie die Unklarheiten bei der Beurteilung der Frage, welche dieser Verzerrungen in welcher Hinsicht juristische Regeln benötigen. Das Thema erzeugt mithin beträchtlichen Forschungsbedarf.

Die Vorträge und die Diskussionen werden dokumentiert in der im C.H. Beck-Verlag erscheinenden Schriftenreihe des Instituts für Rundfunkrecht an der Universität zu Köln.

Prof. Dr. Karl-Nikolaus Peifer

Direktor des Instituts für Rundfunkrecht an der Universität zu Köln

 

 

20.04.2015

Bericht zur Abschlussveranstaltung des Praktikerseminars Medienrecht im WS 2014/2015

Praktikerseminar Medienrecht im Wintersemester 2014/15

Die Deutsche Welle im Umbruch

Auf Einladung des Vereins Alumni Medienrecht Köln e.V. und des Instituts für Rundfunkrecht an der Universität zu Köln fanden sich am 28. Januar 2015 Freunde und Förderer des Alumni-Vereins, Studierende der Rechts- und Medienwissenschaften, Richter, Fachanwälte und interessierte Gasthörer im Tagungsraum des Neuen Seminargebäudes ein, um an der Abschlussveranstaltung der Vortragsreihe „Praktikerseminar Medienrecht“ im Wintersemester 2014/15 teilzunehmen. Gerda Meuer, Programmdirektorin der Deutschen Welle, referierte zu dem Thema „Die Deutsche Welle im internationalen Wettbewerb: Herausforderungen und Chancen“ und stellte sich in einer Diskussionsrunde den Fragen der Zuhörerschaft.

In ihrem Vortrag bezeichnete Meuer die Neuausrichtung der Deutschen Welle während der letzten Jahre als größte Umstrukturierung in der Geschichte des 1953 gegründeten deutschen Auslandssenders. Sie beschrieb die Maßnahmen, mit denen die Verantwortlichen des Senders auf die weltweiten Veränderungen des Mediennutzungsverhaltens und den zunehmenden Wettbewerb auf dem Gebiet des Auslandsrundfunks reagieren. Angesichts aktueller Ereignisse und Konflikte in der Auslandsberichterstattung wurde den Teilnehmern des Praktikerseminars deutlich, welches Potenzial ein deutscher Auslandssender auch in einer digitalen und vernetzten Medienwelt in sich trägt. So zeigte die Programmdirektorin anhand der starken Zunahme von Zugriffen auf die russischen und ukrainischen Online-Angebote der Deutschen Welle im letzten Jahr beispielhaft auf, welche Bedeutung dem Sender insbesondere in Kriegs- und Krisengebieten sowie in Regionen mit keinem oder nur eingeschränktem Zugang zu freier Presse bereits heute zukommt und weiterhin zukommen kann.

Durch einen massiven Ausbau des Onlineangebots, der Nutzbarkeit für verschiedene Endgeräte, die Einführung interaktiver Angebote sowie eine verstärkte Präsenz in Sozialen Netzwerken will der Sender diese Rolle weiter stärken und vermehrt auch jüngere Zielgruppen ansprechen. Trotz der weltweit wachsenden Bedeutung des Online-Marktes für Medienanbieter gewinne in den Schwellenländern auch das lineare Fernsehprogramm für die Deutsche Welle an Relevanz, berichtete Meuer. In diesem Bereich möchte sich die Deutsche Welle aber zukünftig auf englischsprachige Angebote konzentrieren. Der Fernsehkanal “DW News”, der ab Juni 2015 senden wird, soll die Deutsche Welle unter anderem durch eine Stärkung der zeitnahen Berichterstattung sowie mehr Möglichkeiten der Partizipation für den Zuschauer konkurrenz- und zukunftsfähig erhalten.

Die wachsende Schnelligkeit des Informationsflusses wie auch die Vielzahl an Quellen bieten neben Chancen auch Risiken. Meuer verwies auf die Ereignisse um den Terroranschlag auf die Mitarbeiter des französischen Satiremagazins Charlie Hebdo in Paris und das in diesem Zusammenhang entstandene Video eines Anwohners, welches die Erschießung eines Pariser Polizisten zeigte. Das Video hatte sich in kürzester Zeit zunächst in den Sozialen Medien verbreitet, ehe es von einigen Fernsehsendern und auf den Online-Portalen einiger Zeitungen veröffentlicht bzw. verlinkt wurde. In der Berichterstattung über die Ereignisse habe auch die Deutsche Welle das Bildmaterial zunächst ungefiltert verwendet, ehe man aus Gründen der Anteilnahme und Diskretion davon Abstand nahm, so Meuer.

Die Frage, ob und wie derartiges Material verwendet werden darf, sollte oder gar muss, wurde nicht nur in den Nachrichtenredaktionen, sondern auch in der Öffentlichkeit diskutiert. Die Tragweite der Entscheidung wurde spätestens durch das Bekanntwerden des Leids der Familie des Polizisten, welche durch die tagelange Berichterstattung immer wieder mit der Sterbeszene konfrontiert worden war, mehr als deutlich. Bei der durch die einzelnen Redaktionen zu treffenden Abwägung sind zunächst sowohl der Schutz des Opfers, in seiner Todesangst und seinem Sterben nicht der Weltöffentlichkeit ausgesetzt zu werden, als auch der Schutz seiner Angehörigen und der übrigen Rezipienten vor der Konfrontation mit derartigen Bildern zu berücksichtigen. Es liegt zudem im Interesse seriöser Medienanbieter, sich nicht selbst zum Werkzeug des Terrorismus zu machen, der gerade darauf abzielt, Angst und Schrecken zu verbreiten. Dem gegenüber stehen das Informationsbedürfnis der Öffentlichkeit, der journalistische Wunsch, das Geschehene möglichst umfassend zu dokumentieren und die Tatsache, dass das Material zumeist durch die Sozialen Medien bereits öffentlich zugänglich gemacht worden ist. Im Kodex des Deutschen Presserates heißt es in diesem Zusammenhang in Richtlinie 11.1: „Unangemessen sensationell ist eine Darstellung, wenn in der Berichterstattung der Mensch zum Objekt, zu einem bloßen Mittel, herabgewürdigt wird. Dies ist insbesondere dann der Fall, wenn über einen sterbenden oder körperlich oder seelisch leidenden Menschen in einer über das öffentliche Interesse und das Informationsinteresse der Leser hinausgehenden Art und Weise berichtet wird.“ Eine pauschale Antwort darauf, wann die Grenze zur Unangemessenheit erreicht ist, lässt sich kaum finden, sie muss also im Einzelfall durch die Redaktion getroffen werden. Im erwähnten Fall verzichteten viele Medienanbieter allerdings auf eine Verwendung des Videos bzw. zeigten lediglich Ausschnitte und Standbilder aus den ersten Sequenzen, ein Entschluss, welchen die französische Rundfunkaufsichtsbehörde Conseil Supérieur de l’Audiovisuel (CSA) mit seinen am 11. Februar 2015 veröffentlichten Entscheidungen bestätigte. Der CSA urteilte darin, dass die Veröffentlichung des kompletten Videos sowie der Abbildung seines Gesichts kurz vor der Tat durch zwei französische Fernsehsender das Opfer in seiner menschlichen Würde verletzt habe.

Die rechtlichen und ethischen Fragen der Abwägung zwischen Pressefreiheit auf der einen und persönlichkeitsrechtlichen Schutzinteressen auf der anderen Seite haben sich durch das veränderte Mediennutzungs- und -anbieterverhalten nicht grundlegend geändert, sie stellen sich jedoch – wie auch Fragen nach der Echtheit des kursierenden Bild- und Tonmaterials – durch die zunehmende Verwendung nutzergenierter Inhalte immer häufiger. Die entsprechenden Strukturen zu schaffen, um diese Fragen zeitnah und trotzdem mit der nötigen journalistischen Sorgfalt zu beantworten, ist eine der Herausforderungen moderner Nachrichtenberichterstattung, mit denen sich nun auch die Deutsche Welle auseinanderzusetzen hat.

 Die geplante Konzentration auf den neuen englischsprachigen Nachrichtenkanal stellt – auch wegen der drohenden Einstellung der arabischen, spanischen und deutschen Kanäle – eine der einschneidendsten und gleichzeitig umstrittensten Veränderungen innerhalb des Umstrukturierungsprozesses der Deutschen Welle dar. Nach § 4 Deutsche-Welle-Gesetz ist es Aufgabe des Auslandssenders, Deutschland „als europäisch gewachsene Kulturnation und freiheitlich verfassten demokratischen Rechtsstaat verständlich (zu) machen“ sowie insbesondere die deutsche Sprache zu fördern. Die Frage, inwiefern eine Einstellung des deutschen Fernsehkanals mit dieser gesetzlichen Zielsetzung vereinbar wäre, war bereits im Dezember während des Seminarvortrags von Dr. Peter Niepalla, Justitiar der Deutschen Welle, über die „Aufgaben und Stellung des Auslandsrundfunks im digitalen Zeitalter“ thematisiert worden. Beide Referenten zeigten sich überzeugt, dass die Deutsche Welle diesem Anspruch auch ohne einen eigenen deutschsprachigen Nachrichtenkanal gerecht werden könne und verwiesen dabei auf die weiterhin bestehenden deutschsprachigen Online-Nachrichten sowie -Deutschkurse. Die Konzentration auf Englisch als Weltsprache und als Sprache der „globalen Entscheider“, welche die Deutsche Welle als Zielgruppe besonders ansprechen möchte, bedeute keine anglo-amerikanische Ausrichtung des Programms: Die Deutsche Welle werde weiterhin aus einer deutschen bzw. europäischen Perspektive Nachrichten vermitteln, betonte Meuer.

Ein Blick auf das angesprochene Webangebot der Deutschen Welle macht gleichzeitig aber auch umso deutlicher, dass Deutsch schon jetzt nur eine von 30 Sprachen des Auslandssenders ist. Eine besondere Konzentration auf die deutsche Sprache lässt sich dem Sender damit bereits heute nur schwer attestieren. Nachrichten aus und über Deutschland dagegen finden sich in allen Sprachen des Onlineangebots der Deutschen Welle.

Die Frage, inwiefern eine Deutsche Welle, die sich vor allem auf ein englischsprachiges Angebot konzentriert, noch ihrer gesetzlichen Funktion als Vermittlerin Deutschlands in der Welt gerecht werden kann, führte zu einer hitzigen Debatte auch im Deutschen Bundestag. Für die Senderverantwortlichen brachte es eine gewisse Entspannung der Situation als im Februar bekannt wurde, dass die Bundesregierung in ihrer aktuellen Haushaltsplanung ab 2016 eine Aufstockung des Etats der Deutschen Welle um zwölf Millionen Euro vorsieht – eine Ankündigung, durch welche die drohenden Einsparungen am deutschsprachigen Programm zumindest vorerst abgewendet scheinen. Diese Wendung unterstützt und erweitert somit im Nachhinein Meuers Aussage im Rahmen der Diskussion, dass die Anpassung des Deutsche-Welle-Konzepts an das gewandelte Nutzungsverhalten mit dem zur Verfügung stehenden Etat zu leisten sei.

Von Gesa Kaselow, Studentische Hilfskraft am Institut für Rundfunkrecht an der Universität zu Köln

27.11.2014

Neu in der Schriftenreihe des Instituts für Rundfunkrecht: Band 111

Karl-E. Hain, Matthias Cornils, Indra Spiecker gen. Döhmann, Paul M. Schwartz, Jan Philipp Albrecht, Thilo Weichert:

Datenschutz im digitalen Zeitalter - global, europäisch, national

 

 

 

 

 

 

 

09.06.2014

Bericht zur Jahrestagung 2014 des Instituts für Rundfunkrecht

„Datenschutz im digitalen Zeitalter – global, europäisch, national“ – 48. Jahrestagung des Instituts für Rundfunkrecht an der Universität zu Köln am 16. Mai 2014

Man könnte meinen, dass der Europäische Gerichtshof mit der Entscheidung im Fall Google Spain (C-131/12) die diesjährige Tagung des Instituts für Rundfunkrecht an der Universität zu Köln unterstützen wollte. Die Veranstaltung im Kleinen Sendesaal des WDR-Funkhauses gewann in den ohnehin spannenden Zeiten von Big Data durch die aktuelle Rechtsprechung des EuGH an besonderer Brisanz. Am 8. April dieses Jahres erklärte der EuGH die EU-Richtlinie zur Vorratsdatenspeicherung wegen Verstoßes gegen die Grundrechte auf Achtung des Privatlebens und auf Schutz personenbezogener Daten für ungültig und unterband die anlasslose Speicherung von Telekommunikationsdaten. Am 13. Mai urteilte der EuGH, dass Google als verantwortliche Suchmaschine zur Löschung von personenbezogenen Suchergebnissen verpflichtet ist und lieferte damit nur wenige Tage vor der Veranstaltung eine datenschutzrechtliche Überraschung. Beide Urteile sollten für zusätzlichen Diskussionsstoff auf der Tagung sorgen, die in Kooperation und mit Unterstützung der Fritz Thyssen Stiftung für Wirtschaftsförderung und unter Leitung des geschäftsführenden Direktors des Instituts für Rundfunkrecht, Professor Dr. Karl-Eberhard Hain, stattfand. Dieser machte in seinen einleitenden Worten seinen Standpunkt gleich dahingehend deutlich, dass die Utopie vom Internet als perfektes Mittel der Demokratie und Freiheit schon immer naiv gewesen und in Zeiten des NSA-Skandals durch die Nutzung der Telekommunikation als Instrument von Kontrolle und Machtausübung entkräftet sei. 

Diese Probleme beleuchtete auch Professor Dr. Matthias Cornils (Johannes Gutenberg-Universität Mainz). Er verzichtete bewusst auf eine Darstellung der üblichen Gefährdungsszenarien im Datenraum, die er für offensichtlich erachtete, und widmete sich einer rein grundrechtlichen Betrachtung des (trans-)nationalen Datenschutzrechts im digitalen Zeitalter. Anhand der neuen Rechtsprechung des EuGH betonte er, dass der EuGH immer häufiger zu Grundrechtsfragen Stellung nimmt und gerade beim Datenschutz nicht nur mit dem Bundesverfassungsgericht gleichzieht, sondern sogar den Eindruck erweckt kompromissloser zu sein. Darin liege eine Kompetenzverschiebung, die Cornils mit dem Hinweis kritisierte, dass Effizienz keine (Grundrechts-)Kompetenz verschaffe, denn zur angemessenen Beurteilung der unterschiedlich ausgeprägten Grundrechtsdogmatik aller Mitgliedsstaaten sehe er den EuGH nicht in der Lage. Sinnvoller sei es, dass das Gericht maßgebliche Abwägungskriterien vorgebe, die Abwägung selbst aber den Mitgliedstaaten überlasse. Der europäische Grundrechtsschutz sei zudem aufgrund seiner verschiedenen Säulen sehr kompliziert und werde auch im Google-Urteil vom EuGH selbst nicht sauber angewandt, weshalb Cornils zur weiteren Herausbildung des unionsrechtlichen Grundrechtsschutzes noch viel dogmatische Feinarbeit für erforderlich hält. Kritisch äußerte sich Cornils aber auch gegenüber der Behandlung des Datenschutzes auf nationaler verfassungsrechtlicher Ebene. Weil es kein belangloses Datum mehr gebe, werde hier ein Vorfeldschutz gewährleistet, der die zweifelhafte Wirkung eines „vorsorglichen Allroundschutzes“ habe. Cornils betrachtet es als Dilemma, dass die Begrenzung des Datenschutzes auf spezifische Gefahren gerade die Möglichkeit des Datenschutzrechts behindert, auf diffuse Gefährdungslagen zu reagieren. Das erfordere eine Ergänzung des Individualschutzes um einen technikbezogenen Systemschutz durch Stärkung von Stabilität, Integrität und Vertraulichkeit der Datennetze.

Mit dem europäischen und deutschen Datenschutz beschäftigte sich Professorin Dr. Indra Spiecker gen. Döhmann, LL.M. (Direktorin der Forschungsstelle Datenschutz an der Goethe-Universität Frankfurt am Main). Unter der Überschrift „Architektonik des Datenschutzes“ erläuterte sie allgemeine Problemlagen des Datenschutzrechts im IT-Zeitalter. Das besondere Gefährdungspotential im Datenraum sieht Spiecker in der Qualität von Information, bei der ein Eingriff – anders als beim „Brötchen-Klau“ – regelmäßig weder spürbar noch rückholbar sei. Die Gefahrenlage beginne schon mit dem Besitz von Information, weshalb auch ein frühes Ansetzen des Schutzes beim Sammeln der Daten in Form des Vorfeldschutzes notwendig sei. Dies stehe mit dem Charakter des Datenschutzrechts als Technologierecht im Einklang. Allein den Umgang mit den Daten zu regulieren, greife dagegen zu spät. Große Probleme des Datenschutzes lastete Spiecker jedoch weniger dem Datenschutzrecht selbst an, sondern dessen Vollzug. Zum einen sei die Rechtslage insbesondere im Hinblick auf die Anforderungen an Einwilligungen unklar, sodass selbst gutwillige Unternehmen sich kaum datenschutzkonform verhalten könnten. Bezüglich der uneinheitlichen Datenschutzlage in der EU seien nun neue Entwicklungen zu erwarten. Zum anderen fehlten immer noch ausreichende Anreize zur Beachtung des Datenschutzes in Form angemessener Sanktionen für Verstöße. Angesichts neuer Problemlagen durch Big-Data-Analysen und die Entwicklung automatischer Entscheidungssysteme machte Spiecker deutlich, dass es eines ganzheitlichen Informationskonzeptes zur Abwehr der vielfältigen Gefahren für personenbezogene Daten dringend bedarf. 

Professor of Law Paul M. Schwartz vom Berkeley Center for Law & Technology an der University of California erläuterte sodann die Architektonik des Datenschutzes in den USA. Grundlegende Unterschiede liegen darin, dass es in den USA nur bereichsspezifische Regelungen, nicht aber einen umfassenden Schutz wie in Europa („Omnibus-Approach“) gibt. Einem generellen Verbot mit Erlaubnisvorbehalt – wie es das deutsche Recht kennt ? steht das „First Amendment“ im Wege. Außerdem verlangen die amerikanischen Gerichte für individuellen Rechtsschutz den Nachweis eines Schadens – stuften eine Verletzung der Privatsphäre durch staatliche Datenüberwachung aber noch wenige Monate vor den Snowden-Enthüllungen als rein hypothetische Gefahr und „hochspekulative Angst“ ein (Clapper v. Amnesty International USA, S. Ct. 2013). Beim Vollzug des Datenschutzrechts wird dagegen härter durchgegriffen: Die Federal Trade Commission agiert als „Datenschutz-Polizei“ mit einschneidenden Durchsetzungsbefugnissen. Aus Sicht der Amerikaner, bei denen das EU-Datenschutzrecht vielfach als „Papiertiger“ gilt, das in der Realität nicht umgesetzt werde, hat man damit bereits eine Antwort auf die Frage – die Schwartz führenden Datenschutzrechtlern gestellt hat ?, warum die Amerikaner den europäischen Datenschutz nicht mögen. Ihnen sei das EU-Recht zu vage und es berge die Gefahr, das gesamte Internet als „illegal“ zu deklarieren. Datennutzung bringe der Gesellschaft aber beachtliche Vorteile, die man nicht preisgeben sollte. Frustrierend seien für die US-Amerikaner im Übrigen die dauernden Revierkämpfe zwischen Datenschutzbehörden und Gerichten verschiedener Länder und nicht zuletzt die in Europa immer noch verbreitete Auffassung, dass die Geheimdienstüberwachung allein ein Problem der USA darstelle.

Die Problematik der Geheimdienste sprach auch Ralf Bendrath, wissenschaftlicher Mitarbeiter im Büro von MdEP Jan Philipp Albrecht, bei seinem Bericht über den Stand der europäischen Datenschutzreform an. Zwar brachte die Geheimdienstaffäre den Datenschutz in aller Munde. Dass dieser aber schon vorher von großem Interesse war, zeige der „Lobbying-Tsunami“, der in 2012 auf Brüssel zurollte. Allein Albrechts Büro traf sich in diesem Jahr über 168 Mal mit Lobbyisten, es wurden insgesamt 3999 Anträge auf Änderung des Entwurfs für die europäische Datenschutz-Grundverordnung gestellt und die Plattform Lobbyplag.eu zeigt, dass zahlreiche Papiere von Lobbyisten über Änderungsanträge von Abgeordneten direkt ins EU-Parlament gelangten. Ein besonderer „Snowden-Effekt“ auf die Kernthemen der Datenschutz-Grundverordnung war dagegen nicht zu verzeichnen. Ebenso wenig Neues zum Thema #EUdataP brachte nach Ansicht von Bendrath das Google-Urteil des EuGH – ein R2BF (right to be forgotten) und R2E (right to erasure) seien in der Grundverordnung bereits vorgesehen. Auch die Definition personenbezogener Daten (einschließlich Personenbestimmbarkeit), die Anforderungen an eine Einwilligung (ohne Zwang, explizit) und eine „One-Stop-Shop“-Regelung im Bereich der Datenschutzaufsicht seien fest verankert. Durch letztere sollen Schlupflöcher nach Luxemburg oder Irland mit einem schwächer ausgebauten Datenschutzrecht in Zukunft verschlossen sein. Es fehlt die Abstimmung durch den Ministerrat, die bisher auch durch Deutschland verzögert werde.

Deutschland als Stolperstein in der europäischen Datenschutzreform ist eine Vorstellung, die auch Dr. Thilo Weichert, dem Landesbeauftragten für den Datenschutz Schleswig-Holstein und Leiter des Unabhängigen Landeszentrums für Datenschutz Schleswig-Holstein, missfällt. Er befasste sich mit der Kontrolle von Datenerhebung und -nutzung durch global agierende soziale Netzwerke und erläuterte Probleme insbesondere durch kurzfristige Regelungsänderungen aufgrund rasanter technischer Entwicklungen, die lange Dauer von Gerichtsverfahren, begrenzte Sanktionsmöglichkeiten sowie Zuständigkeits- und Sprachenprobleme im grenzüberschreitenden Bereich. Im internationalen Datenschutz sieht Weichert das größte Konfliktpotential. Während in Europa ein beachtlicher digitaler EU-Grundrechtsstandard bestehe, fehlten in den USA ausreichende Bemühungen zur Einführung

digitaler Grundrechte. Insbesondere würden die großen amerikanischen Unternehmen Facebook und Google nicht genügend kontrolliert, deren Geschäftsmodelle Weichert scharf kritisierte. Er plädierte daher für die zeitnahe Schaffung einheitlicher Mindeststandards, um Wettbewerbsnachteile für deutsche gegenüber amerikanischen Unternehmen zu vermeiden. Das Google-Urteil des EuGH und eine zügige Verabschiedung der europäischen Datenschutz-Grundverordnung seien dabei wichtige Schritte.

Zum Abschluss der Jahrestagung des Instituts für Rundfunkrecht wurden die Themen des Tages in einer Podiumsdiskussion mit den Referenten unter Leitung der Professoren Dr. Karl-Eberhard Hain und Dr. Karl-Nikolaus Peifer, Dir ektor und Leiter der zivilrechtlichen Abteilung des Instituts für Rundfunkrecht, rekapituliert. Insbesondere im Dialog zwischen Schwartz und Weichert zeigten sich noch einmal die erheblichen Unterschiede zwischen den Datenschutzsystemen. Sowohl das deutsche Datenschutzrecht als auch die europäischen Regelungen nehmen bereits das Erheben von Daten in den Blick, in den USA dagegen ist erst die schadenverursachende Datennutzung relevant, was nach Meinung der Mehrheit auf dem Podium wegen des bereits nach Erhebung möglichen Missbrauchs zu spät ansetzt. Einigkeit fehlt außerdem noch in der Frage, ob es zu weit reicht, jedes personenbeziehbare Datum unter den Schutz des Datenschutzrechts zu stellen – wäre damit nicht jedes Datum relevant, da in Zeiten von Big Data selbst bei anonymen Daten die Gefahr einer Reidentifizierung besteht? Der Frage, ob ein globales Datenschutzrecht schnell erreichbar ist, begegnete das Podium mit Skepsis. Auch Paul Schwartz wies aber mit Blick auf

das in den USA vielfach als Vorbild wirkende kalifornische Datenschutzrecht auf einen „California Effect“ hin, der zusammen mit einem „Brussels Effect“ weltweite Standards setzen könnte.

Die Vorträge und Diskussionsbeiträge werden in einem Tagungsband veröffentlicht, der in der Schriftenreihe des Instituts für Rundfunkrecht erscheint.

Wiss. Mit. Anke Imgrund, Institut für Medienrecht und Kommunikationsrecht der Universität zu Köln

 

 

 

17.06.2013

Tagungsbericht zur 47. Jahrestagung des Instituts für Rundfunkrecht an der Universität zu Köln: "Urhebervertragsrecht - Gelungen oder reformbedürftig?"

Auch eine schlechte Reform kann Gutes hervorbringen

Am 27. Mai 2013 hatte das Institut für Rundfunkrecht an der Universität zu Köln zu seiner 47. Jahrestagung unter dem Thema „Urhebervertragsrecht – Gelungen oder reformbedürftig?“ geladen. Die Veranstaltung tagte im Deutschlandfunk Kammermusiksaal des Deutschlandradios Köln, – geradezu sinnbildlich dort, wo Kreativität tagtäglich gelebt, inszeniert und dargeboten wird. Wie in diesem Saal in musikalischer Hinsicht sowohl Harmonie als auch gelegentlich Disharmonie wahrzunehmen sind, so sollte auch die Zukunft des Urhebervertragsrechts, – Sinn, Rechtfertigung und Begrenzung des Schutzes geistiger Leistungen –, kontrovers und erkenntnisbringend debattiert werden. Rund 160 Zuhörer aus Wissenschaft und Politik, der Kreativwirtschaft, der Gerichtsbarkeit, der Rechtsanwaltschaft als auch Studierende waren der Einladung gefolgt. Die Tagung fand in Kooperation und mit Unterstützung der Deutschen Stiftung Eigentum statt. Sie sollte der Frage nachgehen, ob in der Praxis die Beteiligung der Urheber und ausübenden Künstler an den durch die Werkverwertung erzielten Vergütungen angemessen ist oder ob der Gesetzgeber zur Erreichung dieses gesetzlichen Ziels (§ 11 UrhG) nachbessern muss.

Ist der Gesetzgeber gefordert?

Die Veranstaltung hatte zunächst zum Ziel, die existierenden gesetzlichen Regelungen zum Urhebervertragsrecht auf ihre Funktionstauglichkeit hin zu überprüfen. Dass Urhebern für ihr kreatives Schaffen eine Vergütung zusteht, stand dabei außer Frage. Ob und wie das vom Gesetzgeber angenommene strukturelle Ungleichgewicht zwischen Urhebern und Verwertern durch das bestehende Urhebervertragsrecht beseitigt wurde, sollte dagegen diskutiert werden.

Nach einem Grußwort durch den Intendanten des Deutschlandradios Dr. Willi Steul eröffnete Professor Dr. Karl-Nikolaus Peifer die Veranstaltung mit einem Überblick über die Urhebervertragsrechtsreform des Jahres 2002 und deren bisheriger Umsetzung in der Praxis. Anschließend erläuterte Professor Dr. Joachim Bornkamm die Rechtsprechung des I. Zivilsenats des Bundesgerichtshofs zum Urhebervertragsrecht. Professor Dr. Haimo Schack, LL.M. bot eine Zusammenfassung der durch die Reform ausgelösten Probleme sowie einen Ausblick auf mögliche künftige Reformschritte. Dr. Martin Diesbach erörterte schließlich die §§ 32, 32a UrhG aus der anwaltlichen Praxis. Die Referate wurden in einem sich daran anschließenden Diskussionspanel mit den Vortragenden und weiteren Diskutanten vertieft. Zu den Diskutanten gehörten die Rechtsanwälte Thomas von Petersdorff-Campen und Dr. Gernot Schulze, Peter Wiechmann und Wolfgang Schimmel. In der Diskussion wurde deutlich, dass die Reform allseits als nicht sehr gelungen angesehen wurde, allerdings kontroverse Ansichten darüber bestanden, worin die Mängel und worin die Vorzüge liegen. Teilweise habe die Reform zwar zu einer Verbesserung der Position der Urheber geführt, teilweise bestünden Defizite, die die Regelungen nicht ausräumen konnten oder gar erst hervorgebracht haben.

Größte Schwierigkeit ist die Beurteilung der „Angemessenheit einer Vergütung“

Als Hauptschwierigkeit bei der Anwendung des Gesetzes erweist sich die unterbliebene Definition des Zentralbegriffs der Reform, nämlich der „Angemessenheit“ einer Vergütung. Zwar wurde als nachvollziehbar angesehen, dass die Definition eines „gerechten Preises“ bereits Generationen von Juristen an die Grenzen ihrer Disziplin geführt hat und sich der Gesetzgeber daher bewusst im Zuge der Urheberrechtsreform 2002 gar nicht an einer Definition versuchte, sondern die Preisfindung den Parteien selbst in einem strukturierten tarifähnlichen Verfahren überlassen wollte. Doch wurde hierdurch das nächste Problem erzeugt: Nach der Vorstellung des Gesetzgebers sollten in gleichberechtigten Verhandlungen Urheberverbände mit Verwertern an einen Tisch gebracht und die Angemessenheit der Vergütung durch eine kollektiv gestärkte Verhandlungsmacht bestimmt werden. Daneben sollten individuelle Verhandlungen zwar möglich bleiben. Der Gesetzgeber knüpfte an das System jedoch die Erwartung, dass die Anzahl der individuellen Verträge, die eine gerichtliche Angemessenheitsprüfung im Einzelfall zur Folge haben können, mit der Zeit in dem Maße obsolet würde, in dem neue Vergütungsregeln und Tarifverträge entstünden.

Gemeinsame Vergütungsregeln sind nach wie vor nicht die Regel

Umso überraschender war es, dass die individuelle Angemessenheitskontrolle durch die Gerichte jedenfalls kurzfristig doch zum wichtigsten Instrument wurde, weil sich herausstellte, dass gemeinsame Vergütungsregeln für sehr heterogene Branchen und Nutzungen nicht in kurzer Zeit gefunden werden konnten. Kollektive Regelungen blieben zunächst, nicht zuletzt wegen der außerordentlich langen Verhandlungsdauer, die Ausnahme. Der Zustand wurde allseits als unbefriedigend empfunden. Richter bemängeln, wie schwierig die Preisfindung ist, begrüßen aber, dass ihre im Einzelfall gefundenen Regeln jedenfalls wieder korrigierbar sind (so Bornkamm mit Blick auf die Vergütung für Nebenrechte in den Entscheidungen BGHZ 182, 337 – Talking to Addison und die Modifikation in BGH GRUR 2011, 328 – Destructive Emotions). Die Verwerter bedauern, dass die von Richtern gefundenen Regeln die Verhandlungen auch belasten können. Zudem erschwerten divergierende Entscheidungen der Zivilgerichte die Einigung in den kollektiven Verhandlungsrunden (Diesbach). In den bisherigen Prozessen im Filmbereich erhöhe ferner die Kombination aus Auskunfts- und ergänzenden Vergütungsansprüchen die Komplexität. Vielfach würden streitrelevante Fragen gar in das Ordnungsgeldverfahren verlagert (Diesbach). Aus Sicht der Wissenschaft kritisierte Schack, dass der Gesetzgeber die Problemlösung auf die Vergütung konzentriert hat. Sinnvoller sei es, die Dauer der Urheberverträge von vornherein zu begrenzen oder jedenfalls zwingende ordentliche Kündigungsrechte vorzusehen. Auch die Schwächung der Urheberposition durch Beseitigung des § 31 Abs. 4 UrhG hielt Schack für einen Fehler.

Die Verhandlungsmacht der Urheber wurde durch § 11 S. 2 UrhG gestärkt

Im Ergebnis blieb der Eindruck, dass die Verhandlungsmacht der Urheber zwar durch § 11 S. 2 UrhG gestärkt und eine Entwicklung hin zu Gemeinsamen Vergütungsregeln und Tarifverträgen eingeleitet worden sei. Doch verlaufe dieser Prozess zu schleppend, weil die kollektive Einigung weder erzwungen noch durch richterliche Entscheidung ersetzt werden könne. Darüber hinaus gefährde die Preiskorrektur im Einzelfall die Rechtssicherheit. Die Reform des Urhebervertragsrechts sei daher unvollendet. In der Diskussion wurden einige Lösungsvorschläge vertieft erörtert.

So forderte Ilja Braun die Anordnung einer Verbindlichkeit des Schlichterspruches oder eine gesetzlich verankerte Zwangsschlichtung, um Rechtssicherheit zu schaffen und die Vergütungsverhandlungen zu beschleunigen. Dies hielt Wiechmann für verfassungswidrig, weil man sich dadurch über die Autonomie der Beteiligten hinwegsetze. Von Petersdorff-Campen warf vermittelnd ein, dass auch nicht verbindlich gewordene Schlichtersprüche durchaus von den Gerichten berücksichtigt würden.

Gerichte greifen regulierend in den Markt ein

Die immer wieder monierte lange Verhandlungsdauer ist nach Meinung der Verwerterseite auch auf die Verschiedenheit und Komplexität der unterschiedlichen Kreativbranchen zurückzuführen, die derart heterogen ausgestaltet sein können, dass eine einzige Regelung mit allgemeiner Geltung eben nicht zu finden ist. Die Gerichte stehen also vor dem Dilemma, regulierend in den Markt eingreifen zu müssen, indem sie Preise für kreatives Schaffen teilweise ohne zugrundeliegende Anhaltspunkte festzusetzen haben.

Dass die gerichtliche Durchsetzung von Vergütungsansprüchen kein Allheilmittel ist, wurde mehrfach in der Diskussion betont.

Angst vor „Blacklisting“ verhindert die Rechtsdurchsetzung

In einer Vielzahl von Fällen suchen Urheber ihre Rechtsdurchsetzung nicht vor Gericht. Aus Angst vor „Blacklisting“ und dem Verlust ihrer Existenzgrundlage bestünden oftmals Hemmungen, sich gegenüber dem Auftraggeber/Verwerter zu exponieren, so Schimmel.

Diesem Risiko müsste man mit einer Art Automatismus zugunsten der Urheber entgegenwirken, der eine angemessene Vergütung garantiert, ohne die Durchsetzung im Einzelfall gegenüber dem Vertragspartner zu erfordern, merkte Schulze an. Für ihn ist es mit dem Gesetzeszweck auch nicht vereinbar, dass die lange Schutzdauer des Urheberrechts allein dem Verwerter zugutekommt. Schack empfahl bereits in seinem Vortrag ein gesetzliches ordentliches Kündigungsrecht nach Ablauf von 30 Jahren für den Urheber, welches branchenspezifisch noch modifiziert werden könnte. Schulze bevorzugte eine zeitliche Befristung der Nutzungsrechtseinräumung durch Gesetz, weil so dem Urheber die Last, selbst tätig werden zu müssen, erspart würde.

Verbandsklage, ordentliches Kündigungsrecht oder zeitliche Befristung der Rechtseinräumung könnten Abhilfe schaffen

Um das Risiko des „Blacklisting“ zu minimieren, wurde die Möglichkeit einer Verbandsklage im Diskussionspanel erwogen. Da das Urhebervertragsrecht an seiner mangelnden Durchsetzung leide, könnte das Ziel einer etwaigen Reform die verbesserte Möglichkeit einer Verbandsklage sein, so Schimmel.

Schack plädierte schließlich dafür, der unzureichenden Inhaltskontrolle von überschießenden Lizenzvertragsklauseln durch eine zwingende Ausgestaltung des § 31 Abs. 5 UrhG zu begegnen. Bislang bestünde kaum eine Handhabe gegen unangemessene Nutzungsverträge, die weder gegen § 138 BGB verstoßen noch § 31 Abs. 5 UrhG verletzen. Der Gesetzgeber habe dies zwar erkannt und aus diesem Grunde den Beteiligungsgrundsatz in § 11 S. 2 UrhG kodifiziert, doch habe dies nicht zu einer wirkungsvollen Inhaltskontrolle geführt. Nach wie vor billigt der Bundesgerichtshof § 31 Abs. 5 UrhG keine Leitbildfunktion im Hinblick auf die Durchsetzung einer angemessenen Vergütung zu. Durch eine zwingende Ausgestaltung der Norm wären Lizenznehmer verpflichtet, die beabsichtigte Nutzung offen zu legen, was einen Rechtekauf auf Vorrat möglicherweise verhindere, jedenfalls aber den Gerichten die Überprüfung von Lizenzverträgen erleichtere.

§ 32a UrhG ist größtenteils gelungen

Als überwiegend gelungen beurteilten die Diskutanten § 32a UrhG, den sogenannten „Bestsellerparagraphen“. Dieser gebe den Urhebern ein schlagkräftiges Nachforderungsrecht an die Hand, so Schack. Diesbach monierte jedoch, dass die Frage der Angemessenheit auch in § 32a UrhG eine Rolle spiele und der Mangel des § 32 UrhG auch die Handhabung des § 32a UrhG erschwere. Als noch ungelöst wurde die Frage bezeichnet, welche weitere Beteiligung angemessen im Sinne des § 32a UrhG in Fällen ist, in denen ein Werk von mehreren Urhebern geschaffen wurde. Denn bisher sei nicht geklärt, in welchem Verhältnis unterschiedliche Beiträge an einem Werk zu gewichten sind (vgl. die Entscheidungen des OLG München GRUR-RR 2011, 245 – Tatort-Vorspann; BGH GRUR 2012, 1248 – Fluch der Karibik; BGH GRUR 2012, 496 – Das Boot).

Das Ergebnis der Tagung brachte der Schauspieler Heinrich Schafmeister auf den Punkt, indem er meinte, eine Reform könne nicht als missglückt bezeichnet werden, wenn sie dazu führe, dass bessere Lösungen gesucht würden.

 

Die Vorträge und Diskussionsbeiträge werden in einem Tagungsband
veröffentlicht, der in der Schriftenreihe des Instituts für
Rundfunkrecht erscheint.

Der Bericht ist in der August-Ausgabe der proMedia erschienen (ausgewählte Artikel, Interviews und weitere medienpolitische Informationen finden Sie unter medienpolitik.net). Aktuelle wöchentliche Schlagzeilen aus den Bereichen des Rundfunk- und Medienrechts haben wir für Sie auf unserer Homepage, bei Facebook und Twitter.

 

Veranstaltungsbericht der 7. Jahrestagung des kfm am 6.3.2013 zum Thema „Zur Fortentwicklung des Rechts in der digitalen Welt: Urheberrecht On-the-Move?“ 

Kein Urheberrecht auf dem Bierdeckel

Am Mittwoch, den 6. März 2013, hatte das kölner forum medienrecht in Kooperation mit der Deutschen Stiftung Eigentum zu seiner 7. Jahrestagung geladen. Die Veranstaltung stand ganz im Zeichen der Fortentwicklung des Urheberrechts in der digitalen Welt, provokant sollte das Urheberrecht (…„On-the-Move?“) diskutiert werden. Zur Veranstaltung hatten sich knapp 150 Gäste aus Wissenschaft und Praxis angemeldet. In zwei Veranstaltungsblöcken wurde der Frage nach einer etwaigen, -positiven wie negativen-, Bewegung in der immer aktuellen Urheberrechtsdebatte nachgegangen.

Einer Begrüßung durch die Stadt Köln schloss sich ein Grußwort des Ministerialdirektors Dr. Hubert Weis (Leiter der Abteilung Handels- und Wirtschaftsrecht im Bundesjustizministerium) an. Danach folgten zwei Vorträge von Herrn Professor Dr. Gerald Spindler (Universität Göttingen) und Frau Kerstin Jorna, Leiterin des Intellectual Property-Direktorats der EU-Kommission mit nachfolgender Diskussion.

Herr Dr. Weis gab einen Überblick über die aktuellen gesetzgeberischen Aktivitäten im Urheberrecht, darunter die Verabschiedung eines Gesetzes zum Leistungsschutzrecht für Presseverlage, die Umsetzung der EU-Richtlinie zur Verlängerung der Schutzdauer für ausübende Künstler und Tonträgerhersteller von 50 auf 70 Jahre, eine Regelung über die Nutzung verwaister und vergriffener Werke, die Verlängerung des § 52 a UrhG um weitere zwei Jahre, die Bekämpfung des Abmahnunwesens und die Beratungen zum Richtlinienentwurf zur kollektiven Wahrnehmung von Online-Musikrechten.

Professor Spindler griff einige dieser Aktivtäten als Bewegung in die falsche Richtung an und meinte damit die Ausweitung der Schutzgegenstände (Leistungsschutz) einerseits und die Verlängerung der Schutzfristen (Künstler und Tonträgerhersteller) andererseits. Er appellierte an den ursprünglichen Schutzzweck des Urheberrechts und rügte die Tendenz zur Ausdehnung des Urheberrechts hin zu einem Schutz bloßer Investitionen als kontraproduktiv. Stattdessen sei die Einführung einer subsidiären Fair Use-Schranke in der Art, wie sie die Wittem Group 2011 vorgeschlagen hat, dringlich.

Kerstin Jorna hob demgegenüber die steigende wirtschaftliche Bedeutung des immaterialgüterrechtlichen Sektors für die Wirtschaftsleistung in der EU hervor. Die Copyright Industrien in Europa seien für 13 Millionen Arbeitsplätze und 5,5 % des Gesamtumsatzes in der Union verantwortlich. Weltweit gebe es 500 Musikdienste, die 30 Millionen Tracks anböten. Allerdings würden 80 % der Nutzer diese Dienstleistungen nicht nutzen, der illegale Anbieter als größter Konkurrent von effizienten Geschäftsmodellen sei daher nach wie vor überproporzional vertreten. In diesem Bereich sieht sie den größten Handlungsbedarf. Das Urheberrecht sei Teil einer Innovationsstruktur, die aus vielen Werkzeugen bestehe („Werkzeugkasten“) und sich auf die Lösung dringender Probleme konzentriere Im Urheberecht folge die Europäische Kommission der Prämisse, Lizenzierung wo möglich, Gesetzgebung wo nötig. Das wolle man mit dem Vorschlag einer Richtlinie zur kollektiven Wahrnehmung von Urheberrechten im Online-Musikbereich vorantreiben. Daneben gehe es um Data Mining, die Verfügbarkeit von Filmen im Internet, die Portability von Inhalten zur Nutzung auf verschiedenen Endgeräten, Mikrolizenzierungsprojekte und die Reform der Privatkopieabgabe. Das Urheberrecht soll nicht in stürmischer See der Piraterie überlassen, sondern in ruhigere Gewässer, in ein „mare nostrum“ gemeinsamer, freiwillig zur Nutzung überantworteter Kulturleistungen geführt werden.

In der anschließenden, von Professor Karl-Nikolaus Peifer moderierten Diskussion erörterten Professor Spindler, Direktorin Jorna, MdB Dr. von Notz (Bündnis90/DieGrünen), MdB Heveling (CDU), Professor Pfennig (vormals VG Bild-Kunst) sowie Dr. Michael König (Amazon) vor allem die Möglichkeiten erleichterter Lizenzierung. Die Kritik an dem bisherigen Richtlinienvorschlag zur kollektiven Wahrnehmung überwog. Gerügt wurde, dass der Entwurf das Treuhandmodell des deutschen Wahrnehmungsrechts erschwere und einen one-stop-Shop hemme.

Daneben äußerten sich Dr. von Notz und Professor Spindler zu einer möglichen „Fairness-Pauschale“ als Vergütungsmodell zur Erfassung von Massennutzungen im Internet. Im Auftrag der Partei hatte Spindler ein solches Modell unter der These „Rechtliche und ökonomische Machbarkeit einer Kulturflatrate“ untersucht. Er hält eine „Internetabgabe“ als Breitbandabgabe für möglich, wenn durch die Änderung der sog. Info-Soc-Richtlinie dafür Öffnungen geschaffen werden. Allerdings fehlen noch genaue empirische Daten zur fundierten Berechnung der exakten Höhe einer solchen Abgabe.

Frau Jorna warf demgegenüber ein, dass jede Pauschalvergütung nachrangig gegenüber dem individuellen Aushandeln von Lizenzen als nach wie vor beste Alternative sei. In der Diskussion rügte der Filmmusikkomponist Hornschuh die zu wenig urheberzentrierte Richtung der Debatte. Insgesamt überwog der Eindruck einer unbefriedigenden Situation, die sich zwischen den politischen Lagern selbst lähme und letztlich Stillstand und gerade keine Bewegung erzeuge.

Den zweiten Teil der Tagung leitete der Medienwissenschaftler Professor Gundolf Freyermuth (internationale filmhochschule köln) mit einem medienhistorischen Vortrag ein, in dem er die Geschichte des Urheberrechts als Versuch kennzeichnete, eine Balance zwischen vier Gruppen, den Kreativen, Verwertern, Staat und der Allgemeinheit nachzuzeichnen. Im Übergang vom Privilegienzeitalter zum gesetzlichen Urheberrecht sei es gelungen, dem Staat Einfluss zu nehmen und diesen Einfluss den übrigen drei Gruppen zurückzugeben. Im Digitalzeitalter sei der Einfluss von Kreativen und Allgemeinheit zugunsten der Verwerter und staatlicher Regulierung wieder gestiegen. Die derzeitigen „Copyright-Wars“ seien Folge sprunghafter technologischer Entwicklungen, welche die Eskalation der Krise vorangetrieben hätten. Die Verwerter würden durch Ausweitung ihrer Verwertungsrechte gestärkt, während die Autoren daran bisher kaum finanziell beteiligt würden. Die Kriminalisierung von Piraterie habe medienhistorische Vorbilder, sie sei sehr viel weniger sinnvoll als die bezahlbare und einfache Zugänglichmachung digitaler Inhalte und damit legaler Alternativen zur Piraterie.

Dr. Rolf Danckwerts, LL.M. (Richter am LG Berlin) referierte über Probleme der Durchsetzung des Urheberrechts im digitalen Bereich anhand der Störerhaftung von Internet-Providern. In diesem Feld werde die Abgrenzung legaler Geschäftsmodelle zu illegalen Praktiken immer schwieriger, die Abgrenzung rechtlich gebilligter von missbilligten Geschäftsmodellen noch nicht gelöst. Allenfalls könne man nach dem Grad der Gefährlichkeit der Dienste Risikohaftungstatbestände zuweisen. Die Rechtsprechung des BGH (etwa im Fall „Alone in the dark“) zeige, dass Internetanbieter, die neben illegalen auch legale Nutzungsmöglichkeiten eröffneten, kaum wirksam zu bekämpfen seien.

Die nachfolgende, von Dr. Dieter Frey (FREY Rechtsanwälte, Köln) moderierte Diskussion mit Professor Freyermuth, Dr. Danckwerts, Spielkamp (irights.info), Dr. Leonardy (GVU, Berlin), Professoren Peifer und Spindler stellte klar, dass ein Komplettverbot von urheberrechtsgefährdenden, aber nicht eindeutig illegalen Geschäftsmodellen nicht in Betracht komme. Man müsse sich also darauf konzentrieren, Prüf- und Vermeidungspflichten  zu formulieren, die noch zumutbar seien. Dr. Leonardy regte an, bei klar illegalen Plattformen diejenigen in die Haftung einzubeziehen, die auf solchen Diensten (genannt wurden megaupload, kino[x].to) Werbung platzierten („follow the money“, in Anlehnung an einen entsprechenden Vorschlag, den Direktorin Jorna zuvor formuliert hatte).

Kontrovers diskutiert wurde eine Pflicht zur Identifikation für Internetnutzer, um der Urheberrechtsverletzungen Vorschub leistenden Anonymität im Internet entgegenzutreten. Spindler hielt ein solches „Nummernschild“ im Netz jedenfalls für die Benutzung einiger Portale für durchaus erforderlich. Peifer merkte an, dass die anonyme Netznutzung verfassungsrechtlich verbürgt sei. Das Urheberrecht verlange einen neuen Umgang mit Inhalten, der weniger restriktiv sein müsse und die freiwillige Bereitstellung anreizen, also auch Vergütungen hierfür vorsehen müsse.

Einigkeit bestand darüber, dass schnelle Bewegungen angesichts der Komplexität der zu lösenden Probleme unrealistisch seien. Die Herstellung der nötigen Balance zwischen den beteiligten Interessen werde diffizil bleiben. So schloss die Veranstaltung mit der Feststellung: „Ein Urheberrecht auf dem Bierdeckel wird es nicht geben.“

 

Jahresauftaktveranstaltung des kölner forum medienrecht

  • Am 6. März 2013 fand im Rathaus der Stadt Köln die Jahresauftaktveranstaltung des kölner forums medienrecht zum Thema „Urheberrecht On-the-Move? – Zur Fortentwicklung des Rechts in der digitalen Welt“ statt. Nähere Informationen finden Sie hier: Einladung, Programm und Anmeldung.

Neuerscheinung: Institut für Rundfunkrecht - Tagungsband 2012

  • Mit Band 108 der Schriftenreihe des Instituts für Rundfunkrecht ist am 09. Januar 2013 der Tagungsband zur Vortragsveranstaltung des Instituts 2012 erschienen: Karl-E. Hain, Michael Loeb, Andreas Bartosch, Dieter Dörr, Wolfgang Hurnik, Ellen Simon-Heckroth, Tobias Schmid: Kommerzielle Tätigkeiten der öffentlich-rechtlichen Rundfunkanstalten, Vortragsveranstaltung des Instituts für Rundfunkrecht an der Universität zu Köln vom 15. Juni 2012

 

Jahresauftaktveranstaltung des kölner forum medienrecht

  • Am 15. März 2012 fand im Rathaus der Stadt Köln die Jahresauftaktveranstaltung des kölner forums medienrecht zum neuen Glücksspielrecht in Deutschland "Neues Spiel, neues Glück? -  Der neue rechtliche Rahmen für Glücksspiel in den Medien" statt. Nähere Informationen finden Sie hier: Einladung und Programm.