Kollateralschaden für die Meinungsfreiheit? - Vorschläge zur Abschaffung des Haftungsprivilegs treffen auf Kritik

Von Jana Ballweber (KNA)

REGULIERUNG - Die Forderungen, Online-Plattformen für die Inhalte ihrer Nutzer haftbar zu machen, gewinnt immer mehr Unterstützung. Dabei gibt es Zweifel, ob die Maßnahme überhaupt mit dem Grundgesetz vereinbar wäre. Teil zwei unserer Serie zum Haftungsprivileg.

| KNA Mediendienst

alt

Haftungsprivileg

Foto: Andrii Yalanskyi/Zoonar/Imago/KNA

Bonn (KNA) Europa diskutiert über die Macht der großen US-Digitalkonzerne. In Deutschland wollen Politiker und Regulierer die Plattformen stärker in die Pflicht nehmen. Als Baustein dafür schlagen sie immer häufiger eine Abschaffung oder Reform des Haftungsprivilegs vor, das Plattformen aus der Verantwortung für die Inhalte entlässt, die Nutzer über ihre Infrastruktur verbreiten. Nicht alle Experten sind von den Vorschlägen überzeugt. Der Mannheimer Jurist Ralf Müller-Terpitz, der zu Medien- und Internetrecht forscht, betont, dass Deutschland einen solchen Schritt alleine überhaupt nicht gehen könnte: "Das EU-Recht hindert uns daran, auf nationaler Ebene etwas daran zu verändern. Und in Brüssel nehme ich dahingehend im Augenblick keinen Reformwillen wahr." Ein weiteres Problem: "Wenn wir den Plattformen die Verantwortlichkeit für alle Inhalte zuschreiben, die hochgeladen werden, ist das Geschäftsmodell tot", warnt Müller-Terpitz. Das könne man wollen, wenn man den Plattformen ohnehin kritisch gegenüberstehe. Aber: "Man müsste sich dann die Frage stellen, welchen Kollateralschaden man damit verursacht", so Müller-Terpitz weiter. "Plattformen sind ja nicht per se nur schlecht. Sie generieren ja auch gesellschaftliche positive Effekte." Hier gelte es, eine Balance zwischen Schutz vor illegalen Inhalten und dem Schutz der Meinungsfreiheit und Kommunikation zu finden. Plattformen geben Menschen die Möglichkeit, Dinge hochzuladen, mit anderen zu teilen und ihre Meinung zu äußern, sagt Müller-Terpitz. "Wenn ich den Plattformen eine Haftung auferlege, müssen diese natürlich jeden Inhalt kontrollieren und das dürfte im Zweifel dazu führen, dass man als Plattform eher mehr blockiert." Im Augenblick könne zunächst jeder etwas hochladen und in problematischen Einzelfällen werde im Nachgang über eine mögliche Löschung entschieden. "Der Kollateralschaden für die Meinungsfreiheit könnte größer sein als der Gewinn, den eine Abschaffung des Haftungsprivilegs erzeugt." Auch Erik Tuchtfeld, Jurist und Co-Vorsitzender der zivilgesellschaftlichen Organisation D64 - Zentrum für digitalen Fortschritt, sieht eine Abschaffung des Haftungsprivilegs kritisch: "Wenn man das Haftungsprivileg abschafft, verlangt man, dass die Plattformen von Anfang an die Rechtmäßigkeit eines Inhalts überprüfen." Das sei bei Urheberrechten oder gefälschten Zitaten, die vorher als solche gemeldet wurden, noch vergleichsweise einfach möglich, weil es hier eindeutiges Material gebe, gegen das die Inhalte abgeglichen werden können. Ein bestimmtes Lied, das urhebrrechtlich geschützt ist, darf beispielsweise nicht einfach genutzt werden, weil das einen Verstoß gegen das Urheberrecht darstellt. Ein Zitat, das in der Vergangenheit fälschlicherweise einer Person zugeschrieben wurde, darf nicht mehr mit ihr in Zusammenhang gebracht werden. Aber schon beim Thema Datenschutz sieht Tuchtfeld dieses Konzept an seinem Ende angelangt: "Die Rechtmäßigkeit eines solchen Inhalts kann man nur überprüfen, wenn es entweder ganz wenige Inhalte gibt - das ist das, was Zeitungen tun - oder wenn man alles über Menschen weiß." Nur dann könne man als Plattform sicher verhindern, dass Lügen über einen Menschen erzählt werden. "Die Many-to-many-Kommunikation des Internets, bei der eben nicht mehr nur einige wenige publizieren dürfen, hat in den letzten ein, zwei Jahrzehnten natürlich auch viel Dreck nach oben gespült", so Tuchtfeld. "Ich halte es aber für keine gute Idee, dass Plattformen präventiv überprüfen müssen, ob jeder Inhalt rechtmäßig ist." Tuchtfeld sieht bei einer Abschaffung des Haftungsprivilegs außerdem gravierende verfassungsrechtliche Bedenken: "In unserer Verfassung heißt es: 'Eine Zensur findet nicht statt.' Das ist ein absolutes Verbot, das auch nicht mit anderen Grundrechten abgewogen wird." Gemeint sei damit die präventive Überprüfung von Inhalten auf ihre Rechtmäßigkeit durch eine staatliche Stelle, bevor sie veröffentlicht werden. "Es ist gar kein Problem, dass man auf die Mütze bekommt, wenn man Inhalte veröffentlicht, die sich danach als rechtswidrig herausstellen. Aber eben nach der Veröffentlichung." Wer private Plattformen zur Überprüfung der Inhalte vor der Veröffentlichung zwinge wolle, sei zumindest nah dran am formalen Zensurbegriff des Grundgesetzes, so Tuchtfeld weiter. Dieses Problem gibt es dem Juristen zufolge auch schon bei den bestehenden Regelungen zu Uploadfiltern beim Urheberrecht: "Wenn wir als Gesellschaft einer ständigen Überprüfung unserer Inhalte ausgesetzt sind, steht das in einem Spannungsfeld zum Grundgedanken des Zensurverbots." Es gehe hierbei nicht darum, dass die gerade aktuelle Regierung missliebige Meinungen unterdrücke, sondern dass eine Infrastruktur geschaffen werde, die es zukünftigen, unter Umständen autoritären Regierungen ermögliche, Inhalte herauszufiltern, die wir heute noch für unproblematisch oder sogar relevant für die Demokratie halten, so Tuchtfeld. Dieses Argument will Thorsten Schmiege, Vorsitzender der Direktorenkonferenz der Landesmedienanstalten und erklärter Gegner des Haftungsprivilegs, nicht gelten lassen. Es sei längst icht mehr so, dass die Plattformen nicht wissen, welche Inhalte bei ihnen verbreitet werden. Grund hierfür seien die fortschrittlichen Algorithmen, die Schmiege zufolge ein Grundverständnis vom Inhalt haben müssen, um über dessen Reichweite zu entscheiden. Somit könnten sie auch über dessen mutmaßliche Rechtmäßigkeit entscheiden. Diese Technik komme auf vielen Plattformen ohnehin bereits zum Einsatz, argumentiert er. Um das Werbeumfeld zu schützen, haben die Plattformen Schmiege zufolge oft ein Interesse daran, bestimmte Inhalte herauszufiltern und in ihrer Reichweite zu beschränken beziehungsweise ganz zu löschen. Auch die urheberrechtlichen Uploadfilter sieht Schmiege als positives Beispiel: "Das System funktioniert. Es ist nicht nachzuvollziehen, warum man in allen anderen Bereichen den Zusammenhang zwischen Verantwortlichkeit und Haftung abgeschnitten hat", so Schmiege weiter. Dass es immer Grenzfälle geben kann, in denen von einer Plattform mehr gelöscht werde als zwingend rechtlich geboten, gesteht auch er ein. "Die Ausnahme von der Ausnahme darf aber nicht der Maßstab sein. Denn die große Masse an eindeutigen Fällen unzulässiger Inhalte könnte man damit in den Griff bekommen", hofft Schmiege. Es dürfe nicht sein, dass Plattformen sich bei eindeutig unzulässigen Inhalten hinter ihrem Haftungsprivileg verstecken und bei eindeutig zulässigen Inhalten, die sie trotzdem löschen, auf ihre Community-Richtlinien verweisen, die oft nicht eins zu eins mit dem Rechtsrahmen übereinstimmen. Das Argument, dass Algorithmen die Inhalte ohnehin schon vorsortieren und Plattformen schon in diesem Moment Kenntnis über ihre Rechtmäßigkeit erhalten, überzeugt andere Experten so aber nicht. Ralf Müller-Terpitz hält es unter den aktuellen Gesetzen für fraglich, ob eine automatisierte Filterung, an der kein Mensch beteiligt ist, rechtlich schon als Kenntnisnahme und damit als Voraussetzung für die Haftung von Plattformen gelten kann: "Der Digital Service Act ist eher so gedacht, dass eine Person Kenntnis von der Rechtswidrigkeit eines Inhalts erlangen muss, um dann Maßnahmen zu ergreifen." Hierfür spräche auch die "Gute-Samariter-Klausel" in Artikel 7 des Digital Services Act, die es Plattformen ermöglicht, aktiv nach illegalen Inhalten zu suchen, ohne ihre Haftungsprivilegien einzubüßen. Erik Tuchtfeld sieht noch zwei weitere Probleme: "Die algorithmische Entscheidung über die Veröffentlichung und die Reichweite von Inhalten ist Teil eines Geschäftsmodell, das viele, darunter ich, kritisch sehen." Schaffe man als Reaktion auf die Praktiken von Big Tech das Haftungsprivileg ab, mache man dieses umstrittene Geschäftsmodell - die KI-basierte Auswertung aller Inhalte auf Social Media - zur rechtlichen Voraussetzung für den Betrieb einer Plattform. Außerdem sei die Bewertung der Rechtmäßigkeit eines Inhalts ungleich komplexer als die Frage, ob ein Inhalt zu einem Nutzer oder einer Nutzerin passe, so Tuchtfeld weiter. "Äußerungsrecht ist eines der schwierigsten Rechtsgebiete, die es in Deutschland gibt. Es gibt Gründe, warum etwa die Rechtsprechung im Fall Künast durch viele Instanzen und Rechtsabteilungen ging, bevor das Bundesverfassungsgericht die vorhergehenden Urteile aufgehoben hat." Die Grünen-Politikerin Renate Künast hatte vor einigen Jahren erfolgreich den Digitalkonzern Meta verklagt, um zu erreichen, dass der Konzern die Daten von Nutzern herausgeben muss, die Künast online beleidigt hatten. Die Frage, welche Inhalte rechtmäßig seien und welche nicht, müsse sehr nuanciert beantwortet werden, fordert Tuchtfeld. Das sei bei vielen Grenzfällen mit algorithmischer Steuerung allein nicht machbar. Dabei sieht er auch noch eine weitere Gefahr: "Diese Art von Filtermechanismen können sich nur sehr große Unternehmen leisten." Anstatt, wie von den Kritikern des Haftungsprivilegs gewünscht, die Macht der großen Plattformen einzuschränken, könnte sie stattdessen noch wachsen: "Schon Wikipedia, die einzige gemeinwohlorientierte Plattform, die als Very Large Online Platform unter die strengen Regeln des Digital Services Act fällt, hätte damit große Probleme." Es sei völlig undenkbar, dass etwa der Betreiber einer kleinen Mastodon-Instanz eine eigene Filtertechnologie entwickle, warnt Tuchtfeld. "Entweder gibt es dann irgendwann diese kleinen Plattformen nicht mehr oder sie müssen die Filtertechnologie von Big-Tech-Anbietern einkaufen", prognostiziert der Jurist - ein weiterer Machtzugewinn für die großen Unternehmen, die man eigentlich einschränken will. "Die Bedeutung des Haftungsprivilegs für die Regulierung großer Plattformen wird meiner Meinung nach überschätzt. Die Bedeutung für kleine, gemeinwohlorientierte Angebot wird allerdings unterschätzt", so Tuchtfeld weiter. Ein Problem, das auch Thorsten Schmiege sieht: "Natürlich lässt sich großen Anbietern mehr zumuten als kleinen. Grundsätzlich sollten kleine Anbieter wenig Prüfpflichten haben, weniger jedenfalls als große Plattformen, weil sie ja auch eine geringere Meinungsmacht haben." Dezentrale Ansätze müsse man sich im Detail anschauen - ob dies zur Umgehung genutzt werde, um sich der Verantwortung zu entziehen, so Schmiege weiter. Die Abstufung der Haftung nach Größe der Plattform ist nur ein Kompromissvorschlag, der in der Debatte immer wieder auftaucht. Ein anderer ist es, Plattformen nur für die Inhalte haften zu lassen, die sie mithilfe von Werbung monetarisieren, also mit denen sie unmittelbar Geld verdienen. Denn eigentlich haben sich die meisten Plattformen hier selbst schon Regeln gegeben, die das verhindern sollen. Viele Werbekunden wollen ihre Produkte schlicht nicht im Umfeld von rechtswidrigen Inhalten bewerben. Dennoch kommt es in der Praxis immer wieder vor. Tuchtfeld hält das allerdings nicht für ein Problem. Inhalte, bei denen sich die Werbung lohne, hätten in der Realität ohnehin oftmals große Reichweiten: "Sobald ein Inhalt gesellschaftlich relevant wird, in der Regel also von Hunderttausenden oder Millionen Menschen gesehen wird, gibt es immer irgendeine Person, die sich daran stört und den Inhalt meldet." Ab diesem Moment sei das Haftungsprivileg ohnehin weg und der Inhalt müsse geprüft werden, so Tuchtfeld weiter. Dass in der Folge trotzdem oft nichts passiere, liege nicht an zu laschen Gesetzen, sondern an der fehlende Rechtsdurchsetzung. Daran würde aber auch die Abschaffung des Haftungsprivilegs nichts ändern, vermutet Tuchtfeld. Vorstellbar wäre es, das Haftungsprivileg nur für bestimmte Delikte abzuschaffen: "Ich habe große Bedenken bei allem, was im Bereich der politischen Äußerung ist. Anders ist es dagegen beispielsweise im Bereich der Abbildungen von Kindesmissbrauch." Hier sei eine Überprüfungspflicht aus der Perspektive der Meinungsfreiheit und des politischen Diskurses unproblematisch. Fälle von Overblocking gebe es zwar auch in diesem Bereich - etwa wenn Eltern aus medizinischen Gründen Fotos von ihren nicht bekleideten Kindern an Ärzte schicken und deshalb von Tech-Konzernen die Accounts entzogen bekommen. Aber: "Es gibt keine Berechtigung für Abbildung von Kindesmissbrauch auf irgendwelchen Plattformen", sagt Tuchtfeld. Aber einer gewissen Größe von Plattformen sei hier eine Überprüfung schlicht notwendig. "Natürlich müssen wir auch hier die Frage nach der Implementierbarkeit für kleine Plattformen stellen. Hier könnte es Filter einer Medienaufsicht oder einer nicht-staatlichen Institution geben, die technisch über einen offenen Standard gut integriert werden können." All diese Argumente und Kompromissvorschläge zeigen: In der Debatte um eine Reform des Haftungsprivilegs gibt es nicht nur schwarz und weiß: "Ein pauschales Haftungsprivileg ist genauso falsch wie die Aussage, dass ab jetzt jeder Inhalt zu hundert Prozent kontrolliert sein muss, bevor eine Plattform ihn weiterverbreiten darf. Es geht um ein abgestuftes Haftungsregime je nach Einflussmöglichkeit und Verhältnismäßigkeit", sagt etwa Medienregulierer Thorsten Schmiege. Auch Tuchtfeld als Gegner einer Abschaffung teilt die Kritik an den Big-Tech-Konzernen, die für viele zum Kern des Problems gehören. Nur über dessen konkrete Lösung herrscht bislang wenig Einigkeit. In Teil drei beleuchten wir in der kommenden Woche mögliche Auswirkungen einer Reform oder Abschaffung des Haftungsprivilegs auf die Medienbranche und alternative Vorschläge für die Reduzierung der Plattformmacht..

Lesen Sie weiter auf www.KNA-News.de