Hintergrund des Urteils
Das Oberlandesgericht Frankfurt am Main hat entschieden, dass Facebook berechtigt ist, Beiträge zu entfernen, die nachweislich Fehlinformationen über die Wirksamkeit oder Gefährlichkeit von COVID-19-Impfstoffen enthalten. Das Urteil ist ein wichtiger Meilenstein im Spannungsfeld zwischen Meinungsfreiheit und dem Schutz der öffentlichen Gesundheit. Es verdeutlicht, wie Plattformbetreiber bei der Moderation von Inhalten vorgehen dürfen und welche Grenzen ihnen gesetzt sind.
Die rechtlichen Grundlagen
Das Gericht stützte seine Entscheidung auf mehrere rechtliche Grundlagen:
- Nutzungsbedingungen von Facebook:
Nutzer akzeptieren durch ihre Registrierung die Allgemeinen Geschäftsbedingungen (AGB) der Plattform. Diese beinhalten klare Regeln gegen die Verbreitung von Fehlinformationen, insbesondere im Zusammenhang mit der öffentlichen Gesundheit. - Netzwerkdurchsetzungsgesetz (NetzDG):
Gemäß § 3 Abs. 2 Nr. 1 NetzDG sind Plattformen verpflichtet, rechtswidrige Inhalte schnell zu löschen. Während Fehlinformationen nicht immer rechtswidrig sind, können sie gegen die AGB der Plattform verstoßen. - Schutz der Meinungsfreiheit (Art. 5 GG):
Das Grundrecht auf Meinungsfreiheit schützt freie Meinungsäußerungen, jedoch nicht die bewusste Verbreitung unwahrer Tatsachenbehauptungen.
Was sind Fehlinformationen?
Fehlinformationen sind nach dem Urteil solche Inhalte, die objektiv falsche Tatsachenbehauptungen aufstellen, z. B.:
- „COVID-19-Impfstoffe verursachen Unfruchtbarkeit.“
- „Die Impfstoffe enthalten Mikrochips zur Überwachung der Bevölkerung.“
- „Die Wirksamkeit der Impfstoffe liegt unter 10 %.“
Das Gericht betonte, dass sachliche Kritik an Impfstoffen nicht unter Fehlinformationen fällt. Aussagen, die auf wissenschaftlichen Erkenntnissen basieren oder legitime Fragen aufwerfen, dürfen nicht gelöscht werden.
Kernaussagen des Urteils
- Plattformbetreiber dürfen AGB durchsetzen:
Facebook handelt rechtmäßig, wenn es auf Basis seiner AGB Beiträge löscht, die als Fehlinformationen eingestuft wurden. - Abwägung zwischen Meinungsfreiheit und öffentlicher Gesundheit:
Das Gericht entschied, dass die Meinungsfreiheit ihre Grenzen dort findet, wo unwahre Tatsachenbehauptungen die öffentliche Gesundheit gefährden könnten. - Prüfung durch sachverständige Stellen:
Facebook darf sich bei der Bewertung von Inhalten auf die Einschätzungen von Gesundheitsbehörden wie der WHO oder dem RKI stützen.
Praktische Konsequenzen für Nutzer und Plattformen
Für Nutzer:
- Inhalte, die unwahre Tatsachenbehauptungen über COVID-19-Impfstoffe enthalten, können gelöscht werden, auch wenn diese subjektiv als Meinung wahrgenommen werden.
- Nutzer haben jedoch das Recht, die Löschung anzufechten und eine Überprüfung zu verlangen.
Für Plattformen:
- Plattformen müssen sicherstellen, dass Löschungen auf einer objektiven Grundlage erfolgen und nicht willkürlich sind.
- Eine transparente Kommunikation mit Nutzern, z. B. durch Erläuterungen zur Löschung, wird immer wichtiger.
Ähnliche Entscheidungen in der Rechtsprechung
- EuGH (2021): Der Europäische Gerichtshof entschied, dass Plattformen bei der Moderation von Inhalten auch präventive Maßnahmen ergreifen dürfen, solange dies verhältnismäßig ist.
- BGH (2022): Der Bundesgerichtshof bestätigte, dass Plattformen auf Basis ihrer AGB Inhalte löschen dürfen, solange sie den Nutzern die Möglichkeit zur Stellungnahme geben.
- Verwaltungsgericht Köln (2023): In einem ähnlich gelagerten Fall urteilte das Gericht, dass die Meinungsfreiheit nicht verletzt wird, wenn Fehlinformationen zu Gesundheitsthemen entfernt werden.
Kritik und Herausforderungen
Das Urteil wurde positiv aufgenommen, da es den Schutz vor gefährlichen Fehlinformationen stärkt. Kritiker sehen jedoch Risiken:
- Gefahr der Zensur: Die Grenze zwischen Fehlinformationen und legitimer Kritik kann schwer zu ziehen sein.
- Transparenzprobleme: Nutzer bemängeln oft die mangelnde Nachvollziehbarkeit von Löschentscheidungen.
- Abhängigkeit von Gesundheitsbehörden: Plattformen stützen sich auf Einschätzungen, die im Laufe der Pandemie verändert wurden.
Fazit
Das Urteil des Oberlandesgerichts Frankfurt setzt ein klares Zeichen: Plattformen wie Facebook dürfen Inhalte löschen, die nachweislich falsche Tatsachen über COVID-19-Impfstoffe verbreiten. Gleichzeitig wird betont, dass sachliche Kritik und Meinungsfreiheit nicht eingeschränkt werden dürfen. Nutzer und Plattformbetreiber müssen gleichermaßen Verantwortung übernehmen, um den Schutz der öffentlichen Gesundheit und die Meinungsfreiheit in Einklang zu bringen.