MixTalk ! Social Media: Regulierung vs. Meinungsfreiheit u.a. zu Gast: @zaizencosplay CORRECTIV.Faktencheck @gavinkarlmeier
Diskussion: Regulierung und Meinungsfreiheit in sozialen Medien
Es wurde über die Debatte zwischen Regulierung und Meinungsfreiheit in sozialen Medien gesprochen. Experten beleuchteten die Auswirkungen von Plattform-Änderungen unter Elon Musk und Mark Zuckerberg. Es wurde über den Umgang mit Falschinformationen und die Verantwortung von Plattformen diskutiert.
Begrüßung und Themenstellung des MixTalks
00:06:08Der Stream beginnt mit einer Begrüßung der Community und der Vorstellung des heutigen Themas: die Debatte um Regulierung versus Meinungsfreiheit in den sozialen Medien. Die Moderatorin stellt fest, dass alle Nutzer von Social-Media-Plattformen direkt von diesem Thema betroffen sind, insbesondere wenn es um die Grenzen von Meinungsfreiheit auf Plattformen wie Twitch geht. Die Grundlage für die Diskussion wird gelegt, indem die gegensätzlichen Positionen von Elon Musk (mehr Meinungsfreiheit auf X) und Mark Zuckerberg (Faktenchecks auf Meta) erwähnt werden.
Vorstellung des ersten Experten: CORRECTIV Faktencheck
00:11:25Gast der ersten Runde ist Alice Echtermann, Journalistin vom CORRECTIV Faktencheck-Team. Sie erklärt die Arbeit ihrer Organisation, die sich mit dem Aufspüren von Falschinformationen, Gerüchten und Lügen im Internet beschäftigt. Sie erläutert den Anstieg des Bedarfs an Faktenchecks seit der Präsidentschaft von Donald Trump und der COVID-19-Pandemie und betont, dass CORREKTIV nach strengen journalistischen Standards arbeitet und zertifiziert ist. Ein zentrales Prinzip ist die Transparenz: auch eigene Fehler werden öffentlich korrigiert.
Analyse von X (ehemals Twitter) durch Journalisten Gavin
00:26:25Als nächster Gast tritt Gavin Karlmeier auf, Journalist und Podcaster. Er analysiert die massive Veränderung der Plattform X unter Elon Musk. Er beschreibt, wie das frühere Community-Netzwerk durch algorithmische Timelines und das Bezahlmodell X Premium, das das Käuflichmachen von Reichweite ermöglicht, grundlegend verändert wurde. Dadurch hätten sich aggressivere und rechter-extreme Inhalte breitgemacht und Falschinformationen verbreiten sich laut seiner Beobachtung deutlich schneller und häufiger als unter dem alten Management.
Konkrete Beispiele und Auswirkungen von Falschinformationen
00:34:53Die Diskussion wird durch einen realen Vorfall einer Zuschauerin namens Nadine illustriert, die die Verbreitung irreführender Informationen über das HMPV-Virus schildert. Die Zuschauerin berichtet, wie falsche Behauptungen über einen Test an der Harnröhre für unnötige Panik sorgten. Alice Echtermann erläutert, dass solche Fälle zeigen, wie wichtig es ist, dass Nutzer Quellen hinterfragen. Sie betont, dass Faktencheck-Teams wie CORREKTIV sich nur auf die relevantesten und viralsten Fälle konzentrieren können, da eine umfassende Prüfung aller Postings unmöglich ist.
Das Kernproblem: Moderation und Verantwortung der Plattformen
00:45:18Gavin formuliert das Kernproblem sozialer Netzwerke mit der Metapher einer Party mit Milliarden von Gästen, aber ohne Sicherheitspersonal und Aufsicht. Die Plattformen betreiben de facto riesige Öffentlichkeiten, aber sie schaffen es immer weniger, ihre Pflicht zur Inhalte-Moderation zu erfüllen. Der Abbau von Content-Moderationsteams führt dazu, dass Hassrede und Desinformation ungebremst die Runde machen. Die Zahlen des Bundeskriminalamts zeigen einen starken Anstieg bei gemeldeten Hassdelikten, was auf ein größeres Problem hindeutet, auch wenn nicht klar ist, ob dies mehr Vorfälle oder mehr Meldungen bedeutet.
Unterschiedliche Kulturen: Meinungsfreiheit in Europa vs. USA
00:47:36Am Ende des Streams werden die unterschiedlichen kulturellen Auffassungen von Meinungsfreiheit thematisiert. Während der amerikanische Begriff 'Freedom of Speech' oft als absolute Freiheit interpretiert wird, kennt der europäische Begriff 'Meinungsfreiheit' klare Grenzen, um andere zu schützen. Diese Diskussion ist zentral, da sie die Grundlage für die Regulierungsdebatte in Europa bildet und die Spannung zwischen individueller Meinungsäußerung und dem Schutz vor schädlichen Inhalten beleuchtet.
Definition und Grenzen der Meinungsfreiheit
00:48:05Der Stream eröffnet mit einer klaren Definition von Meinungsfreiheit und Regulierung in sozialen Netzwerken. Es wird betont, dass die Meinungsfreiheit keine absolute ist und durch Gesetze, wie das Verbot der Holocaustleugnung oder Beleidigungen, Grenzen hat. Regulierung in sozialen Netzwerken bedeutet demnach nicht die Zensur der Nutzer, sondern die Anwendung und Durchsetzung bestehender Gesetze auf digitale Plattformen. Der Fokus liegt darauf, dass grundlegende ethische und rechtliche Standards auch online gelten müssen.
Metas Community-Änderungen und deren Konsequenzen
00:48:54Es wird auf Metas, unter Führung von Mark Zuckerberg, aktuellen Fünf-Punkte-Plan eingegangen. Eine Kernänderung ist die Anpassung der Community Guidelines, in der die Begriffe 'Gender' und 'Migration' nicht mehr kontrolliert werden. Dies hat zur Folge, dass Rassismus, Trans-, Homo- und Queerfeindlichkeit auf den Plattformen von Meta fortan geduldet werden. Laut dem Streamer wird dies sogar im US-Recht explizit gestattet und dient als Beispiel dafür, wie Entscheidungen von Konzernführern grundlegende Rechte beeinflussen können.
EU- und nationale Gesetzgebung zur Löschenpflicht
00:51:25Der Stream beleuchtet die gesetzlichen Grundlagen zur inhaltlichen Regulierung in der EU und in Deutschland. Seit Februar 2024 gilt der Digital Service Act (DSA), der illegale Inhalte löscht und Grundrechte schützt. Ergänzend regelt das deutsche Netzwerkdurchsetzungsgesetz (NetzDG), dass offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden nach Meldung zu entfernen sind, um hohe Strafen für Plattformen zu vermeiden. Trotz dieser Gesetze zeigen die Löschquoten der Plattformen massive Unterschiede auf.
Umgang mit dem Wegfall von Faktenchecks und Rechercheempfehlungen
00:53:00Vor dem Hintergrund der Abschaffung von Faktencheck-Labels durch Meta wird diskutiert, wie Nutzer mit Informationen umgehen sollten. Der Ratschlag lautet, eigene Recherche zu betreiben und bei Zweifeln gezielt Faktenchecks bei etablierten Medienpartnern zu suchen. Wichtig ist die Unterscheidung zwischen Tatsachenbehauptungen und Meinungen, da nicht alles gefaktcheckt werden kann. Die eigene Urteilsfähigkeit und Schulung im Umgang mit Quellen wird als Schlüssel zum Erkennen von Falschinformationen betont.
Anonymität im Internet: Schutzfunktion vs. Missbrauch
00:57:49Die Diskussion wendet sich der Frage der Anonymität im Internet zu. Es wird argumentiert, dass eine Klarnamenpflicht zwar den verbalen Missbrauch reduzieren könnte, aber weitreichende negative Folgen hätte. Dazu zählen der Schutz von Whistleblowern, die Möglichkeit für politisch Verfolgte, sich zu organisieren, und die Grundlage für soziale Bewegungen wie den 'arabischen Frühling'. Die Sorge ist, dass eine totale Identifizierung eine permanente Überwachung bedeuten würde und keine Lösung für das Problem von Hetze und Drohungen ist.
Selbstversuch: AfD-Inhalte auf TikTok und die Rolle der Algorithmen
01:08:25Ein durchgeführter Selbstversuch zeigt, wie schnell und leicht Nutzer auf TikTok in eine Blase extrem rechter, AfD-naher Inhalte abrutschen können. Nach nur wenigen Interaktionen mit einem AfD-Video wird der Feed fast ausschließlich mit solchen Inhalten gefüttert. Experten erklären dieses Phänomen mit der auf emotionale Spannung und Vereinfachung ausgerichteten Kommunikationsstrategie der AfD, die negative Emotionen wie Wut und Angst schürt und so hohe Engagement-Werte generiert, welche vom Algorithmus bevorzugt werden.
Die Macht der Negativität und die Bedeutung von Kommentaren
01:15:24Es wird die These aufgestellt, dass der negative Kommentar der dominante Treiber in sozialen Medien ist. Nur eine kleine Minderheit der Nutzer kommentiert, und diese handelt oft aus starken Emotionen wie Wut oder Hass. Kommentare werden durch die Plattform-Algorithmen verstärkt und sorgen für eine noch höhere Reichweite. Dadurch entsteht eine verzerrte Wahrnehmung, in der der negative Diskurs lauter erscheint als der positive. Es wird jedoch auch die Gegenrede als wichtiger Ansatz zur Mäßigung der Debatte gesehen.
'Woke' als politischer Kampfbegriff in Gaming-Communities
01:26:53Ein Gast aus dem Gaming-Bericht erörtert die zunehmende Polarisierung in den Communities. Der Begriff 'Woke', ursprünglich aus dem linken Spektrum, wird von politischen Gegnern als Schimpfbegriff umgedeutet, um jede Form von Diversität und Repräsentation in Spielen abzuwerten. Dieser negative Diskurs verschärft sich und wirkt sich auch auf die Community-Management-Arbeit aus. Es wird festgestellt, dass praktisch jedes Spiel politisch ist und die Debatten über Inhalte zunehmend aggressiver werden.
Definition von Zensur und Freier Rede
01:28:50Zensur ist ein sensibles Thema, das oft ungenutzt wird und staatliche Kontrolle vor der Veröffentlichung impliziert. Eine solche Form der staatlichen Zensur ist in Deutschland nicht zulässig und ein Ansatz, den man normalerweise nicht verfolgt. Die freie Rede ist ein fundamentales Prinzip, allerdings ist die technische Umsetzung von Kontrollmaßnahmen im Internet, das eine riesige Masse von Inhalten und Nutzern hat, schlicht und ergreifend unmöglich.
Unmöglichkeit der Regulierung und Realismus
01:31:21Die technische Regulierung von Inhalten im Internet wird als schlicht unmöglich angesehen, da das Phänomen zu groß ist. Der Wunsch nach mehr Moderatoren oder KI-Filtern löst das Kernproblem nicht, da sich die Diskussionen im Kreis drehen und nichts ändert. Stattdessen muss man die Hürden bis auf das Erträgliche runterschrauben und die Fakten der Welt anerkennen, da manche Dinge nicht reguliert werden können.
Community-Moderation und Selbstregulation
01:35:22Moderation funktioniert nicht nur durch das Team, sondern in einem Zusammenspiel mit der Community. Oft werden nicht die Moderatoren aktiv, sondern die Community selbst wacht über die Spielregeln und weicht User ab, die über die Strichen gehen. Ein Beispiel hierfür sind Community Notes auf X, wo Nutzer Inhalte mit Kontext versehen. Dieser Ansatz wird als fragmentarisch, aber effektiv angesehen.
Kritik an technischen und sozialen Lösungen
01:39:23Vorschläge wie ein Sozialkredit-System werden scharf kritisiert, da sie an das chinesische System erinnern und leicht manipulierbar sind. Auch Belohnungssysteme in Online-Spielen haben sich als nicht wirkungsvoll erwiesen. Der menschliche Ansatz wird bevorzugt, da eine Maschine nicht die menschliche Empathie zeigen kann, die oft der Schlüssel zu einer positiven Auseinandersetzung ist.
Hassmeldungen als positives Signal
01:44:24Der Anstieg der gemeldeten Hasspostings von 2021 auf 2023 wird nicht nur als negativer Trend gesehen, sondern auch als positives Zeichen. Es zeigt, dass immer mehr Menschen bereit sind, Hass zu melden, wodurch sich etwas bewegen kann. Es gibt zunehmend Organisationen und Meldestellen wie Respect oder HateAid, die juristische Schritte einleiten und das Bewusstsein schärfen.
Persönlicher Schutz und digitale Resilienz
01:53:30Um sich im Internet vor Hass und Fake News zu schützen, rät man zu Empowerment. Das bedeutet, das Internet und seine Funktionsweise zu verstehen, um selbstbewusster agieren zu können. Eine wichtige Strategie ist die digitale Resilienz: zu lernen, was einen wirklich berührt, und die Emotionen zu kontrollieren, bevor man handelt. Konkrete Tipps sind, freundlich zu bleiben, Abstand zu wahren und Informationen über Meldestellen einzuholen.