MixTalk ! Social Media: Regulierung vs. Meinungsfreiheit u.a. zu Gast: @zaizencosplay CORRECTIV.Faktencheck @gavinkarlmeier
Regulierung vs. Meinungsfreiheit: Diskussion über soziale Medien und Faktenchecks

Die ARD beleuchtet die Herausforderungen der Regulierung sozialer Netzwerke im Spannungsfeld zur Meinungsfreiheit. Mit Correctiv.Faktencheck und weiteren Gästen werden Themen wie Algorithmen, Faktenchecks, Anonymität, politische Inhalte auf TikTok und X sowie die Grenzen der Content-Moderation erörtert. Auch der Umgang mit Hasspostings und digitale Kompetenz sind Teil der Debatte.
Einleitung und Themenübersicht
00:06:37Der Mixtalk-Mittwoch startet mit einer Diskussion über die Regulierung von Social Media und Meinungsfreiheit. Die Moderatoren thematisieren die allgegenwärtige Präsenz sozialer Medien im Alltag und die damit verbundenen Fragen der Regulierung. Es wird die Frage aufgeworfen, ob soziale Medien stärker reguliert werden sollten oder ob mehr Meinungsfreiheit gewährt werden sollte. Die tägliche Konfrontation mit diesem Thema als Content Creator wird hervorgehoben, ebenso wie die unterschiedlichen Perspektiven der Zuschauer bezüglich der Nutzung verschiedener Plattformen wie Twitter/X, Facebook, Instagram und Discord. Die Notwendigkeit der Regulierung wird diskutiert, insbesondere im Hinblick auf Anonymität und Realnamenpflicht. Es wird auch auf die wachsende Bedeutung von Messenger-Apps wie WhatsApp und Telegram als soziale Netzwerke hingewiesen, da diese zunehmend Funktionen zum Teilen von Inhalten anbieten und Interaktionen ermöglichen. Mixtalk wird als Format vorgestellt, bei dem sich Zuschauer aktiv beteiligen und ihre Meinungen, Fragen und Erfahrungen einbringen können.
Faktenchecks in sozialen Medien
00:12:09Alice Echtermann vom CORRECTIV.Faktencheck-Team wird als Expertin zum Thema Faktenchecks in sozialen Medien vorgestellt. Sie erläutert, dass das Genre Faktencheck seit vielen Jahren existiert, besonders in den USA, und durch die erste Trump-Wahl im Jahr 2017 an Bedeutung gewann. Der Cambridge Analytica-Skandal, bei dem Nutzerdaten missbraucht wurden, um gezielte Werbung auszuspielen und Nutzer zu manipulieren, trug ebenfalls dazu bei. CORRECTIV hat sein Team während der Corona-Pandemie stark aufgestockt, um dem wachsenden Bedarf an Faktenchecks und Einordnungen gerecht zu werden. Echtermann betont, dass CORRECTIV transparent arbeitet und Fehler korrigiert, wobei alle Korrekturen auf der Webseite einsehbar sind. Die Organisation ist zudem durch das International Fact Checking Network zertifiziert, was eine Qualitätssicherung für Faktenchecks darstellt. Es wird ein Beispiel gezeigt, wie ein Faktencheck auf Facebook aussehen kann, bei dem eine Behauptung zu einem Todesfall im Bekanntenkreis widerlegt wird. Facebook kooperiert mit Faktencheckern wie CORRECTIV, um Warnhinweise auf ihren Plattformen anzubringen und Nutzer auf Falschinformationen hinzuweisen.
Finanzierung von Correctiv und Unabhängigkeit
00:22:24Die Finanzierung von CORRECTIV wird transparent auf der Webseite dargelegt. CORRECTIV ist eine gemeinnützige Organisation, die sich durch Einzelspenden und Spenden von Stiftungen finanziert. Es gibt kein Abonnementmodell wie bei Zeitungen. Eine im Chat aufkommende Behauptung, CORRECTIV habe an die Grünen gespendet oder umgekehrt, wird entschieden zurückgewiesen. Die Unabhängigkeit der Redaktion wird betont, und es wird klargestellt, dass Spenden keinen Einfluss auf die redaktionelle Arbeit haben. Die Trennung von Redaktion und wirtschaftlichen Interessen ist ein journalistischer Standard, der bei CORRECTIV eingehalten wird. Sollte jemand versuchen, die Berichterstattung durch Geldzahlungen zu beeinflussen, würde dies abgelehnt. Die Zusammenarbeit mit Meta könnte sich in Zukunft ändern, da Meta in den USA beschlossen hat, das Faktencheck-Programm einzustellen. Dies wird kritisch gesehen, da es zu mehr Hassrede und Desinformation führen könnte.
Entwicklung von Twitter/X und Falschinformationen
00:26:50Gavin Karlmeier, Journalist und Podcaster, beschreibt die Entwicklung von Twitter (jetzt X) und die Veränderungen seit der Übernahme durch Elon Musk. Er betont, dass X nicht mehr viel mit dem alten Twitter gemein hat, das von Community und Echtzeit-Informationen geprägt war. Die algorithmische Timeline und die Möglichkeit, Reichweite durch X Premium zu kaufen, haben dazu geführt, dass sich die Kultur der Plattform verändert hat und negative Inhalte stärker verbreitet werden. Alice Echtermann bestätigt, dass sich auf X im Vergleich zu früher mehr Falschinformationen viral verbreiten. Es wird vermutet, dass der Algorithmus konservative und rechtsextreme Meinungen verstärkt, was von der EU untersucht wird. Als Beispiele für Falschinformationen werden russische Desinformationskampagnen und Falschmeldungen zum Thema Migration genannt. Gavin Karlmeier ergänzt, dass bei aktuellen Lagen wie dem Vorfall in Magdeburg schnell Falschinformationen verbreitet werden, insbesondere wenn viele Menschen nach Erkenntnissen suchen.
Regulierung sozialer Netzwerke und Meinungsfreiheit
00:48:05Die Regulierung sozialer Netzwerke zielt darauf ab, dass Gesetze, die für Menschen gelten, auch in diesen Netzwerken durchgesetzt werden. Es geht nicht darum, Meinungsfreiheit einzuschränken, sondern illegale Handlungen wie Wahlmanipulation und Beleidigungen zu verhindern. Plattformen berufen sich oft auf Meinungsfreiheit, um solche Handlungen zu rechtfertigen. Mark Zuckerbergs Fünf-Punkte-Plan beinhaltet die Abschaffung von Faktenchecks und die Anpassung der Community Guidelines bei Meta, was bedeutet, dass Themen wie Gender und Migration nicht mehr kontrolliert werden. Dies führt dazu, dass Rassismus sowie Trans- und Queerfeindlichkeit auf Plattformen wie Facebook, Instagram und Threads toleriert werden. In den USA ist es nun sogar erlaubt, Homosexualität als Geisteskrankheit zu bezeichnen. Es stellt sich die Frage, ob Meinungsfreiheit das Recht beinhaltet, andere zu beleidigen, was eine gesetzliche und keine kulturelle Frage ist und nicht von Einzelpersonen entschieden werden sollte. Die Regulierung in Social Media ist schwierig, da Kommunikation über Ländergrenzen und Kulturen hinweggeht und es schwer ist, einheitliche Regeln zu finden.
Regulierung von Inhalten in sozialen Netzwerken
00:50:56Eine Forsa-Umfrage zeigt, dass 78% der User bereits Fake News und Hate Speech gesehen haben, was mehr ist als vor vier Jahren (73%). Die EU und Deutschland haben Regeln, um illegale Inhalte schnell zu löschen und Grundrechte zu schützen (Digital Service Act seit Februar 2024). Das deutsche Netzwerkdurchsetzungsgesetz verlangt, dass offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden nach Meldung gelöscht werden, sonst drohen hohe Strafen. Die Löschpraxis variiert stark: TikTok löschte 350 Millionen von 508 Millionen gemeldeten Beiträgen, während X nur 24 von 830.000 entfernte. Es stellt sich die Frage, wann Inhalte gelöscht werden sollten. Faktenchecks verschwinden nicht, können aber weiterhin auf sozialen Netzwerken verbreitet werden, auch ohne Labels. Nutzer sollten bei Bauchgefühl nicht teilen, sondern googeln und Faktenchecks suchen. Es wird nicht immer zu allem einen Faktencheck geben, daher ist eigene Recherche wichtig. Korrektiv und andere Medien bieten Workshops und Kurse an, um seriöse von unseriösen Quellen zu unterscheiden und Meinungen von Tatsachenbehauptungen zu trennen.
Anonymität vs. Klarnamenpflicht und politische Inhalte auf Social Media
00:56:09Stefan Huma, Professor für Digitalisierung, diskutiert die Vor- und Nachteile von Anonymität im Internet. Anonymität kann zwar Pöbeleien fördern, aber eine Klarnamenpflicht würde Whistleblowing und die Meinungsfreiheit politisch Verfolgter einschränken. Der arabische Frühling wäre ohne anonyme Kommunikation über soziale Medien nicht möglich gewesen. Totale Überwachung ist keine Lösung, da auch unter Klarnamen Drohungen ausgesprochen werden. Wer sich gesetzeswidrig verhält, kann auch jetzt schon identifiziert werden. Stefan Huma hat die Plattform X aufgrund der Vorliebe von Elon Musk für die AfD verlassen, was eine persönliche Entscheidung war. Viele Journalisten sind jedoch weiterhin auf X aktiv, um schnell an Informationen zu gelangen. Eine Umfrage zeigt, dass 47% der Befragten Parteiwahlkampf auf TikTok ablehnen. Die AfD ist jedoch erfolgreich auf TikTok und erreicht dort viele Menschen. Es gibt eine Professionalisierung der politischen Kommunikation, bei der Akteure gezielt Plattformen nutzen, um ihre Agenda zu verbreiten. Die AfD und die Grünen nutzen Social Media stark zur Information, wobei die CDU und SPD weniger aktiv sind. Dies könnte an der Altersstruktur der Wählerschaft liegen.
Manipulation durch Algorithmen und politische Inhalte auf TikTok
01:07:29Der Geschäftszweck von Social-Media-Plattformen, nämlich Werbung, beinhaltet Manipulation. Ein Selbstversuch zeigt, wie schnell man auf TikTok auf extrem rechte Inhalte stößt. Politische Werbung ist auf Meta-Netzwerken erst seit kurzem wieder erlaubt. TikTok ist sehr algorithmisch und zeigt schnell politische Inhalte an. Auf Proof Social, der Plattform von Donald Trump, gibt es einen Overkill an republikanischen Inhalten. Die Algorithmen von X pushen polarisierende Inhalte, was der AfD zugutekommt. Bei Neuanmeldungen auf X wird oft Alice Weidel als erster Account zum Folgen vorgeschlagen. Umstrittene Tweets, die viel Interaktion auslösen, werden von der Plattform bevorzugt. Ein Selbstversuch zeigt, dass man auf TikTok schnell in eine AfD-Blase gerät. Populistische Darstellungsweisen und die Erzeugung von Angst befeuern die Präsenz der AfD auf TikTok. Kommentare, insbesondere solche mit starken Emotionen, tragen zur Reichweite von Inhalten bei. Negative Emotionen wie Wut und Hass werden von der AfD gezielt eingesetzt, um Interaktion zu fördern. Impressionen sind jedoch nicht gleichbedeutend mit Reichweite. Zufriedene Nutzer sollten häufiger ihre Zufriedenheit äußern. Gegenrede ist ein wichtiger Ansatz, um ein realistisches Gesamtbild zu zeigen. Perfekte Social-Media-Profile können jedoch auch negative Emotionen wie Neid auslösen. Eine Alternative zu X könnten dezentrale Netzwerke wie Mastodon sein, die jedoch noch nicht die gleiche Instant Gratification und Netzwerkeffekte bieten.
Politische Aspekte in Videospielen und Meinungsfreiheit
01:28:22Fast jedes PC-Spiel ist politisch, sei es durch Herkunft, Themen oder Genre. Marvel Rivals zensiert China-kritische Inhalte im Chat. Viele Spieler wünschen sich unpolitische Spiele als Rückzugsort von schlechten Nachrichten. Es gibt keine klassischen Zensurfilter, Moderation erfolgt händisch nach einer Nettikette, um eine gleichberechtigte Teilnahme im Chat zu gewährleisten. Die staatliche Zensur, bei der der Staat vor Veröffentlichung Inhalte prüft, ist in Deutschland nicht zulässig. Technische Kontrollmaßnahmen im Internet sind unmöglich, selbst mit mehr Moderatoren oder KI-Filtern. Man muss die Hürde für Regulierung herunterschrauben und die Fakten anerkennen, da eine umfassende Regulierung technisch nicht umsetzbar ist, auch nicht mit KI. Die Fehlerquoten in der Text- und Sprachanalyse sind zu hoch, und Satire wird oft missverstanden. Plattformen aus den USA mit einem Free-Speech-Verständnis ignorieren oft deutsche Regulierungsversuche. Regulierungen sind höchstens auf EU-Ebene durchführbar, erfordern aber großen politischen Aufwand.
Herausforderungen der Content-Moderation und Community-Regulierung
01:34:19Meta beschäftigt tausende Content-Moderatoren in Drittstaaten, die täglich viel belastenden Inhalt sehen müssen, ohne dass ihr Wohlergehen beachtet wird. Kleinere Plattformen können ihre Community besser im Zaum halten, da die Moderation und die Community zusammenarbeiten. Das Ziel ist, den Nutzern die Spielregeln zu vermitteln, damit sie diese selbst anwenden. Oft greift die Community ein, bevor die Moderation aktiv wird, was eine positive Form der Regulierung darstellt. Bei großen Livestreams mit über 100.000 Zuschauern funktionieren nur noch Bot-Filter für extreme Schlagworte wie Hitler. Plattformen wie Reddit mit Up- und Downvotes oder X mit Community Notes bieten Selbstregulierungsansätze, die jedoch fragmentarisch funktionieren, da Bewertungen oft einen Bias haben. Die schiere Größe der Digitalisierung wird oft unterschätzt, mit 3 Milliarden Nutzern auf Meta-Plattformen. Messenger-Dienste sind noch schwerer einsehbar und regulierbar, was Sicherheitsforschern den Zugang erschwert. Ein Social Credit System wird als Idee eingebracht, stößt aber auf Bedenken hinsichtlich Manipulation und des chinesischen Modells. Elon Musk wird als Beispiel für jemanden genannt, der primär an Geld und Macht interessiert ist und kein Interesse an einem vernünftigen Klima auf seinen Plattformen hat.
Grenzen der Regulierung und Bedeutung digitaler Kompetenz
01:40:36Es ist unrealistisch, jede Beleidigung im Internet strafrechtlich zu verfolgen, ähnlich wie im Straßenverkehr nicht jede Hupen oder Vorfahrtsverletzung angezeigt wird. Eine gewisse Grauzone muss toleriert werden. Auch in 20 Jahren wird es keine perfekte Regulierung geben, da die Technik dies nicht zulässt. Ein Social Credit System nach chinesischem Vorbild wird kritisch gesehen, da es leicht manipulierbar ist. Stattdessen ist es wichtig, eine gesellschaftlich fruchtbare digitale Kultur zu entwickeln, da viele Menschen immer noch nicht digital kompetent sind. 58 Prozent der Deutschen nutzen regelmäßig soziale Netzwerke, aber die Tiefe der Nutzung variiert stark. Europa und Deutschland sind in einer Abhängigkeit von Amerika und Asien geraten, da es an Innovationsfähigkeit mangelt. Es fehlt an Kompetenz, um soziale Medien kritisch zu nutzen und Nachrichtenquellen zu hinterfragen. Solange Computerspiele nicht mit voller Begeisterung als Kulturgut anerkannt werden, wird sich wenig ändern. Mehr Aufwand für Wissenschaftskommunikation ist nötig, um digitale Kompetenz zu fördern.
Umgang mit Hasspostings und Empowerment im Netz
01:48:13Die gestiegene Anzahl gemeldeter Hasspostings wird als positives Zeichen gewertet, da dadurch das Problembewusstsein steigt und sich mehr Menschen trauen, solche Vorfälle zu melden. Sicherheitsbehörden und Staatsanwaltschaften messen dem Thema Gaming jedoch oft weniger Priorität bei. Es gibt immer mehr Aktionen und Organisationen, die sich gegen Hass einsetzen, wie die Meldestelle Respect und HateAid. Das Internet ist kein Neuland mehr, und es bedarf mehr Medienverständnis. Beleidigungen im Netz verfallen nicht, was die Situation verschärft. Es ist wichtig, zwischen harter Beleidigung und persönlicher Empfindlichkeit zu unterscheiden und nicht jeden Kleinkram zur Anzeige zu bringen. Das Strafrecht sollte nur als letzte Instanz eingesetzt werden. Empowerment beginnt damit, sich klarzumachen, was das Internet ist und wie es funktioniert. Man muss sich Möglichkeitsräume schaffen und digitale Resilienz entwickeln, um zu entscheiden, was einen wirklich berührt und was man ignorieren kann. Dies erfordert eine aktive strategische Auseinandersetzung.