MixTalk ! Macht KI Social Media kaputt? [Gast: @aliciajoe Tech like Vera] !Thema

KI-Einfluss auf soziale Medien: Auswirkungen und Risiken

MixTalk ! Macht KI Social Media kaput...
ARD
- - 02:15:21 - 7.487 - Just Chatting

Die Analyse untersucht, wie KI-gestützte Systeme Social-Media-Ökosysteme beeinflussen. Schwerpunkte sind algorithmische Entscheidungsprozesse und die automatisierte Erstellung von Inhalten. Diskutiert werden sowohl Effizienzgewinne als auch Risiken wie Desinformation und Nutzerautonomie. Der Fachbeitrag bewertet technologische Entwicklungen und ihre gesellschaftlichen Konsequenzen für digitale Kommunikationsräume.

Just Chatting

00:00:00
Just Chatting

Einleitung und Themenstellung

00:09:54

Der Stream beginnt mit der Begrüßung und klärt das zentrale Thema: Ob KI Social Media kaputt macht. Der Moderator stellt sich als echte Person vor und betont, dass es sich um eine Live-Diskussion handelt. Interaktiv wird der Chat aufgefordert, assoziierte Wörter zu nennen (z.B. 'Kapitalismus', 'Horrorvorstellung'), wobei gemischte Reaktionen von Faszination bis Ablehnung zu vernehmen sind. Eingangs wird bereits ein Experiment angekündigt: In einer Stunde soll gemeinsam mit dem Chat ein Prompt für ein Sora-2-Video erstellt werden, was die Einbindung des Publikums von Anfang an fördert.

Vorstellung der Expertin Vera

00:13:37

Die erste Guestin Vera, Tech-Creatorin auf YouTube und Instagram, wird zugeschaltet. Sie bestätigt ihre Echtheit trotz zunehmender KI-Doublierungen in der Creator-Szene. Vera thematisiert ihre persönlichen Erfahrungen mit Deepfakes: Ein Klon ihrer Stimme wurde ohne Zustimmung für eine Werbekampagne einer Firma verwendet, die Actionfiguren mit KI erstellte. Dies geschah über ein gestohlenes Reel, dessen Hook genutzt und mit KI-generierter Stimme kombiniert wurde. Sie beschreibt den Kontrollverlust und die Schwierigkeit, gegen solche Manipulationen vorzugehen.

Rechtliche Schritte gegen Deepfake-Missbrauch

00:17:28

Vera schildert die juristischen Konsequenzen ihres Deepfake-Erlebnisses: Durch ihr Management wurde die US-Firma abgemahnt, woraufhin die Werbeanzeigen nach Drohungen mit rechtlichen Schritten entfernt wurden. Sie betont, dass sie keine Entschädigung erhielt und das Hauptziel der Löschung war. Für Nicht-Creators rät sie zur Suche nach rechtlicher Hilfe. Diskutiert wird außerdem die Schwierigkeit, KI-Stimmen als Fake zu identifizieren, besonders da die Technologie sich rasant entwickelt (Mai bis Dezember 2025).

Urheberrecht bei KI-Inhalten

00:22:12

Ein Video mit Rechtsexpertin Vivian erklärt die rechtliche Lage: KI-generierte Inhalte sind laut Urheberrecht grundsätzlich nicht schützbar, da sie keine persönliche Schöpfung darstellen. Nur bei eigenständigem, kreativem Input hinter dem Prompt kann eine Schutzfähigkeit entstehen. Diskutiert wird die Grauzone, wer Rechte an Prompts oder Trainingsdaten (z.B. Stimmen) besitzt. Vivian betont, dass KI-Bilder ohne menschliches Zutut gemeinfrei sind und von Dritten genutzt werden dürfen.

KI-Experte zu Social-Media-Krise

00:30:19

Jonas Feger (FZI, Digital Democracy) wird als Experte vorgestellt. Er stuft Social Media bereits als 'kaputt' ein, da Plattformen durch Geschäftsmodelle und staatsnahe Eigentümer (z.B. TikTok) den ursprünglichen Diskurs verhindern. KI verschärfe dies durch generative Inhalte, die experimentell in eigenständige Netzwerke wandern. Zentral ist die Warnung vor manipulierten Feeds: Personalisierte Algorithmen + KI-generierter Content führten zu gezielter Desinformation, z.B. in Wahlkämpfen (Beispiel Indien).

Gefahren für Demokratie und Gesellschaft

00:33:19

Jonas analysiert KI als Demokratie-Gefahr durch verändertes Informationsökosystem. Deepfakes und Cheapfakes (schlecht gemachte, aber effektive Fakes) führten zu Vertrauensverlust und Verunsicherung. Eine TÜV-Studie zeigt: 91% der Befragten halten KI für ein Hindernis bei der Unterscheidung echt/manipuliert, 83% sehen beschleunigte Falschinformationen. Politische Nutzung (z.B. Trump-KI-Videos) normalisiert Manipulation. Jonas betont, dass Schaden nicht nur durch perfekte Fakes entsteht, sondern durch generelles Misstrauen.

Diskussion über Sora 2 und Erkennbarkeit

00:35:48

Nach einem Chat-Poll zu Sora 2 diskutieren Vera und Jonas die Erkennbarkeit KI-generierter Videos. Vera räumt ein, dass die Technologie so fortschreitet, dass selbst Experten wie sie kaum noch Unterschiede erkennen (z.B. glatte Gesichter, starrer Haar). Beispiele wie Katzenvideos oder Trampolinelefanten zeigen, wie realitätsnah KI-Inhalte sind. Kritisch gesehen wird der Verlust authentischer Inhalte und die Überflutung mit KI-Content, der Nutzer in Echokammern fesselt.

Haftungsfragen bei KI-Falschinformationen

00:47:47

Rechtsexpertin Vivian klärt im Video die Haftung: Der Nutzer ist primär verantwortlich, wenn er KI-generierte Falschinformationen verbreitet. KI-Anbieter wie OpenAI können bei Urheberrechtsverletzungen haften (Beispiel GEMA-Prozess), da sie Inhalte speichern. Plattformen haben privilegierte Haftung: Sie müssen bei gemeldeten Rechtsverletzungen löschen, sind aber nicht proaktiv filterpflichtig. Vivian betont, dass Verantwortung beim Verbreiter liegt, ähnlich wie bei selbst fotografierten Inhalten.

Deepfake-Erkennung und KI-Forschung

00:50:09

Im Stream wird die Herausforderung von Deepfakes diskutiert, wobei Forschungsansätze zur automatisierten Erkennung vorgestellt werden. Vera erklärt am FZI-Forschungszentrum, wie KI-Modelle stilistische Merkmale in Texten analysieren, um Desinformation zu identifizieren, etwa durch emotionalisierte Sprache oder Diskrepanzen zwischen Titeln und Inhalten. Diese Methoden werden auf Deepfakes übertragen, wobei neuartige Techniken wie die Puls-Messung via Stirnreflexionen kombiniert werden, um Manipulationen zu erkennen.

Multimodale Deepfake-Detection (Muddi.ai)

00:52:26

Das Projekt Muddi.ai (Multimodal Deepfake Detection) wird vorgestellt, das verschiedene KI-Ansätze bündelt. Neben der Puls-Analyse durch Augenpartie und Stirnreflexionen kommen Watermark-Erkennung und logische Widersprüche im Videoinhalt zum Einsatz. Das System berechnet Wahrscheinlichkeiten für Manipulationen, etwa wenn der Puls der dargestellten Person fehlt oder physikalische Abläufe nicht plausibel sind. Dies soll Nutzer:innen bei der Einschätzung helfen, erfordert aber technische Unterstützung.

Grenzen der Erkennung und Haftungsfragen

00:55:47

Es wird kritisch diskutiert, dass Erkennungssysteme stets hinter der Deepfake-Technologie hinterherhinken. Expert:innen betonen, dass KI nur Wahrscheinlichkeiten liefern kann, keine absolute Sicherheit. Bei Verantwortlichkeiten wird klargestellt, dass weder Nutzer:innen noch KI-Anbieter allein haften sollten. Besonders problematisch ist die Wahrnehmung von KI als Wahrheitsmaschine, die dazu führt, dass Falschinformationen ungeprüft verbreitet werden.

Zukunft für Content-Creator

01:02:06

Creator wie Vera und Alicia Joe reflektieren den KI-Einfluss auf Social Media. Während KI-generierter Content überhandnimmt, setzen sie auf Authentizität als Wettbewerbsvorteil. Alicia Joe vermutet einen Übersättigungseffekt, der Originalinhalte wieder wertvoller macht. Kreativität wird durch KI-Tools wie Thumbnail-Bearbeitung unterstützt, doch die Flut an KI-Content stellt Creator vor Herausforderungen, Authentizität trotz technischer Hilfsmittel zu bewahren.

Praktische Tipps zur KI-Vide erkennung

01:04:17

Jonas gibt Ratschläge zur Identifikation von Sora-2-Videos: Auf physikalische Unstimmigkeiten (z. B. flüssige Bewegungen), ungewöhnliche Stimmen oder Dialoge und Watermark-Logos achten. Er betont Skepsis gegenüber übertrieben ästhetischen Szenarien und rät, bei bekannten Personen nachzufragen. Allerdings wird angemerkt, dass solche Tipps schnell veralten, da sich die Technologie rasant entwickelt.

Community-Experiment: Sora-2-Prompting

01:08:10

Das Team erstellt gemeinsam mit dem Chat einen Prompt für ein 12-sekündiges Sora-2-Video. Vorschläge wie 'Weihnachtsmann in Berliner U-Bahn' werden diskutiert, wobei rechtliche Grenzen (keine Marken/Personen) beachtet werden. Der finale Prompt kombiniert: Besoffener Weihnachtsmann, der einen Döner isst, vor Demonstrationen für mehr Ostern und einer deprimierenden Stimmung. Das Experiment zeigt die kreative, aber kontrollierte Nutzung von KI-Generatoren.

KI in der Softwareentwicklung (Seldo)

01:20:12

Seldo, Softwareentwicklungsexperte, beschreibt KI als lebensverändernd für Ein-Personen-Unternehmen. Er nutzt KI für Verwaltung, Kundenmanagement und Content-Erstellung (z. B. KI-News-Podcast). Während KI Routinetätigkeiten übernimmt und Produktivität steigert, löst sie bei Entwicklern Ängste vor Arbeitslosigkeit aus. Seldo betont jedoch den kreativen Boost: Neue Möglichkeiten wie Cyberpunk-Podcasts mit KI-Avataren erweitern seine künstlerische Ausdruckskraft.

KI als Beschleuniger für Social-Media-Probleme

01:29:56

Alicia Joe kritisiert, dass KI Social Media durch Rage-Bait und Massencontent noch weiter kaputtmacht. Sie nutzt KI selbst für kleine Bearbeitungen (z. B. Thumbnail-Farben), kennzeichnet diese aber transparent. Ihr Fazit: KI treibt die Überflutung voran, könnte aber langfristig zu einer Gegenbewegung führen, bei der echte Inhalte wieder geschätzt werden. Authentizität bleibt für Creator entscheidend.

Akzeptanz von KI in der Community

01:32:19

In der Diskussion wird deutlich, dass KI-generierte Stimmen und Inhalte in der Community zunehmend gut aufgenommen werden. Früher wurden echte Stimmen bevorzugt, heute lobt die Community KI-Einsätze stärker. Dies zeigt einen Wandel hin zur Wertschätzung von KI als Tool, ähnlich wie bei handgefertigten Kunstwerken. Die Offenheit der Community gegenüber KI steigt, da mehr Aufklärung über die Möglichkeiten stattfindet. Wichtig ist, dass Nutzer verstehen, was KI leisten kann, um damit verantwortungsvoll umzugehen.

KI als Werkzeug und Risiken durch Unwissenheit

01:33:51

KI wird klar als Werkzeug positioniert, vergleichbar mit Photoshop. Die eigentliche Gefahr liegt in der Unwissenheit der Nutzer: Wenn niemand weiß, was KI kann, entstehen echte Probleme. Besonders betroffen sind ältere Menschen, die Opfer von KI-generierten Betrugsmaschen wie gefälschten Tinder-Profilen oder Fake-Nachrichten werden. Es wird auf reale Scam-Fälle hingewiesen, bei denen durch KI-Fakes finanzieller Schaden entstand. Aufklärung über KI-Möglichkeiten wird als Schlüssel gegen Missbrauch gesehen.

Deepfakes: Rechtliche und ethische Dimensionen

01:35:45

Deepfakes polarisieren stark: Einerseits ermöglichen sie extreme Persönlichkeitsverletzungen, andererseits könnten sie durch Überflutung des Marktes an Wirkung verlieren. AliciaJoe betont, dass jeder Deepfake von ihr existiere, was das Vertrauen in authentische Inhalte untergräbt. Gleichzeitig könnte dies realistischere Körperbilder in der Gesellschaft fördern, da echte Menschen im Vergleich zum KI-Ideal als normaler wahrgenommen werden. Die Meinungen sind gespalten: 50% Chancen, 50% Risiken.

Rechtliche Absicherung bei KI-generierten Inhalten

01:37:22

Experten bestätigen: Das Recht am eigenen Bild gilt auch für KI-generierte Darstellungen. Sobald eine Person erkennbar ist – sei es durch Zeichnung, Foto oder KI – greift der Persönlichkeitsschutz. Deepfakes können jedoch schwerwiegender sein, da sie Personen in falsche Kontexte setzen oder strafbare Inhalte (z.B. Pornografie) erzeugen. Hier sind zusätzliche rechtliche Maßnahmen nötig. Klar ist: Bestehende Gesetze müssen auf KI angewendet werden, um Betroffene zu schützen.

Sora 2-Experimente: Realismus mit Grenzen

01:39:23

Der Chat erstellte mit Sora 2 ein Video des 'betrunkenen Weihnachtsmanns in Berliner U-Bahn'. Das Ergebnis war visuell realistisch, jedoch mit merkwürdigem Ton und unerwarteten Elementen (z.B. Demonstration für mehr Ostern). Ein zweites Video (Weihnachtsmann tanzend auf Times Square) wirkte wie ein Meme. Kritik am Ton-Modell von Sora, aber der visuelle Realismus beeindruckte. Die Diskussion zeigt: KI-Videos sind technisch fortgeschritten, aber noch fehleranfällig und oft absurd.

Einfluss von KI auf Social Media und Creator

01:41:19

AliciaJoe sieht sich durch ihre Etablierung vor KI als 'echte' Creatorin geschützt, für Neulinge wird der Wettbewerb jedoch härter. KI-Inhalte könnten die Social-Media-Landschaft dominieren und neue Creator mit KI-Avataren konkurrieren lassen. Kritik an Tech-Konzernen: Maximierung des Profits steht im Vordergrund, Verantwortung wird vernachlässigt. Social Media wird als Maschine für Scams und Dopamin-Kicks beschrieben, die durch KI noch verstärkt wird. Die Abschlussfrage ist: Macht KI Social Media kaputt? Meinungen gehen auseinander.

Systemrisiken und EU-AI-Act

01:43:35

Ein Community-Gast (KI-Spezialistin) warnt vor systemischen Risiken: KI-getriebene Malware, die Code selbst anpasst, und riesige DDoS-Attacken. Unternehmen müssen Mitarbeiter schulen, um KI-basierte Scams (z.B. gefälschte Anweisungen von 'Abteilungsleitern') zu erkennen. Der EU-AI-Act fordert Transparenzpflichten, doch Private werden kaum adressiert. Lösungen sehen in massiver Medienkompetenz-Ausbildung, besonders für Kinder, um KI-Inhalte zu durchschauen. Enkeltricks und Fake-Shop-Kampagnen nutzen KI bereits aus.

Scams und Medienkompetenz als Schlüssel

01:46:45

Scams in Social Media werden durch KI professioneller: Fake-Opis verkaufen Temu-Schmuck, Beauty-Shorts mit falschen Ärzten werben für Produkte. Besonders perfide sind KI-generierte Influencer mit Millionen Likes. Gleichzeitig wird auf die Verantwortung der Eltern hingewiesen: Wie früher beim Straßenüberschreiten müssen sie Kinder heute vor KI-Gefahren schützen. Bots in Kommentaren erkennen wird schwieriger, da sie Transkripte analysieren. Aufklärung und elterliche Begleitung sind essenziell – nicht nur staatliche Programme.

Kritik an Tech-Konzernen und Dead Internet Theory

01:51:38

Die 'Dead Internet Theory' besagt, dass das Internet tot ist – voller Bots und KI-Content. AliciaJoe sieht eine Tendenz, aber keine Verschwörung: Bots lenken Narrative (z.B. US-Wahlkampf). Für Creator bleibt nur rechtlicher Schutz bei Missbrauch, aber Verfolgung ist schwierig. Sie akzeptiert Hilflosigkeit, da ein Rückzug aus dem Internet unmöglich ist. Der Chat kritisiert Tech-Konzerne: Deren Gewinnmaximierung, nicht die Nutzer, sei das Problem. Forderung: Plattformen müssen KI-Transparenz erzwingen.

Prävention und Zukunft von Social Media

01:59:37

Eltern müssen Kinder früh zu Medienkompetenz erziehen – ähnlich wie bei Verkehrserziehung. Die Gesellschaft braucht eine Offensive, um KI-Inhalte von echten zu unterscheiden. Social Media wird nicht 'kaputtgehen', aber verändert sich: Klassengrenzen könnten verstärkt werden, da bildungsferne Schichten mehr Scams ausgesetzt sind. Als Gegenentwurf kündigt der ARD Game Jam (Februar 2026) an: Hier entwickeln Menschen in 48 Stunden Spiele ohne KI, mit Preisgeld und Live-Performances. Ein Plädoyer für menschliche Kreativität.

Ausblick und nächste Sendung

02:13:15

Der Stream endet mit einem Rückblick auf die KI-Experimente und der Erkenntnis, dass noch nicht alles von KI dominiert wird. Für die nächste MixTalk-Folge wird ein Games Recap 2025 angekündigt. Der ARD Game Jam bleibt ein Highlight: echte Spieleentwicklung ohne KI, mit Community-Beteiligung und Preisgeld. Die Sendung betont die Bedeutung menschlicher Kreativität und lädt ein, sich im Februar 2026 zu beteiligen. Das Finale unterstreicht den Wert menschlicher Schöpfung gegen KI-Überflutung.