Es wurde über die Gefahren von künstlicher Intelligenz in den sozialen Medien diskutiert. Ein KI-Forscher betonte, dass KI massenhaft personalisierte Desinformation ermögliche, was Demokratien gefährde. Experten warnten vor Cheapfakes und der Normalisierung von Falschinformation. Es wurde zudem rechtlich geklärt, dass das Recht am eigenen Bild auch für KI-Bilder gilt, wobei eine effektive Durchsetzung jedoch schwierig ist.

Just Chatting
00:00:00

Just Chatting

Einführung und Publikumsinteraktion

00:09:54

Der Stream auf ARD startet mit der zentralen Fragestellung, ob künstliche Intelligenz Social Media kaputt macht. Die Moderatorin lädt das Publikum aktiv ein, ihre ersten Assoziationen zum Thema KI in den Kommentaren zu teilen. Eine Umfrage unter den Chat-Teilnehmern zeigt ein überwiegend negatives Bild, wobei Begriffe wie 'Kapitalismus', 'Horrorvorstellung' und 'lebenslose Bilder' dominieren. Das Publikum scheint verunsichert und genervt von der Flut von KI-Inhalten, insbesondere von Videos mit Katzen, die hinter einem Tresen stehen.

Negativer Deepfake-Erlebnisbericht von Vera

00:15:23

Die Creatorin und Tech-Expertin Vera berichtet von einem konkreten negativen Erlebnis mit Deepfakes. Sie erklärt, wie ein KI-generierter Deepfake ihrer Stimme von einer Firma für Werbung genutzt wurde, ohne ihr Einverständnis. Dieser Vorgabe löste bei ihr ein Gefühl von Kontrollverlust und Beängstigung aus. Zunächst fand sie die Werbeanzeigen zufällig, bis ein Follower sie auf die Meta-Ads-Library aufmerksam machte, wo die Inhalten sichtbar waren. Ihre Management konnte die Sache durch eine Abmahnung klären, aber es gab keine finanzielle Entschädigung.

Rechtliche Aspekte: Urheberrecht und Haftung

00:22:33

Die Diskussion wendet sich den rechtlichen Konsequenzen von KI-Inhalten zu. Die Rechtsexpertin Vivian Trebs erläutert, dass standardmäßig generierte KI-Bilder oder -Texte nach dem Urheberrecht nicht geschützt sind und somit gemeinfrei sind. Ein Urheber entsteht erst, wenn der Nutzer einen kreativen und individuellen Input leistet, sodass das Ergebnis eine persönliche geistige Schöpfung ist. Bezüglich der Haftung bei Falschinformationen gilt: Der Nutzer, der den veröffentlicht, haftet primär. KI-Anbieter versuchen meist, sich aus der Haftung zu ziehen, während Plattform nur dann in Haftung genommen werden können, wenn sie auf eine Meldung einer Rechtsverletzung nicht reagieren.

Gefährdung der Demokratie durch Desinformation

00:30:40

Der KI-Forscher Jonas Feger teilt die Auffassung, dass Social Media bereits 'kaputt' sei und durch KI weiter destabilisiert wird. Er betont, dass die KI es ermöglicht, personalisierte und schwer erkennbare Desinformationen massenhaft zu erstellen. Diese können gezielt für Wahlmanipulationen eingesetzt werden, um gezielte Bevölkerungsgruppen zu beeinflussen. Eine TÜV-Studie untermauert diese Sorge: 91 % der Befragten sehen darin ein Problem für die Unterscheidbarkeit von echten und manipulierten Inhalten und 49 % halten KI für eine Gefahr für die Demokratie.

KI im politischen Raum und Normalisierung von Falschinformation

00:41:00

Gäste diskutieren die zunehmende Nutzung von KI-Inhalten durch Politiker. Jonas Feger verweist auf Beispiele aus dem US-Wahlkampf, wo offensichtlich KI-generierte Bilder im Umlauf waren. Er stellt fest, dass die Verbreitung solcher Inhalte weniger auf ihrer Faktizität basiert, sondern darauf, dass sie ins eigene Weltbild passen. Diese Entwicklung führt zur Normalisierung von Desinformation. Gleichzeitig wird darauf hingewiesen, dass auch minderwertige Fakes, sogenannte Cheapfakes, über Kanäle wie Telegram großen Schaden anrichten, da sie das Vertrauen in Informationen insgesamt untergraben.

Zusammenarbeit mit dem Publikum und Sora-2-Experiment

00:13:37

Die Moderatorin initiiert einen interaktiven Part des Streams und bittet die Zuschauer, sich per Stream Together dazuschalten. Ziel ist es, gemeinsam ein Sora-2-Video zu produzieren. Dazu soll in der nächsten Stunde ein gemeinsamer Prompt erstellt werden. Dies dient nicht nur als Demonstration der KI-Fähigkeiten, sondern auch als praktisches Experiment, um die Möglichkeiten und Grenzen der Technologie live zu erleben und die Kreativität der Community einzubeziehen.

KI zur Desinformationserkennung

00:50:35

Die Forschung nutzt KI, um Desinformation und Deepfakes zu erkennen. Zunächst wurden klassische NLP-Ansätze eingesetzt, um anhand stilistischer Merkmale wie einer Diskrepanz zwischen Überschrift und Text oder übermäßiger Emotionalisierung auf Desinformation hinzuweisen. In der Zwischenzeit werden auch große Sprachmodelle und multimodale Ansätze kombiniert, um Deepfakes effektiver zu identifizieren.

Innovative Deepfake-Erkennung

00:51:57

Ein innovativer Ansatz zur Deepfake-Erkennung stammt aus der Telemedizin und kombiniert die Analyse der Augenpartie mit der Spiegelung auf der Stirn, um den Puls einer Person zu messen. In Videos lässt sich so überprüfen, ob der Puls einer Person natürlich ist, was ein Indiz für einen Deepfake sein kann. Diese Methode wird mit anderen wie Wasserzeichen-Detection und inhaltlichen Abweichungen kombiniert, um eine Wahrscheinlichkeit für Manipulation zu berechnen. Die Tools sind unter Muddi.ai verfügbar.

Herausforderungen der KI-Erkennung

00:55:47

Ein zentrales Problem ist, dass Erkennungssysteme für KI-generierten Content wie Deepfakes technisch immer eine Spur hinterherhinken. Die Betreiber solcher Systeme versuchen, verschiedene Methoden zu kombinieren, doch die Entwicklung im Bereich KI-Manipulation erfolgt exponentiell schnell. Dies führt dazu, dass automatisierte Erkennungsmethoden nur Wahrscheinlichkeiten liefern und der Schutz vor Desinformation eine kontinuierliche Anpassung erfordert.

Haftungsfragen bei Falschinformationen

01:00:45

Die Haftung für die Verbreitung von Falschinformationen ist komplex. Viele Nutzer verbreiten Inhalte unwissend, da sie künstliche Intelligenz oft als Wahrheitsmaschine ansehen. Während Nutzer prinzipiell haften könnten, wird die Verantwortung eher bei den Plattformbetreibern und Anbietern von KI-Tools gesehen. Die Denkweise, bei neuen Technologien erst Vorreiter zu sein und rechtliche Fragen später zu klären, wird als problematisch angesehen.

Notwendige Fähigkeiten für Creator

01:02:33

Für die Zukunft ist unklar, welche Fähigkeiten Creator benötigen, um mit KI-generiertem Inhalt mitzuhalten. Die Hoffnung ist, dass reiner KI-Content bald einen "Peak" erreicht und wieder mehr Wert auf Authentizität und Menschlichkeit gelegt wird. Solange der Fokus auf Automatisierung liegt, leidet die Teamarbeit und kreative Tiefe. Der Schlüssel liegt darin, KI als Partner für Kreativität zu nutzen und nicht als reine Automatisierungsmaschine.

Live-Experiment mit KI-Videoerstellung

01:08:10

Das Stream-Team führt ein Live-Experiment durch und erstellt gemeinsam ein Video mit dem Tool Sora 2. Die Zuschauer werden aktiv in die Erstellung eingebunden, indem sie per Chat Szenarien und Details vorschlagen. Nach einigen Abstimmungen entscheidet man sich für einen besoffenen Weihnachtsmann in einer deprimierten U-Bahn in Berlin. Das 12-sekündige Video wird live erstellt und anschließend präsentiert.

KI in der Softwareentwicklung

01:20:12

Der Gast Seldo beschreibt die massive Veränderung durch KI in der Softwareentwicklung. Während KI als verlängerte Werkbank genutzt und die Produktivität für Einzelpersonen drastisch steigt, führen auch enorme Effizienzgewinne zu existenziellen Ängsten in der Branche. Viele fürchten um ihre Arbeitsplätze, da KI einfache Aufgaben automatisieren und Fehler vermeiden kann. Gleichzeitig ermöglicht KI Einzelunternehmern, komplexe Projekte alleine zu realisieren, die früher ein ganzes Team erfordert hätten.

KI als Beschleuniger des Problems

01:29:28

Content-Creatorin Alicia Joe sieht in KI vor allem einen Beschleuniger von bestehenden Problemen in den sozialen Medien. Die Plattformen sind bereits überfüllt mit Ragebait und billiger Unterhaltung, und KI verschärft diese Entwicklung, da noch mehr Inhalte massenhaft produziert werden. Sie ist sich unsicher, ob dies letztlich zu einem Übersättigungs führt oder das Problem weiter verschärft. Gleichzeitig nutzt sie KI auch selbst für ihre Arbeit, beispielsweise zur Anpassung von Thumbnails, um die Aufmerksamkeit zu steigern.

Community-Einstellung und KI-Nutzung

01:32:19

Die Community im Stream ist eher KI-enthusiastisch, was auf eine Offenheit und das Bedürfnis nach Aufklärung über die Technologiemöglichkeiten hindeutet. Die Diskussion verlagert sich weg von einer reinen Gut-oder-Schuld-Bewertung von KI. Stattdessen wird betont, dass KI ähnlich wie andere Tools wie Photoshop zu betrachten ist. Das Hauptproblem wird weniger die Technologie selbst als vielmehr das Unwissen darüber gesehen. Wichtige Schlussfolgerung ist, dass Aufklärung über die Fähigkeiten der KI essentiell ist, um Desinformation und Missbrauch vorzubeugen.

Rechtliche Aspekte des Rechts am eigenen Bild

01:34:49

Ein zentraler Punkt ist die rechtliche Einordnung von KI-generierten Inhalten. Es wird klargestellt, dass das allgemeine Persönlichkeitsrecht, insbesondere das Recht am eigenen Bild, auch dann gilt, wenn eine KI ein Bild einer realen Person erstellt, sofern diese erkennbar ist. Dies schützt die Persönlichkeit der abgebildeten Person. Allerdings werden auch neue Schwierigkeiten und eine höhere Schranke bei Strafbarkeit, besonders bei pornografischen Darstellungen, durch die Fähigkeit der KI, Personen in ein anderes Licht zu rücken, identifiziert. Das Recht am eigenen Bild existiert also bereits vor der KI-Ära und muss nun angewendet werden.

Gefahren der KI: Scams und Desinformation

01:35:45

Die Experten identifizieren nicht nur technische, sondern auch gesellschaftliche Risiken durch KI. Insbesondere Scams, wie das Erzeugen von gefälschten Personen auf Dating-Plattformen oder sogenannte 'Beauty-Shorts', die als Marketingstrategie genutzt werden, werden als zunehmende Gefahr genannt. Die steigende Qualität der KI-Inhalte macht diese Betrugsmaschinen noch schwerer zu erkennen. Die EU-AI-Act fordert zwar Transparenz, aber auch eine massive mediale Aufklärungskampagne und mehr Kompetenzaufbau, besonders bei Kindern und im Unternehmenskontext, um diesen Missbrauch wirksam zu begegnen.

KI und die Zukunft von Social Media

01:55:12

Die Diskussion endet mit einer zukunftsorientierten Betrachtung, wie KI Social Media verändert und ob es 'kaputt macht'. Es wird die 'Dead Internet Theory' diskutiert, die besagt, dass das Internet zunehmend von Bots und KI-Inhalten dominiert wird. Einige sehen darin eine Klassenfrage, da weniger informierte Nutzer stärker gefährdet sind. Andere argumentieren, dass Social Media eher ein Spiegel der veränderten Aufmerksamkeitsspanne der Nutzer sei und dass der wahre Schaden im Wettbewerb zwischen menschlichen Creators und systemisch optimierten KI-Avataren liegt, der neue, unmenschliche Content-Standards setzt.

Persönlicher KI-Schutz und Hilflosigkeit

02:00:59

Die Streamerin Alicia Joe äußert ihre persönliche Haltung zur Nutzung ihres eigenen Bildes in KI-Modellen. Obwohl sie rechtliche Ansprüche kennt, fühlt sie sich aufgrund der praktischen Schwierigkeiten, Täter zu identifizieren und zur Verantwortung zu ziehen, hilflos. Sie sieht sich in einer paradoxen Lage: Sie hat bewusst Rechte aufgegeben, indem sie sich im Internet präsentiert, gleichzeitig kann sie aber nicht verhindern, dass ihr Bild missbraucht wird. Diese Machtlosigkeit führt zu einer gewissen Gelassenheit, da sie davon ausgeht, dass bald alle von diesem Problem betroffen sein werden.

Elternverantwortung und mediale Bildung

02:05:37

Die Diskussion klärt die Frage, wer für die Aufklärung über KI-Gefahren in der Familie verantwortlich ist. Die eindeutige Antwort lautet: die Eltern. Im Gegensatz zu früheren technologischen Umbrüchen wie der Erfindung des Autos, wo Eltern ihre Kinder anleiten mussten, wird die staatliche Bildung oft als überfordert betrachtet. Es wird eine proaktive Rolle der Eltern eingefordert, die Kinder frühzeitig auf die Gefahren von Social Media, gefälschten Kommentaren und Bots vorzubereiten, um sie vor der permanenten digitalen Konfrontation zu schützen.

Abschluss: ARD Game Jam als Gegenmodell

02:11:40

Zum Abschluss des Streams wird als Gegenpol zur KI-dominierten Content-Erstellung der ARD Game Jam vorgestellt. Dieser bewusst 'ohne KI' konzipierte Wettbewerb zielt darauf ab, echte menschliche Kreativität und Erfahrung in den Vordergrund zu stellen. Als Alternative zur sicheren, aber oft künstlichen KI-Produktion wird hier der Wert von echter, handwerklicher Arbeit betont. Der Call-to-Action bittet die Community, an diesem Jam teilzunehmen, um direkt einen Beitrag zur Förderung menschlicher Kreativität zu leisten und eine inspirierende Live-Performance zu erleben.