Es wurde eingehend beleuchtet, wie KI die Spieleentwicklung verändert. Von der Automatisierung von Prozessen bis zur KI-gesteuerten Erstellung von Spielinhalten wurde ein umfassender Überblick gegeben. Experten diskutierten über praktische Beispiele, aktuelle Herausforderungen und wie diese Technologie das Game Design in Zukunft beeinflussen wird. Besonders im Fokus standen die Chancen und Risiken bei der Nutzung von KI für die Erstellung qualitativ hochwertiger Spiele.

Software and Game Development
00:00:00

Software and Game Development

Technische Herausforderungen beim Start

00:08:25

Der Stream beginnt mit einigen technischen Schwierigkeiten. Der Initiator Joey versucht, das Pod setups einzurichten, bevor der Gast Mario da ist. Es treten unterschiedliche Audio- und Video-Probleme auf, wobei Joey und Thomas sich gegenseitig hören können, aber die Verbindung instabil ist. Joey erwähnt, dass sie seit zwei Monaten Podcast-Pause hatten und sich bemühen, den Podcast wieder regelmäßig und besser zu gestalten.

Vorstellung des Gastes Mario Zechner

00:17:55

Mario Zechner, der Gast des Podcasts, wird willkommen geheißen. Es ist seine dritte Teilnahme nach längerer Pause. Mario ist bekannt für seine Arbeiten im Bereich der Spieleentwicklung, insbesondere für die LibGDX-Game-Engine und das Animationswerkzeug Spine. Er hat auch gemeinnützige Projekte wie 'Cards for Ukraine' ins Leben gerufen und sich mit datengestützter Recherche beschäftigt, beispielsweise bei Preisvergleichen in Supermärkten.

Marios hardwarebasierte Projekte

00:28:08

Mario hat sich nach der Geburt seines Sohnes verstärkt mit Hardware beschäftigt und sich Elektronik selbst beigebracht. Er kann nun PCBs (Platinen) designen und in China fertigen lassen. Sein bekanntestes Projekt ist ein selbst gebauter Kassettenspieler, der wie ein Game Boy aussieht und stattdessen einen Lautsprecher hat. Dieses Gerät ist für Kinder besser geeignet als die Tony Box, da es offline funktioniert und einfacher zu bedienen ist. Mario findet Elektronik lernen sehr lohnenswert und empfiehlt es weiter.

KI-Scheiße in der Gaming-Branche

00:36:24

Die Diskussion wendet sich dem Thema Künstlicher Intelligenz in der Spieleentwicklung zu. Mario sieht in KI zwar interessante Möglichkeiten, insbesondere für die Softwareentwicklung selbst, hält aber die Annahme, dass KI Künstler ersetzen kann, für Bullshit. Er beschreibt, wie er sich seit 2022 mit Large Language Models (LLMs) wie GPT beschäftigt hat und wie er mit Peter Steinberger und Armin Ronacher einen Coding Agent entwickelt hat, der für die Softwareentwicklung genutzt werden kann.

Agentenbasierte KI und OpenClaw

00:42:45

Die Teilnehmer erklären den Begriff der agentenbasierten KI, die durch den Einsatz von Werkzeugen um Large Language Models (LLMs) herum entsteht. Peter Steinbergers Projekt OpenClaw, eine Personal AI Assistant, die über WhatsApp oder Telegram gesteuert werden kann, wird vorgestellt. Mario erklärt, wie er an dem Projekt beteiligt war und seinen Coding Agent als Kern dafür zur Verfügung stellte. OpenClaw kann dabei den Computer des Nutzers steuern und verschiedene Aufgaben ausführen.

Marios Zusammenarbeit mit OpenAI

00:50:42

Mario erklärt, warum Peter Steinberger bei OpenAI angeheuert hat. Grund dafür war, dass OpenClaw ein potentielles Sicherheitsrisiko darstellt und andere LLM-Unternehmen wie Anthropic es bereits gebannt hatten. Zudem bietet OpenAI noch keine eigene Personal AI Assistance in dieser Form. Mario betont die Risiken von LLMs, die die echte Welt steuern können, und erzählt eine Anekdote, bei der ihr AI-Assistent eine Putzfrau erschreckt hat, als sie die Home-Automation testeten.

OpenClaw-Anwendung und Risiken

00:55:12

Die Diskussion dreht sich um die Anwendung von OpenClaw außerhalb der Softwarebranche. Es wird betont, dass 99 % der Nutzer keine Techies sind, sondern Normalos mit grundlegender Tech-Affinität. Diese Nutzer verstehen die Sicherheitsimplikationen nicht, besonders wenn sie das System ohne Sandboxing installieren und ihm vollen Zugriff auf sensible Daten wie E-Mails und Bankkonten geben. Er wird das Beispiel von Phishing-E-Mails erwähnt, bei denen der persönliche Assistent dazu gebracht werden könnte, schädliche Befehle auszuführen, was das Vertrauen in solche Systeme untergräbt.

Prompt-Injection und Sicherheitsprobleme

00:57:21

Ein zentrales Thema ist die Prompt-Injection, bei der ein KI-System dazu gebracht wird, Befehle auszuführen, die nicht vom Benutzer stammen. Dies geschieht durch Instruktionen in E-Mails oder Dokumenten. Die großen Labors wie OpenAI und Anthropic haben noch keine ausreichende Lösung dafür gefunden. Peter, der Entwickler von OpenClaw, versucht zwar Sicherheitslücken zu schließen, aber dafür benötigt er mehr Ressourcen und ein Research-Team. Dies ist einer der Gründe, warum er bei einem größeren Unternehmen arbeiten wird, um am technischen Problem arbeiten zu können.

KI-Entwicklung in Europa im Vergleich zu China und USA

00:58:55

Europa wird im Bereich KI-Agenten als rückständig dargestellt, im Gegensatz zu den USA und China. In Europa gibt es kaum Forschung zu agentic KI, während in China wöchentlich Installationsevents für OpenClaw stattfinden und viele Model Labs Modelle kostenlos zur Verfügung stellen. In den USA gibt es einen funktionierenden Kapitalmarkt, während China staatliche Förderungen hat. In Europa fehlt beides, was die KI-Entwicklung behindert. Mistral als europäisches Unternehmen konzentriert sich mehr auf traditionelle Anwendungen wie Autoindustrie statt auf KI-Agenten.

Risiken und Möglichkeiten von KI für Privatpersonen

01:03:48

Die Bewertung der Risiken von KI umfasst mehrere Ebenen. Zunächst geht es um Datenschutz: Die Daten aus Gesprächen mit ChatGPT oder ähnlichen Systemen sind weitaus aussagekräftiger als Suchanfragen bei Google und werden für Profilbildungen genutzt. Zweitens besteht das Problem der "Stickiness", bei der Modelle so trainiert werden, dass Benutzer möglichst lange im System bleiben, oft durch übertrieben positive Rückmeldungen. Dies kann problematisch sein, wenn Menschen KI fälschlicherweise für psychologische Beratung nutzen. Modelle sind dafür nicht trainiert und können im schlimmsten Fall suizidale Gedanken bestärken.

KI-Codegenerierung und Qualitätsprobleme

01:11:34

Es werden die Probleme bei der Nutzung von KI-Agenten für Codegenerierung diskutiert. Während ein menschlicher Entwickler vielleicht 2000 Codezeilen pro Tag mit etwa 10-15 Fehlern schreibt, kann ein KI-Agent das Zehnfache produzieren. Selbst wenn die Fehlerhalfigkeit nur halb so hoch wäre, würde das zu 70-100 Fehlern pro Tag führen. Das Problem wird verschärft durch Tatsache, dass 90 % des im Internet vorhandenen Codes von geringer Qualität ist, und KI-Systeme daraus lernen. Dies führt zu instablen Systemen, wenn Unternehmen versuchen, ausschließlich mit KI-Software zu entwickeln.

Technische Limitationen und Zukunft des Programmierens

01:26:02

Es werden technische Limitationen von KI-Systemen in der Softwareentwicklung erörtert. Zwar können KI-Agenten große Mengen Code generieren, aber sie können diesen nicht mehr vollständig erfassen und verstehen, besonders bei komplexen Systemen. Zudem besteht die Gefahr, dass durch die vermehrte KI-generierte Code im Internet, die Trainingsdatenbasis verschlechtert werden könnte. Trotzdem wird von Unternehmen wie Anthropic das Versprechen gemacht, dass in Kürze keine menschlichen Entwickler mehr benötigt werden werden. Tatsächlich bleibt dieses Versprechen bislang unerfüllt, und die Qualität der entwickelten Software leidet darunter.

KI in der Bildung und Zukunftsperspektiven

01:30:43

Die Bildung wird als besonders kritischer Bereich für KI-Nutzung angesehen. Es wird kritisiert, dass Schulen Kindern bereits Chatbots historischer Figuren wie Sophie Scholl anbieten, die missverständliche Antworten geben. Gleichzeitig wird das Konzept der "Zentauren" erwähnt, bei dem menschliches Denken an Maschinen ausgelagert wird. Dies führt zur Lobotomie des Denkens, besonders bei Kindern, die ihre Hausaufgaben von KI machen. Die Bildungssysteme sind nicht darauf vorbereitet, dass Maschinen Aufgaben übernehmen, die eigentlich zur Problemlösungsfähigkeit beitragen sollten.

Kritik an KI-Einsatz im Bildungsbereich

01:32:05

Es wird kritisiert, dass Tech-Startups ohne pädagogische oder didaktische Expertise KI-Produkte für Schulen entwickeln, während die Politik dies aus Unwissenheit oder dem Ziel der Entlastung des Lehrpersonals zulässt. Dies führt dazu, dass Kinder KI nutzen, um sich Arbeit zu sparen, was neue Lernmodelle erfordert, um dennoch effektives Lernen zu gewährleisten. In Österreich scheint jedoch keine solche Veränderung in Sicht zu sein, ähnlich wie zuvor erfolglose Ansätze mit Tablets in Klassenzimmern.

Best- und Worst-Case-Szenarien der KI-Entwicklung

01:34:15

Als Worst-Case-Szenario wird die Zentralisierung der KI-Technologie bei wenigen amerikanischen Unternehmen gesehen, während Best-Case-Erwartungen darin bestehen, dass Europa technologie-souverän wird und Technologie die menschlichen Fähigkeiten unterstützt, ohne diese zu ersetzen. Aktuell sieht der Sprecher jedoch eine Tendenz, dass Technologie Menschen ersetzt, weil dies für die Wirtschaft kostengünstiger ist, was er kritisch bewertet.

Praktisches Beispiel für unterstützende KI-Anwendung

01:35:43

Ein konkretes Beispiel für nützlichen KI-Einsatz ist die Unterstützung bei der wissenschaftlichen Forschung: Eine Linguistin kann mit KI-Tools ihre Interviewdaten transkribieren und weiterverarbeiten, ohne selbst programmieren zu müssen. Die KI übernimmt die mechanische Arbeit während die Forscherin die Ergebnisse überprüft und interpretiert, was eine effizientere Forschung ermöglicht ohne die Denkarbeit zu ersetzen.

KI-Modelle und deren praktische Nutzung

01:37:30

Der Redner nutzt verschiedene KI-Modelle für seine Arbeit im Bereich Softwareentwicklung, darunter GPT-5.5 und Kimi K2.6 Moonshot, testet aber auch lokal laufende Modelle wie Gema 4 und Qwen 3,30b. Er weist darauf hin, dass wir noch sehr weit von einem intelligenten Assistenzsystem wie in Filmen entfernt sind und sieht aktuell vor allem in der Robotik, nicht aber in LLMs oder GPT-Systemen, große Fortschritte.