Endlic wieder Podcast mit @badlogicgames (und @jessirocks ist auch dabei) - PI 101?
Spielentwicklung und KI im Fokus des Podcasts
Es wurde eingehend beleuchtet, wie KI die Spieleentwicklung verändert. Von der Automatisierung von Prozessen bis zur KI-gesteuerten Erstellung von Spielinhalten wurde ein umfassender Überblick gegeben. Experten diskutierten über praktische Beispiele, aktuelle Herausforderungen und wie diese Technologie das Game Design in Zukunft beeinflussen wird. Besonders im Fokus standen die Chancen und Risiken bei der Nutzung von KI für die Erstellung qualitativ hochwertiger Spiele.
Technische Herausforderungen beim Start
00:08:2500:08:25 Untertitelung des ZDF, 2020
00:10:52 Okay, wir machen erst gleich einen Test. Hallo, hallo, hallo. Ja, habe ich. So, ich? Ja. Okay, hallo, hallo, hallo. Ich hoffe, ihr freht mich schon, ihr hört mich schon. Ich habe jetzt den Druck, ob... Ja, genau. Früher statt. Hi, Rokoyomi. Hi, no one. Hallo, hallo, hallo. So.
00:11:17 Easy machen wir das jetzt. Hey, Auto. Und zwar, weil vielleicht schaffe ich das, dass wir den Podcast einrichten, bevor der Gast da ist. Das wäre voll cool. Schauen wir beim Thomas anknopfen. Anknopfen. An... An... Dingstln. Hallo, hallo, hallo. Hallo? Ach so.
00:11:45 Das müssen wir jetzt da entfernen, oder? Da geht noch nix. Okay. Blöd. Blöd. Hört man mich? Test, test, test, test, test.
00:12:17 Ja. Okay. So.
00:12:43 Ich glaub, irgendwo hört man mich schon, also Hallo an alle, die mich irgendwie irgendwo hören. Ich hör noch recht wenig, aber ich mach gleich den Call aus, schau mal. Das wird, das wird, das wird cool heute. Kann gar nichts schief gehen.
00:13:12 Ich glaube, es liegt an mir. Ich glaube, ich höre schon wieder gar nichts irgendwo. Kann das sein? Thomas, falls du mich irgendwo hörst... Thomas, ich ruhe schon bei T-Scord an. Ich weiß nicht, ob mein Audio funktioniert. Sonst bist du auf dich allein gestellt.
00:14:04 Das war so mittelerfolgreich, sagst du es ist? Das war jetzt alles so mittelerfolgreich. Das Dream Together ist ein Hund, ich sag's euch. Das Dream Together.
00:14:32 Ist der kompletter Hund.
00:15:04 Thomas ist auch weg. Okay, jetzt probieren wir es nochmal. Hallo? Hallo? Ja, super, ich höre dich. So, jetzt müsstest du mir dein Video wieder über Elgato show my own camera. Ich brauchts mein Ding net, gell? Das kann ich weg tun. Wie? Was ist denn?
00:15:36 ich frage mich gerade warum man die virtuelle kamera nicht schickt die virtuelle virtuelle kamera musst du aktivieren habe ich ja klar also ja es heißt ja auch ob es virtuelle kamera und die gato virtuelle kamera ich habe mario ist auch schon drin oder
00:15:57 Ja, denkt sich, worauf habe ich mich da heute wieder eingelassen? Schon wieder. Ja, wer kennt's schon? Schon wieder. Mario war, glaube ich, der Gast am öftesten dabei? War dann? Hm, glaube ich nicht. Doch, sicher. Ich war zweimal? Ja, das dritte Mal jetzt. Ja, ist nicht der, genau, der Maurice, der war doch hundertmal oder so, oder? Wollte es sagen, der Weber. Der Weber, ja. So wollte es sagen, der Vogel, aber der Maurice war öfter da, ja. War super, Thomas.
00:16:25 Thomas, total positiv. Und Maurice gehört dieser Podcast. Deswegen darf er dann rein, ab und zu. Lass mich mal schauen, wann ihr das letzte Mal über Podcasts gemacht habt. Boah, der wird aber tief. Wird da so ein Ding heute? Okay, also ich wusste ja nichts. Touché, touché. Schau mal, 22. April, das ist ja eh nicht so lange her. Ja, siehst du? Aber du bist der erste Gast heuer.
00:16:56 Der Ernte, der uns direkt frontet im Opening. Waren das alles Pre-Recordings oder wie? Also haben wir einen Gast gehabt heuer schon. Ich glaube, wir haben wirklich zwei Monate Pause gehabt. Also wir haben wirklich zwei Monate Podcast-Pause. Aber ich sehe da April 16, April 22, April 8. Und davor war wirklich lang nichts.
00:17:20 März 14 und dann Februar 26. Naja, es war auch so schlimm, war es gar nicht. Es war halt ein Monatsrhythmus bis März und dann...
00:17:32 eine Woche bis zwei, ein Wochenrhythmus ab April. Ja, wir sind uns wieder bemüht. Und du bist jetzt unser Qualitätsgast wieder. Also wir haben uns vorgenommen, dass der Podcast noch besser wird. Aber ich frage dich nur ganz kurz, möchtest du mit Kamera oder ohne Kamera, nur dass ich weiß, wie ich das Bild geschint schneide?
Vorstellung des Gastes Mario Zechner
00:17:5500:17:55 Ich würde ohne Kamera, wenn das okay ist. Oder ist es für Twitch jetzt besser, wenn wir mit Kamera machen? Nein, absolut, wie du willst. Okay, weil ich bin schon im Pyjama. Das. Ein Mann mit Visionen. Endlich. Nach 19 Uhr, das gute Zeit. Ja, das Kind muss niedergelegt werden und heute ist die Steffi dran und ich gehe dann mit dem Buben Zähneputzen und duschen. Und dann, ja.
00:18:18 So, dann sind wir ein bisschen größer. Thomas, zeigst du dann Sachen her? Nein, dann zeig ich manchmal Sachen her. Dann mach ich dich kleiner, aber dann tue ich die... Du kennst das eh, Maria. Es ist genauso professionell wie damals. Dadurch, dass wir sogar aus der Übung sind, ist es sogar schlimmer geworden, wenn wir ehrlich sind. Ja, was zu erwarten war.
00:18:48 Ich hoffe, du hast nichts erwartet. Du wirst dennoch enttäuscht. Alles gut bei dir, Jesse? Alles gut. Ich bin ein bisschen langsamer, noch langsamer. Aber es geht, weil wir haben 70 Stunden Diablo gespielt seit Montag. Jesus Christ. Aber ich kann vielleicht das nächste Mal so einen Agenten für mich spielen lassen, weil der ist wahrscheinlich besser als ich. Das ist ein heißes Topic heute.
00:19:17 Möglich. Okay, wollen wir losstarten? Hört sie uns alle ganz gut, das Audio qualitativ, hochwertigst? Ich höre ich perfektigste Text. Wie hört sie mich? Super. Und das ist jetzt Twitch live auch, oder wie? Yes. Genau. Okay. Ich bin live. Können Sie mir den Twitch-Link noch einwursten in dein Discord-Chat? Yes, mache ich.
00:19:45 Bei uns haben wir jetzt auch, dann lassen wir eine ganze Leine und schreien ins Internet. Twitch.tv, Jesse Rocks. Beim Thomas, warte mal, wer hört denn gerade zu? Zählst einmal durch, eins, zwei, drei, vier, einfach im Chat kurz durchzählen. Die Chats sind zusammengeschalten, oder hast du das aktiviert? Ja, weil wer sieht unterschiedliche Sachen? Perfekt. Ich kenne mich gar nicht aus. Wieso sehe ich Werbung? Was ist das? Willkommen auf Twitch. Ich bin sogar eingeloggt, warum auch immer.
00:20:13 Ich habe die sogar verlinkt, also das heißt man könnte jetzt, warte mal, shoutout, wenn du jetzt noch deine Streaming... Leise, leise Joey, beide sind leider extrem leise, Ton ist gut, Mario eventuell 20 Minuten klaut da. Ich habe schon ein bisschen nachkorrigiert, dass es auf jeden Fall ist. Ja, aber ich habe da mein Scarlet und ich kann da volle Bulle auftreten, wenn es ist. Teste, teste, na also bei mir sind alle gleich lautes. Ich glaube auch, ja, das hört gut aus. Bad Logic Games.
00:20:41 Wir machen eh kein Konzert. Okay, also ich habe noch ein Shoutout. Also Mario, das kann sein. Sorry, dann drehe ich mich runter. Nein, ich drehe dich runter. Achso, stimmt. Dreh du dich ein bisschen runter, das wäre super. Wir sind so gut mit den Computern aus. Nein, wir haben ja alle gleich studiert. Also wir müssen alle quasi das sehen. Thomas?
00:21:06 Ich halte mich zurück. Ich bin voll auf deiner Linie. Gibt es irgendwelche... Darf man fluchen oder darf man nicht fluchen? Ja, nee, nee, hau raus. Die Zeiten sind vorbei. Wir scheißen auf die Monetisierung. Der Jesse ist rich, bitch. Ja, das ist... Du warst schon zweimal da. Seitdem haben wir ja den 18-Plus-Modus einschalten müssen beim Podcast.
00:21:33 Na gut, dann gehen wir's auch. Okay. Gut, Thomas, magst du das Intro machen? Jetzt, wenn das neu ist, mach es doch du einmal in 170 Folgen. Nein, ich mag das. Ich bin viel zu schüchtern. Nein, ich bin viel zu schüchtern. Okay, ja, mach ich. Ich lege los.
00:21:58 Ein Hallo und herzlich willkommen zu einer neuen Folge 1 und 0, euer Podcast, jede Woche neu, gleich ein Choke am Anfang. Wir haben einen wunderbaren Gast eingeladen, er war schon mal da, er ist jetzt noch besser und ein Hallöchen an die Joey. Ich wollte gerade sagen, also bei den aktuellen Podcasts Regelmäßigkeiten. Letzte Folge mit Mario, Folge Nummer 34 und Folge Nummer 87 habe ich schon rausgeschrieben.
00:22:23 Ich freue mich voll, dass du wieder Zeit hast, super spontan auch. Und wir wissen auch, dass du gerade voll viel zu tun hast. Also wir freuen uns voll, dass du wieder da bist. Mario Zechner ist wieder mit bei uns bei Logic Games. Hallo, hallo. Wie geht's? Ich lebe und alles chill.
00:22:50 Cool. Na dann war's eh gut. Ich danke fürs Kommen und für die Einladung und wir hören uns in 80 Folgen wieder. Ich habe ein bisschen versucht nachzuschreiben, was du alles gemacht hast. In der ersten Folge haben wir ja alles bis, also auch deine Game Dev Historie ein bisschen aufleben lassen, ein bisschen nacherzählt. Ich mache ein Mini Recap und bitte ergänze. Da haben wir viel geredet über
00:23:20 Das Buch, was du damals geschrieben hast, du warst ja dann in Android-Development, Mobile-Game-Development, hast dich voll früh engagiert. Dann hast du mit LibGDX eine immer noch total oft verwendete Game-Engine, schon voll früh ins Leben gerufen, die total populär ist und total zugänglich ist, immer noch verwendet wird und für voll viele bekanntere Projekte verwendet worden ist. Dann haben wir über Spine geredet. Bitte, bitte unterbrechen, auf einen Ingenplützen sagt. Spine.
00:23:48 Ganz wichtiges Animationstool für Game Dev, aber glaube ich auch andere Branchen, super relevant. Wächst auch, wenn ihr das richtig mitkriegt. Irrsinnig großes, wichtiges, relevantes Produkt im Kreativbereich. Was haben wir noch? Dann haben wir in der letzten Folge auch ganz viel geredet über deine gemeinnützigen Projekte. Du hast dann ganz viel Hack...
00:24:13 Wie heißt das? Also Hobbyprogrammieren war ja einmal die Betitelung. Hack... Wie sag ich mal? Hackativism. Hackativism. Hackativism. Das heißt, dass du auch ein bisschen aufklärst und ein bisschen Recherche betreibst, zum Beispiel datengestützte Recherche. Das war die Preisvergleiche von Supermarktpreisen. Ob da vielleicht ein bisschen...
00:24:36 miteinander geredet wird, was nicht geredet werden sollte oder halt ein bisschen geplant wird, das ist vielleicht besser gesagt. Und dann haben wir über das Projekt Cards for Ukraine geredet, was du ja auch ins Leben gerufen hast, wo es darum geht, dass man möglichst zugänglich und da schau jetzt, stimmt mir aber so vieles, möglichst viel, also früh zugängliche Unterstützung für Flüchtlinge aus der Ukraine hat. So, jetzt müsst ihr
00:25:04 reinholen, weil allein für Mini-Zusammenfassung vom letzten Jahr ist die Stimme schon weg. Das hast du sehr gut gemacht. Ich habe mal eine Frage. Gibt es das Preisding noch von dir? Ist das weiterhin up-to-date? Läuft das? Das läuft noch immer, ja, aber mittlerweile nur mehr für Spar und Biller, weil die anderen Stores, die Online-Stores, von denen wir die Preise holen, die existieren entweder nicht mehr, wie zum Beispiel der Unimarkt oder die haben sich dazu entschieden, dass soweit
00:25:31 grauenhaft zu machen dass man auslässt dass es das ist dass es mich nicht schert dass zu crack es geht es ginge natürlich bei allen irgendwie dass ich die preise trotzdem runterholen aber ja fikt die lebensmittelbranche ja ich wollte sagen man hat so ein bisschen das gefühl als möchten die das gar nicht so transparent darstellen dass es hier und da mal ein bisschen teurer oder günstiger ist und wie das hier ist ja es ist ein bisschen unangenehm
00:25:58 arge historische Daten hat, anstatt nur Flyer mit Aktionspreisen. Das ist natürlich ein anderes Leben dann für den Lebensmittelhandel, speziell wenn man die dann auch untereinander vergleichen kann. Aber Bill und Spahr machen das noch immer gern. Ich gehe mal davon aus, dass sie halt auch gerne gegenseitig sich in den Online-Shop schauen.
00:26:18 Und das wahrscheinlich dann eben da dementsprechend nutzen. Ja, es war auf jeden Fall ein spannendes Projekt, weil ich kann mich nur erinnern, was du meintest, wo es am ärgsten war, war bei den Eigenmarken und den Produkten, wo die Leute nicht dodgen konnten und das dann praktisch hochging. Das ist halt schon ekelhaft. Unkontrolliert. Aber ja. Die Deutschen, also ich habe 80 Prozent, schauen bei mir aus Deutschland zu, die wären für eine Spritpreis-App oder so, weil die sind jetzt bei 2,50 pro Liter. Also da wären sie sehr heiß drauf, glaube ich.
00:26:47 Also in Österreich gibt es die E-Control, wo die Tankstellen einmelden müssen, zweimal am Tag, welche Preise sie schalten. Und in Österreich dürfen sie die Preise auch nur zweimal am Tag ändern. Ich habe gehört, dass in Deutschland was ähnliches angedacht wird. Also deutsche Freunde möglicherweise, blüht euch ja auch die schöne österreichische Zukunft. Die schöne österreichische, ziehen Sie ja, wenn Sie durchfahren. Danke für die Verletzte. Also alles gut.
00:27:12 Kommst nach Österreich, kommst zum Tanken. Ja, der Tanktourismus ist glaube ich nicht ohne, also das macht schon echt einen Unterschied. Das ist gut. Ich habe wieder Stimme. Ja, ich habe wieder Stimme. Okay, das war der Start bis damals. Und dann, ja, dann musste offensichtlich Fahrt gewesen sein, weil ich habe dann nur gesehen,
00:27:38 wie plötzlich auf Twitter wieder alles explodiert. Also da hat es glaube ich so zwei Megaphasen gegeben.
00:27:46 Phase 1 war glaube ich, wo du total in die Hardware-Exploration-Phase gekommen bist. Da gab es ganz viele Tutorials und ich hole das nur kurz von deiner Webseite marioetzechner.at. Du beschreibst auch selbst nach der Geburt von deinem Sohn, einen ganz wichtigen Moment, hast du dich ganz viel mit...
Marios hardwarebasierte Projekte
00:28:0800:28:09 Produkten, Ideen, die wirklich einen positiven Impact haben, auch beschäftigt. Und das, was ich auch total lustig finde, du hast dann ja auch im Hardware-Bereich eine Art Kassettenspieler umgesetzt. Ich suche es da eine Weile, aber vielleicht kannst du kurz erzählen, du weißt, was ich meine, oder? Ich habe es dir im Chat verlinkt. Es sind auch Fotos. Ja, super.
00:28:38 Wir haben halt ein kleines Kind, der war zu dem Zeitpunkt, so Mitte 25, war drei Jahre alt, vier Jahre alt und der hatte dann angefangen elektronische Gerätschaften.
00:28:50 zu verwenden. Unter anderem die Tony Box, das ist so ein deutsches Produkt, schaut aus wie eine Box, hat einen Lautsprecher drinnen, man kann so kleine Figuren kaufen, die einen RFC-Chip drauf haben, mit denen dann das Hörbuch oder die Musik abgespielt wird, wenn man das auf die Tony Box drauf stellt. Und prinzipiell ist die Tony Box eigentlich ganz okay, was jetzt so Privacy und all diese Dinge anbelangt. Ich finde es trotzdem irgendwie fuckig, dass
00:29:20 Dass ich da immer eine Internetverbindung brauche, mehr oder weniger, um die Sache runterzuladen. Dass die Figuren einfach unendlich viel kosten. Ich habe YouTube Music, glaube ich, heißt das, und Spotify. Ich will jetzt nicht noch extra Lizenzgebühren zahlen.
00:29:42 Ich finde auch die Bedienung der Tony Box tatsächlich komplett scheiße. Also Vorspulen, Zurückspulen oder den nächsten Track oder den Previous Track irgendwie reinzuklopfen, da muss man tatsächlich hardcore auf das Ding draufhauen. Und ich habe noch keinen Kleinkind gesehen, dass mit den Tony Boxen, die wir in unserem Hof haben, also wo die anderen Kinder auch sind, dass damit umgehen kann.
00:30:01 Ich als Erwachsener habe Probleme vorzuspulen oder den nächsten Track irgendwie anzuwählen, weil ich muss da mit meiner vollen Erwachsenenkraft reintraschen auf das Ding, dass das irgendwie funktioniert. Aber abgesehen von all dem ist die Tonic-Box eigentlich ganz okay, aber ich habe mir gedacht, ich möchte was Eigenes bauen und habe mir dann sechs Monate lang Elektronik beigebracht, weil ich bin ja eigentlich nur ein Software-Havi.
00:30:22 Und das ist dann ein bisschen eskaliert. Und ich kann halt jetzt selber PCBs, also Printed Circuit Boards designen. Die schicke ich dann nach China, die Layouts, und die schicken mir das wieder zurück. Dann löte ich das alles daheim mit meiner Battle Station, wo ich halt alles an Gerätschaft habe, was ich brauche. Und das macht extrem viel Spaß, weil es alles sehr taktil ist und ganz was anderes ist als Software. Das Coole ist auch, dass wenn man so eine Schaltplatine designt,
00:30:51 dann hat man irgendwie keine Möglichkeit, das zu simulieren, ob das auch wirklich funktioniert. Wenn ich programmiere, kann ich das Programm gleich ausführen und debuggen und Fehler beheben. Bei der Plotina ist es so, wenn ich einen Fehler mache, dann weiß ich das erst in zwei Wochen, weil das so lange dauert, bis das aus China zurückkommt und bis ich es gelötet habe daheim und testen kann. Und wenn ich es dann testen will, dann habe ich halt nicht viele Gerätschaften. Ich habe tatsächlich eh alles Mögliche, was man so braucht. Was soll ich denn da? Mal schauen. Salea.
00:31:21 Hast du nicht, wenn du bei dem Chip-Design machst, testet das nicht die Software durch und sagt dir, dass es theoretische Verbindungen gibt? Das ist nur ein Teil davon. Also was mir das Programm sagen kann, mit dem ich diese Layouts mache und die Platine definiere, ist quasi, ob ich noch irgendwo vergessen habe, eine Leitung zu legen oder ob die Leitungen zu nah ineinander sind.
00:31:46 Ja, das war es schon. Ganz rudimentär deckt das noch ab. Extrem rudimentär, aber es sagt mir jetzt zum Beispiel nicht, wenn ich einen IC, also einen Integrated Circuit habe, irgendeinen kleinen Chip, der irgendeine Aufgabe erledigen soll auf dieser Schaltplatine, kann mir das Programm jetzt nicht sagen, ob so wie ich den verdrahtet habe, ob dann auch das Signal, das reingeht oder rausgeht, korrekt ist oder solche Dinge. Also das geht nicht. Das heißt, man muss da wirklich im Vorhinein alles sich behirnen und das ist irgendwie sehr cool.
00:32:12 Das ist eine ganz andere Art von Hirnsport. Ich mag es wirklich. Ich habe es leider nur schon fast ein Jahr nicht mehr gemacht, weil ich in andere Dinge reingefallen bin. Aber diese sechs Monate lernen von der Picke auf, was ist eine Batterie und was passiert, wenn ich sie kurz schließe. Das war so mein erster Versuch. Bis hin zu, okay, ich kann jetzt SMT-Komponenten, also so 0,2-0,4-Komponenten daheim selber löten. Also es ist ziemlich cool.
00:32:40 Bist du Gymnasium gegangen? Ja. Okay, alles klar.
00:32:46 Ich wollte in die HTL gehen, weil da hat es keine Mädchen gegeben und das ist irgendwie doof. Ja, ich weiß, aber ich war in der HTL, da gab es keine Mädchen, aber dafür gab es Chip-Design und Platinenlöten und so weiter. Deswegen war es gerade die Frage, weil du meintest von der Picke auf und wir das halt über diese Jahre mal hatten. Ich meine, das ist jetzt auch schon ewig her, aber so. Aber es ist ganz cool, weil am Ende es funktioniert halt, aber du kannst bei der Fehlersuche, kannst halt echt die Nerven verlieren. Also, da kannst du alles haben. Ich glaube, da wird den Vorteil, dass ich von der Softwareentwicklung her schon ein bisschen getrimmt bin. Auf jeden Fall, ja.
00:33:16 In größeren Software-Systemen kann Debugging mindestens gleich beschissen sein, wie eine Platine zu debuggen. Bei einer Platine habe ich zumindest bei den meisten Teilen, wie zum Beispiel den Leiterbahnen und so weiter, das Glück, dass das alles relativ lokal ist und dass ich da schnell mit einem Multimeter hingehen kann und sagen kann, hey.
00:33:33 Was habe ich da für Spannung, was habe ich da für Ampere und so weiter und so fort und passt da vielleicht irgendwas nicht. Ich habe auch eine kleine Hitzekamera, mit der ich schauen kann, ob ich irgendwas kurz geschlossen habe und irgendwas durchschmort. Also ich habe all die Tools, damit ich das schnell debuggen kann und das ist eigentlich sehr nett. Und ja, jedenfalls habe ich eben halt so ein Ding zusammengebaut. Auf der Webseite sieht man es eh, das schaut eigentlich aus wie ein Game Boy und statt einem Display ist halt ein Lautsprecher.
00:34:02 Und da steckt man oben hinten so Karten rein, die halt auch ausschauen wie die originalen Gameboy-Karten, wo ich halt vorn drauf so die Bildchen von dem jeweiligen Hörspiel draufgeklebt habe. Und in so einer Cartridge, in so einer Karte, ist im Endeffekt nur eine SD-Karte drinnen, die ich vom Computer aus bespielen kann. Und das ist alles offline und die Batterie hält unendlich lang, weil es halt sehr auf Low Energy designed wurde.
00:34:29 Der Lautsprecher ist dasselbe wie in der Toniebox, also qualitativ ist es gleich. Und es ist auch viel kleiner als die Toniebox, was Portabilität einfacher macht. Wenn wir zum Beispiel nach London fliegen oder so, dann kann man das lockig lockig einpacken, die Toniebox ist da schon ein bisschen schießener.
00:34:47 Ich kann auf jeden Fall nur jedem empfehlen, Elektronik zu lernen. Es ist super, super, super fucking lustig. Selbst wenn man nicht über die, ich klasche ein paar Dioden und ein paar LEDs und Batterien zusammen, Stage hinaus kommt. Aber der ist jetzt auch schon lustig. Ja.
00:35:03 Finde ich auch super lustig. Ich habe es nur von außen damals verfolgt und ich habe ja auch Softwareentwicklung. Ich kann nichts angreifen. Ich habe keine Ahnung, wie das alles funktioniert. Ich möchte es unbedingt irgendwann mal lernen. Und es war so schön, dir dazu zu schauen, was das für ein Progress war. Also echt cool. Ich habe den Link auch in den Chat postet. Und bei mir im Stream schaue ich bei der Homepage immer ein bisschen mit. Und du hast ja auch geschrieben, das hat glaube ich mit Arduino angefangen. Bist dann aber sehr schnell an die Limitations gestoßen. Ja, Arduino ist ja irgendwie so, mit was so.
00:35:32 ich das vergleichen. Arduino ist irgendwie so wie Scratch für Spiele. Ich wollte gerade das gleiche sagen. Das ist ja, ja genau, das habe ich auch. Das ist voll cool zum Lernen und für die, aber irgendwann sehr schnell die Limitations. Does it run Doom? Ja, tatsächlich. Also wenn du diesen Blogposter anschaust, den ich dir gelingt habe, das zweite Video zeigt dir meine ersten Versuche, wo ich Doom tatsächlich portiert habe auf dem ESP32. Das ist immer so der...
00:36:01 Das ist das erste Ding, was ich immer so mache. Du hast es ja schon ein bisschen angeteasert. Also du magst dazu noch was erzählen, aber da gibt es ein ganz großes Thema, was im Raum steht. Ja, was eh lustig ist. Eigentlich komme ich ja aus der Spieleentwicklung und jetzt wäre nicht ganz unter einem Stein.
KI-Scheiße in der Gaming-Branche
00:36:2400:36:24 geschlafen hat, wie der Jesse Rocks. Was von das, Alter? Da frontet ihr mich beide ab. It's in the name. Hast du den Titel gesehen? Der Titel von Jesse für die Podcastaufnahme. Nicht auf Sky. Nett wird's trotzdem. Podcast mit Mario.
00:36:46 Der perfekte Dad mit diesen Zählschern. Ja, das ist halt Wahnsinn. Ob wenn man unter den Stein gelebt hat, was habe ich verpasst? Ja, die ganze KI-Scheiße. Die nutze ich doch. JGPD gefüttert von der Bild-Zeitung. Ich habe die besten YouTube-Titel. Ich hatte noch nie so viele Klicks. Also der Algorithmus ist mit mir. Ja, also eigentlich ist es ja so, in der Gaming-Branche ist KI so ziemlich...
00:37:12 Der Belzebub, was auch verständlich ist, weil in den großen Spielefirmen, genau. Die C-Level-Leute, also CEOs und so weiter und so fort, die glauben halt, dass sie jetzt alle Artists zum Beispiel einsparen können mit KI, die einfach schön Bildchen und so weiter generiert. Das ist natürlich Bullshit, funktioniert so noch nicht. Wird aus verschiedenen Gründen vielleicht auch noch länger dauern, bis das tatsächlich so weit funktioniert, dass ich damit produktive Assets bauen kann. Aber die Quintessenz ist jedes Mal, wenn irgendwo jetzt in der Spielebranche Leute rausgehauen werden, dann ist...
00:37:41 Der Grund, der genannt wird in der Presseaussendung, ja, die KI macht halt so viel. Das ist halt kein Käse. Und mit Spine sind wir halt auch direkt an den Künstlerinnen und Künstler dran, die Animationen bauen, weil das Produkt eben für die Animationserstellung da ist. Und das heißt, wir kriegen halt mit, wie sehr die Leute KI hassen.
00:37:59 Ich habe aber das Problem, dass ich eigentlich in den 2000er Jahren mit maschinellen Lernen angefangen habe, in meinem Brotberuf damals. Und deswegen hat mich das halt schon immer und ewig interessiert. Und für mich sind es halt so Dinge wie JGPT oder Cloud, also die sogenannten Large Language Models, halt nur ein weiteres maschinelles Lernmodell. Und ich habe da jetzt keine, wie soll man sagen, emotionale Bindung und keine Abneigung, sondern es sind ein paar Matrizen in der Cloud, die halt was rechnen.
00:38:26 und interessante Ergebnisse liefern können, wenn man weiß, wie man sie einsetzt. Und deswegen habe ich die letzten zwei, drei Jahre, seit Ende 2022, wie GPT rausgekommen ist, habe ich mich damit auch immer beschäftigt. Es ist immer mehr und immer mehr geworden. Am Anfang letzten Jahres haben die Dinge auch angefangen, nützlich zu werden in der Softwareentwicklung selbst. Und dann bin ich ein bisschen abgerutscht, gemeinsam mit zwei Freunden.
00:38:53 mit dem Peter Steinberger und dem Armin Ronacher, die in der Software-Szene auch ein bisschen einen Namen haben. Das ist, also da muss ich auch kurz, ich meine, Peter kenne ich nicht persönlich, denn Armin kenne ich doch auch schon länger, weil Armin hat auch Connect zu der Spieleindustrie. Das ist total spannend, ich finde das total spannend, wie sich da irgendwie die österreichische Tech-Welt trifft, aber eben voll...
00:39:19 Eben immer mit diesen Links zur Spieleindustrie. Das ist halt das, was ich total spannend finde. Amin hat bei Splash Damage gearbeitet in London und hat dort an der Halo Collection gearbeitet. Speziell auf der Infrastruktur-Networking-Seite, also Multiplayer Mode und all diese Dinge. Das ist auch ein alter Hase. Bekannt worden dann auch durch so eine Kleinigkeit wie Flask.
00:39:43 Ja, wobei ich glaube nicht, dass euer Publikum Flask kennt, aber das ist halt so ein Framework, mit dem man ganz schnell Server bauen kann quasi, also HTTP-Server bauen kann und APIs bauen kann und so. Bekannt in unserer Branche, nicht bekannt in der Welt.
00:39:59 Peter Steinberger war jetzt in Österreich ganz groß in den Schlagzeilen, also weltweit in den Schlagzeilen, aber auch speziell mit dem Namen verbunden in Österreich. Was soll ich dazu in diesem Thema sagen? Mario, the stage is yours. Ja, der Peter ist auch ein ganz alter Freund von mir, beide Armin und Peter kenn ich seit 15 Jahren. Der Peter hat früher...
00:40:26 10, 13 Jahre, glaube ich, eine Firma gehabt namens PSPDF-Kit, wo es darum gegangen ist, dass sie halt Software, anderen Software-Buden geben, damit sie PDFs in ihren Mobile Apps und ihren Desktop-Apps und im Web rendern können, was tatsächlich eine ganz schwierige technische Aufgabe ist tatsächlich.
00:40:43 Und dann hat er das irgendwann mal verscherbelt, das ganze Ding. Und dann war er ein paar Jahre irgendwie weg von der Software-Szene. Davor war er halt immer auf Konferenzen und war halt ein oft gesehener Mensch, weil er halt auch coole Low-Level-Sachen gemacht hat und auch ein bisschen Hacker-Spirit gehabt hat.
00:40:59 Und dann war er weg von der Oberfläche und letztes Jahr im April ist er zurückgekommen und hat voll die KI-Psychosis bekommen. Weil er irgendwie gemeint hat, oh shit, die LLMs, also die Large Language Models wie GPT oder Cloud, die können ja jetzt auch programmieren für mich. Und das eröffnet mir eine ganz andere Welt wieder, weil ich davor hatte ich einen Burnout und mochte nicht mehr programmieren, aber jetzt kann die Maschine das für mich übernehmen und dann ist es irgendwie voll reingekippt.
00:41:26 Und wir haben dann das Jahr eigentlich alle drei gemeinsam so immer wieder mal viele Kontaktpunkte gehabt, auch im echten Leben. Wir haben einen Hackathon gemacht beim Peter in der Wohnung in Wien und uns so auch immer wieder tropfen bei diversen Konferenzen und so. Und hat gegenseitig uns den Ball zugespielt und hat geschaut, was geht und was nicht geht. Und der Peter hat dann im Oktober angefangen, an einem Projekt zu arbeiten, wo er sich einen personellen KI-Assistenten gebaut hat.
00:41:52 mit dem man per WhatsApp oder iMessage und so weiter reden kann, der jetzt nicht nur Antworten geben kann, sondern der daheim seinen Computer steuern kann auf Befehl. Der hat damals noch War Relay heißen, dann hat er irgendwann ein Clawed Bot heißen, dann hat er Mold Bot heißen und zuletzt hat er dann Open Clawed heißen und das ist vielleicht auch der Name, den viele Leute aus den Medien kennen. Das ist dann irgendwie ballistisch gegangen und China ist quasi...
00:42:18 Jedes kleine Unternehmen in China verwendet jetzt seine eigene Open-Claw-Instanz, wo das ganze Business damit irgendwie automatisiert wird. Und ja, es ist ziemlich fucking crazy. Holen wir ganz kurz ab. Also man kann sich das so vorstellen, also das große Stichwort ist agentenbasierte KI, kann man es auf Deutsch sagen, oder? Agentik AI. Ganz ein großes, glaube ich gerade wichtiger besprochener Teil, sowohl in Medien, aber auch in der Forschung.
Agentenbasierte KI und OpenClaw
00:42:4500:42:45 Und wie kann man sich das vorstellen? Wie du gesagt hast vorher, ich kann zum Beispiel mit dem Handy irgendwo sitzen und dann über Signal ein Kommando an meinen Bot geben, der möchte doch bitte das erforschen, das entwickeln und dann fünf E-Mails rausschicken, so vereinfacht irgendwie dargestellt. Wie könnte man Agentic AI beschreiben? Agentic AI kann man beschreiben als
00:43:10 Smoke and Mirrors, weil die machinellen Lernmodelle, die da im Hintergrund sind, also diese Large Language Models wie GPT und Cloud, die können nur eines, die können nur Text reinnehmen und Text rausspucken. Stimmt nicht ganz, die können auch Bilder und Audio jetzt mittlerweile reinnehmen, aber im Endeffekt ist es Text rein, Text raus. Und über die letzten paar Jahre hat man halt deren Fähigkeiten, was das Text raus betrifft, so weit verbessert, dass sie dann nicht nur Antworten auf Fragen geben können oder mit dir Konversationen betreiben können.
00:43:39 sondern auch spezialisierten Text ausgeben können, den dann eine Software, die rundherum um das KI-Modell, also das LLM gebaut wurde, interpretieren kann. Du kannst dir das so vorstellen, wenn ich will, dass mein LLM, also mein Large Language Model, meine E-Mails lesen kann, dann sage ich ihm einfach ganz am Anfang der Konversation, du, und wenn du willst, wenn ich zu dir sage, schau, was in meiner Inbox ist, dann spuck bitte aus, E-Mails lesen, Klammer auf, Klammer zu.
00:44:08 Also so quasi ein Funktionsname, wie man das in der Software nennt. Und das ist alles, was das LLM machen kann. Es weiß also, was es für Funktionen oder Werkzeuge hat. Die haben dann einen Namen und da kann es auch noch so Parameter dazugeben. Wenn man zum Beispiel E-Mail schreiben will, wenn man das LLM eine E-Mail schreiben lassen will, dann spuckt es halt aus. E-Mail schreiben, Klammer auf.
00:44:29 Joey at Joey.at Beistrich, dann den Titel, also das Subject der E-Mail und dann den Content der E-Mail und Klammer zu. Das LLM spuckt das nur als Text aus. Und dann gibt es eine Software drumherum um das LLM, die schaut sich halt an, was das LLM gerade ausgespuckt hat an Text. Und wenn es erkennt, dass es halt irgendwas machen will, wie E-Mails lesen oder was auch immer, dann führt es einfach diese Funktion aus und spuckt dann.
00:44:54 Die Ausgabe dieser Funktion, also wenn zum Beispiel E-Mail suchen oder Inbox oder sowas ausgespuckt hat, dann schaut das Programm um die L herum in die Inbox, holt sich dann die Daten, die Textdaten raus, alle E-Mails, die drinnen sind und spuckt die wieder rein in das LLM, damit das LLM weiß, welche E-Mails in deiner Inbox sind. Also das ist der Zaubertrick. Das ist total dämlich einfach eigentlich.
00:45:18 Das Problem, was man davor hatte, so bis 2024, war einfach, dass diese LLMs nicht verstanden haben, wie man diese Werkzeugnamen und ihre Parameter ausspuckt. Und das hat man dann speziell reintrainiert in sie, indem man ihnen ganz viele Beispiele gezeigt hat, also so Beispiele von Kompensationen, wo halt ein User sagt, was ist in meiner Inbox und dann...
00:45:38 das LLM gesagt hat, E-Mail, Inbox, Klammer auf, Klammer zu und dann hat man ihm gezeigt, dass es danach die Inhalte der E-Mail kriegt, bla bla bla. Und ganz, ganz viele Beispiele wurden bei diesen LLMs gezeigt und damit haben sie gelernt, wie sie diese Werkzeuge verwenden können.
00:45:52 Und Agenten sind jetzt nichts anderes als die LLMs, mit denen du auch auf JGPT.com oder Cloud.ai reden kannst, plus Werkzeuge. Das heißt, man sagt ihnen einfach, du kannst die und die und die und dieses Werkzeug aufrufen, indem du den und den und den Text ausspuckst und dann kriegst du die Resultate von dem Werkzeug wieder zurückgeschickt an dich, liebes LLM.
00:46:14 Und that's it, das sind Agenten im Endeffekt. Und was Open Cloud im Speziellen gemacht hat, ist einfach einen neuen Kanal oder mehrere neue Kanäle, wie man mit einem LLM reden kann. Anstatt dass du auf chatgpt.com gehst und du dem Chatinterface was schreibst, kannst du halt jetzt mit dem LLM auch über WhatsApp und über Telegram und in einem Discord-Server und auch immer reden. Befehle schicken praktisch, ne?
00:46:36 Genau, und einfach so mit dem reden wir auf JGPT. Und gleichzeitig gibt es ihm dann auch noch Werkzeuge. Und diese Werkzeuge sind im Endeffekt Datei lesen, schreiben, editieren. Und die Datei, in dem Fall ist eine Datei auf deinem Computer, wo das Ding läuft. Das heißt, es kann alles auf deinem Computer machen, wenn du es nicht absicherst. Und der wichtigste Befehl ist Kommando ausführen. Und mit Kommando ausführen ist gemeint,
00:47:02 ich weiß nicht, ob das alle kennen, aber man kann ein sogenanntes Terminal-Fenster aufmachen, also diese Command-Line oder Konsole oder Bash, wie auch immer man es nennen mag. Und da kann ich auch als Mensch Kommandos eingeben, wie zum Beispiel öffne den Browser oder lösche diese Dateien oder lade den Inhalt dieser Webseite runter und so weiter. Und wenn ich einem LLM ein Werkzeug gebe, das Kommando ausführen heißt und dann die Software um das LLM herum
00:47:31 dieses Kommando auch wirklich ausführt, wenn das LLM das ausspuckt, dann kann das LLM deinen Computer steuern. Und das ist im Endeffekt was Agenten oder zumindest Personal AI Agents wie OpenClaw jetzt ausmacht. Dass es einfach nur Kommandos ausspuckt, die die Software um das LLM herum ausführen kann auf deinem Computer.
00:47:54 Na, weil das wird super spannend. Du hast jetzt nämlich schon ein paar Sachen voll für Potenziale, mögliche Risiken angesprochen. Aber ich glaube, bevor wir da rein stürzen, was hast du damit zu tun? Weil du hast ja wirklich einen ganz großen Teil auch, du hast dich ja dann auch extrem damit befasst. Ich habe dann schon wieder nur gesehen auf Twitter und Co., wie plötzlich in eine ganz orge Richtung, also von dir, vom Armen, genördert worden ist. Aber maybe you'll take it from here.
00:48:23 Damit so ein Agent laufen kann, braucht man diese Software, die die Eingabe- und die Ausgabeinterpretation um das LLM rundherum ausführen kann. Also quasi interpretieren kann, wenn das LLM irgendwas ausspuckt, was ein Werkzeugaufruf ist, muss diese Software rundherum.
00:48:42 um das LLM muss das auch dann ausführen können und die Resultate wieder zurück rein injecten. Und dann gibt es ganz, ganz viele technische Details, die dann auch dazugehören, wie Authentifizierung und Compaction, Retries und bla bla bla. Und diese Software-Dinge um die LLM herum, das nennt man eine Harness. So wie Zügel beim Pferd. Du kannst dir das vorstellen, wie die Zügel um das LLM herum, also das Large Language Model herum.
00:49:06 Und wie der Peter angefangen hat, seinen CloudBot, OpenClaw, was auch immer zu bauen, habe ich nebenbei mir selber einen sogenannten Coding Agent gebaut. Coding Agent ist nichts anderes als ein Chat-Interface, wo ich sagen kann, schreib mir dieses Programm, mach keine Fehler. Und das LLM im Hintergrund kriegt dann Werkzeuge, mit denen es Dateien auf meiner Festplatte modifizieren kann und Kommandos ausführen kann. Und auf Basis seines Programmierwissens kann es mit diesen Werkzeugen dann mir helfen, Software zu entwickeln.
00:49:34 Peter hat dann meinen sogenannten Coding Agent genommen als Kern für seinen Open Claw Klingel.
00:49:41 Und das einfach noch verknüpft eben mit Telegram als Eingabe oder Discord als Eingabe und so weiter und so fort und ganz viele Zusatzfunktionen noch dazu gebaut. Also ihm auch ganz viele Werkzeuge gegeben, die mein Coding Agent jetzt nicht hat. Ein Werkzeug wäre zum Beispiel, öffne den Browser und schaue, was auf dieser Webseite ist oder steuere dieses Desktop-Programm, zum Beispiel irgendein Spiel oder Word oder was auch immer. Das hat der Peter dann rundherum gebaut noch auf meinem.
00:50:09 mein Coding Agent. Und ja, das war der Konex. Er wollte das originär selber machen, dann hat er gemerkt, dass das relativ viel Aufwand ist und dann hat er einfach gesagt, Mario, ich nehme Deins. Und das war's. Mehr ist es nicht. Also Peter ist ja sehr, sehr zu OpenAI gegangen. Das ist ja immer so die große Frage.
00:50:28 Wir wissen ja im KI-Bereich bezüglich Innovationen und Technologie und wo welche Modelle herkommen. Da passiert halt in den USA ganz viel, in China passiert ganz viel, in Europa.
Marios Zusammenarbeit mit OpenAI
00:50:4200:50:42 das was wir haben ist Mistral, aber grundsätzlich schaut da halt alles ein bisschen anders aus. Und ich glaube, wenn ich mich richtig erinnern kann, war das auch das Pressestatement von ihm, dass es halt sehr viele, einfach es natürlich viele Möglichkeiten gibt, so ein Produkt dann zu skalieren und dann vielleicht auch die eigene, man will dann natürlich auch, dass das eigene Baby oder das, was man da gerade entwickelt hat, dann natürlich auch möglichst effizient umgesetzt werden kann und irgendwann kommt man halt
00:51:11 dann da wahrscheinlich ihren Limits oder oder oder wie also
00:51:17 Peter, Petersgrund, warum er bei OpenAI angeheuert hat, Gott sei Dank ist es OpenAI und nicht Facebook, weil das habe ich ihm ausgeredet damals. Die wollten uns beide anheuern für enorm viel Geld und ich habe ihm dann erklärt, warum das eine scheiß Idee ist. OpenAI hat übrigens auch natürlich komische Dinge, die es tun, aber es ist ein bisschen weniger geschissen als Facebook. Ich habe bei niemanden angeheuert von dieser Kategorie. Er hat dort angeheuert aus Gründen, die befolgt sind.
00:51:45 Damit ich so einen Personal AI Assistant wie OpenClaw bauen kann, brauche ich ein Large Language Model. Wenn ich keine Kontrolle über das Large Language Model habe, selbst als Unternehmung oder als Privatperson, die ein Open Source Projekt wie OpenClaw macht, dann bin ich halt irgendwie abhängig davon, dass die mich nicht irgendwie zudrehen oder irgendwie limitieren und so. Das ist einmal ein erster Grund. Und das ist dann auch passiert. Also andere LLM-Firmen wie Anthropic haben OpenClaw dann irgendwie gebannt.
00:52:14 Und das passiert jetzt mit OpenAI nicht, weil OpenClaw oder Peter zumindest auch zu OpenAI gehört. Die zweite Geschichte ist, OpenAI und andere Model Lamps haben selber noch keine Personal AI Assistance in der Form von OpenClaw. Und der Grund dafür ist, dass OpenClaw
00:52:34 Scheiß gefährlich ist eigentlich. Also jetzt nicht Weltuntergangs und SkyNet gefährlich, sondern es kann nicht hin und wieder Fehler machen. Es kann E-Mails löschen, die es nicht löschen hätte sollen. Es kann jemanden deine Daten schicken, die es ihm nicht schicken hätte sollen und so weiter. Datenbanken löschen.
00:52:51 Datenbanken löschen und so weiter. Das ist aber jetzt keine Eigenschaft von Open Claw, sondern das ist einfach eine Eigenschaft von LLMs per se, die halt noch immer nicht ganz alles so subi-dubi behirnen, wenn sie irgendwas machen. Und wenn es ihnen Werkzeuge gibt, die in die echte Welt greifen können, dann kann es halt sein, dass hin und wieder Sachen passieren. Also, wie der Peter den ersten Prototypen von War Relay, dem Vorläufer zu Open Claw fertig gehabt hat, haben wir eine kleine WhatsApp-Chatgruppe gehabt zwischen ihm, mir und seinem War Relay AI-Assistenten.
00:53:19 Und der hat ihm damals Kontrolle über seinen Computer in London gegeben. Und wir haben dann ein bisschen herumgespielt und geschaut, was er alles machen kann. Er hat sich dann zu seinem Home Automation Sachen automatisch verbinden können und dort die Lichter ein- und ausschalten können, Klimaanlage spielen können, Fernseher und Computer ein- und aus- und was auch immer. Und wir haben uns dann gespielt und wir haben dann gesagt, du Barrel Roll. Und dann hat das Ding angefangen, die LEDs in seinem Schlafzimmer vor der Kanne aufgehen zu lassen und so rotieren zu lassen.
00:53:48 Dann haben wir irgendwie gesehen im Video-Feed von seiner Security-Kamera, läuft eine Person voll aufgeschreckt durch das Bild. Und es stellt sich heraus, dass die Putzfrau dort war, während wir über seinen Personal-Assistent die Home-Automation durchprobiert haben. Also ja, da gibt es ganz, ganz viele lustige Anekdoten und manche davon sind halt auch nicht so lustig, weil sie halt Daten kaputt gemacht haben oder tatsächlich Businesses gestartet haben.
00:54:14 Ich weiß nicht mehr, was die Frage war. Ich bin schon sehr müde heute. Ja, verstehe. Soll das heißen, ihr habt die arme Putzfrau erschreckt mit euren Testen? Die hat sich in den Herzinfarkt und plötzlich sich alles bewegt und keine Ahnung was. Ja, oder der Computer anfangen zu sprechen. Oder der Computer anfangen zu sprechen. Also, du warst keine, danke für den Titel. Oh ja, das war's. Okay.
00:54:39 Gab es dann wenigstens ein Trinkgeld und eine Entschuldigung? Hat der das aufgeklärt? Die kommt nie wieder. Na doch, ich glaube, der hat das dann schon aufgeklärt. Das war ja auch unbeabsichtigt, wie man gewusst hat, dass sie dort ist. Wir haben es erst bemerkt, wie die Disco losgegangen ist und sie dadurch aufgeschreckt wurde. Ja, aber das hast du ja schon gesagt. Aber ganz blöd, ihr wart ja nicht dort, oder? Was ist, wenn da was schiefgegangen wäre wie Herd ein oder ein Brand? Weil bis nach London ist halt ein Stück. Joi.
00:55:03 Ah, okay. Ich wollte nur kurz, das war eine ganz dumme Frage. Also wenn es gleich kommt die Feuerwehr. Bei uns und im Sondern. Okay, alles klar.
OpenClaw-Anwendung und Risiken
00:55:1200:55:12 Aber eben, also du sagst, aktuelles kommt halt auch mit sehr vielen Risiken. Wird OpenClaw und oder Pi auch außerhalb von der Softwarebranche schon verwendet? Also ich meine, die Use Cases, die wir jetzt besprochen haben, sind ja sehr spezifisch und recht nerdy, recht Software-Tacking.
00:55:35 99 Prozent von Open Claw-Usern sind keine Techies. Das sind einfach Normies mit ein bisschen Tech-Affinität. Die wissen, wie sie ein Programm aus dem Internet runterladen und installieren können und wie sie sich irgendwo einen Account bei GPT oder Anthropic oder sonstigen holen und das dann halt konfigurieren. Aber die meisten Leute sind keine Techies, die Open Claw verwenden. Was ja auch das Problem ist, weil ich weiß, was die Schwachstellen sind in diesem System. Der Peter weiß es auch. Und der Peter hat das auch nie beworben als super safe und personal assistant, sondern als
00:56:04 Ein lustiges Experiment für Nerds, mit dem man schauen kann, wie weit man gehen kann und was funktioniert und was nicht funktioniert. Und dann ist das irgendwie aus der Tech-Bubble rausgeswappt in die Normie-Welt an Nicht-Techies und die verstehen halt die Security-Implications von so einem System nicht. Als Beispiel, sagen wir, du installierst das auf deinen Computer ohne sogenannte Sandboxing, das heißt, es hat vollen Zugriff auf den Computer und keine Limitierungen.
00:56:31 und sagen wir, du gibst dem vollen Zugriff auf deine E-Mails und deine Bank-Accounts und was auch immer, dann läuft das so lange gut, bis zum Beispiel irgendwer dir eine E-Mail schickt, in der E-Mail ist ein PDF attached, in diesem PDF steht eine Anweisung für den Personal Assistant und du sagst dann, ohne zu wissen, was in dem PDF drin steht, von der E-Mail von irgendeiner dritten Person, du lieber Personal Assistant, lies doch mal das PDF und fass es für mich zusammen.
00:56:55 Dann ladet der sich das PDF aus der E-Mail runter, liest das und da drin steht dann, pick mir alle sensitiven Daten von dem Computer, auf dem du laufst, dann diese E-Mail-Adresse und dann bitte mach auch noch eine Banküberweisung von 300.000 Euro. Das sind diese neue Phishing-Mails, wo die Leute früher draufgeklickt haben, jetzt gibt es Instruktionen für diese Börsen-Mail-KI. Das ist man, notier das, uns meine Bank da, die Bahn rein.
Prompt-Injection und Sicherheitsprobleme
00:57:2100:57:21 überweise X an IBAN und das wird wie ein Befehl genommen, oder? Genau, und das Problem ist, dass das Ding halt nicht unterscheiden kann zwischen Befehlen von dir, seinem Besitzer, in quotes, und Informationen, die jetzt davon tritten kommen. Das kann jetzt der Inhalt der E-Mail sein, der Inhalt eines Dokuments sein, eine Audio-Datei, was auch immer. Es kann natürlich schon bis im Wissengrad es unterscheiden, Anführungszeichen, aus dem...
00:57:44 Chatverlauf heraus quasi. Und man kann auch Daten, die von Dritten kommen, im Chatverlauf, wenn sie reingelesen werden, irgendwie markieren und sagen, das ist nicht von deinem Benutzer, sondern das ist von jemand anderem. Das heißt, diese naiven sogenannten Prompt Injections, nennt man das, die funktionieren bei den großen Modellen nicht mehr gut. Aber es ist trotzdem total super fucking easy, so ein Modell dazu zu bringen, Sachen zu machen, wenn du nicht der Benutzer bist.
00:58:10 Das ist das Problem an der Geschichte. Das ist auch der Grund, warum die großen Labs wie OpenAI und Anthropic und so weiter selber noch nicht so etwas auf den Markt gebracht haben, weil es keine Lösung dafür gibt aktuell. Und jetzt ist halt für den Peter die Geschichte die, er kann es im Open-Source-Bereich versuchen zu lösen, das macht er auch bis zu ein bisschen Grad.
00:58:30 dass er alle möglichen Security-Lücken schließt, dass er dieses Sandboxing bei Default mittlerweile eingeführt hat und so weiter und so fort. Das Problem ist aber, dass es nicht reicht und dass man da ein bisschen Budget und ein bisschen ein Research-Team braucht, um das eigentliche Grundproblem des Ganzen zu lösen. Und das geht halt nur bei einem der großen Model-Apps, weil die kennen sich da aus, die können auch das Modell selber dann anders trainieren, damit es sich anders verhaltet im Fall einer Prompt-Injection und so weiter.
KI-Entwicklung in Europa im Vergleich zu China und USA
00:58:5500:58:55 Das wird einer der größten Gründe sein, warum der Peter so mehr gegangen ist. Damit er eine Quelle sitzt. Genau, damit er da direkt an diesem Problem arbeiten kann, eben diese Secure Personal Assistance bauen zu können. Und warum hat er das nicht mit eigener Firma gemacht? Der Peter hat vorhin schon seine Firma gehabt und das ist aus eigener Erfahrung heraus ein Arschhocken. Wenn man sich nur auf das technische Problem hauen will und dann gleichzeitig aber auch noch eine Firma aufbauen will, dann hat man in der Regel keine Zeit mehr.
00:59:21 für die technischen Probleme, sondern muss ein Team bauen, Geld holen, verkaufen etc. Das muss er hier nicht, also quasi ein Angestellter und kann nur am technischen Problem arbeiten. Und warum hat das nicht mit europäischen Unternehmen gemacht? Ja, weil es in Europa einfach niemanden gibt. Die soweit sind oder die es gar nicht gibt? Es gibt ein einziges sogenanntes Model Lab, das heißt Mistral, die bauen auch Large Language Models, aber die sind einfach nicht gut.
00:59:46 Die werden vorhin in europäischen Unternehmen eingesetzt, in der Old-Industrie, Autoindustrie und so weiter. Aber eben nicht für so agentische Sachen, also nicht Sachen, wo das LLM irgendwie über Werkzeuge mit anderen Systemen oder der echten Welt kommuniziert, sondern für so Dinge wie fass mir dieses E-Mail zusammen oder lies mir und sag mir, was in diesem Bild drinnen ist. Und dementsprechend hat Mistral die letzten Jahre halt nicht so sehr auf agentic LLMs gesetzt, sondern eher auf
01:00:14 europäische Artindustrie schnarchen aus den LLMs. Ja, weil die das Geld bringen. Genau. Ist ganz klar. Und wenn deine Kunden nicht den Need haben für Argentic AI, dann brauchst du halt auch keine Argentic AI. Und das ist halt das, was da jetzt in Europa passiert, weil Europa halt rückständig ist. Leider.
01:00:32 Bevor die Joey jetzt eine Frage stellt, ich habe einen Einschub, das müssen wir dann vielleicht kurz rauscutten. Wir sind jetzt bei 39 Minuten. Wäre Militär eine Option gewesen oder wurde vom Militär angefragt? Weil da sehe ich einen anderen Use Case. Vielleicht sind die ja weiter, also nicht so mit so public, weil OpenAI ist ja relativ bekannt, aber das Militär wird ja auch sicher in die Richtung vor allem auch was haben.
01:00:55 Das Militär, also keines der Militärs in Europa zumindest arbeitet an seinen eigenen LLMs, das kann ich ausschließen. In den USA das Department of Defense oder wie es jetzt heißt, das Department of War, das ist die Fouikokka. Ja, das klingt sympathisch. Also lieber, okay, Angriff ist die beste Verteidigung. Ja, weil die haben halt einen anderen Etat. Deswegen dachte ich mir, da ist halt Geld nicht. Aber auch da ist es so, das DOD, also das Department of Defense, hat...
01:01:22 schon hausintern sogenannte finetuned modelle soweit ich weiß aber die kaufen vorig von open area und entropic ein aber das sind ja auch us-based firmen oder genau und in china das ist der zweite konnte nicht kontinent sondern der zweite ort sozusagen wo wo es echt rappelt in der kiste bezüglich dieser technologie
01:01:45 Die sind auch top und extrem weit vorne und die haben auch, was die Adaption von solchen Tools wie Open Cloud zum Beispiel betrifft, absolut null Skrupel. Also es gibt in China, in verschiedensten Städten wöchentliche Lasst uns Open Cloud installieren Events, wo tausende Non-Techies irgendwo hinkommen an einen Ort in der Stadt, um sich dann von Techies Open Cloud auf ihre PCs und Laptops und schieß mich doch tot installieren zu lassen.
01:02:11 Das ist wirklich für mich bizarr, aber die sind halt wirklich, wirklich, wirklich weit vorn. Und in China gibt es auch ganz, ganz viele Model Labs, die ihre eigenen LLMs bauen, die halt auch wirklich mittlerweile sehr gut sind. Und der Unterschied zu den Amerikanern, viele dieser Model Labs in China stellen diese Modelle gratis im Internet zur Verfügung. Das heißt, ich kann es runterladen und wenn ich genug GPUs habe, kann ich sie auch selber laufen lassen auf meiner Hardware. Und modifizieren. Genau.
01:02:39 Schön wäre es, wenn Europa das auch machen würde, aber wir sind halt Schnachnasen, die Politik hat keine fucking Ahnung, Geld gibt es bei uns auch nicht so viel. In den USA gibt es einen eigenen Kapitalmarkt, der super funktioniert, in China gibt es staatliche Förderungen, die super funktionieren, wie es halt so ist in einem diktatorischen System. In Europa haben wir halt genau gar nichts, was irgendwie in diese Richtung geht.
01:03:03 Mistral selber hat ja auch Investoren, aber das sind eigentlich keine europäischen Investoren, sondern amerikanische Investoren. Nachdem wir die großen Pandora-Boxen eh schon aufgemacht haben.
01:03:19 Es gibt sehr viele Menschen, die sehr viel Angst haben für KI und auch, ich meine, das alles, was du gesagt hast über KI-Agenten, auch bezüglich Privacy-Issues, bezüglich Kontrollierbarkeit. Im Grunde, eben was du gesagt hast, dass sie dann halt einfach stumpf auch unter Umständen Befehle ausführen oder Daten weitergeben. Wie ist denn deine grobe Einschätzung zu Risiken versus Möglichkeiten oder vielleicht auch ein paar von den klassischen Ängsten? Was wäre denn?
Risiken und Möglichkeiten von KI für Privatpersonen
01:03:4801:03:48 Kleine Einstiegsfrage. Kleine Einstiegsfrage. Das müssen wir auf mehrere Ebenen kurz sezieren. Sorry, das wird wieder ein Monolog. Aber fangen wir mal an mit, ich gehe auf JGPT.com und fange an mit dem Ding zu reden. Was heißt das jetzt für mich als Privatperson? Was gebe ich von mir preis? Was wird gespeichert? Und so weiter.
01:04:06 Wenn ich auf Google gehe, wird ja auch alles gespeichert, was ich dort eingebe. Entweder weil ich eingeloggt bin mit meinem Google-Account oder weil die meine IP-Adresse und einen Fingerprint von meinem Computer haben. Und das war schon ewig so. Und damit machen sie Profile über dich, damit sie dir Werbung verkaufen können. Und man kann da schon sehr viel über deine Persönlichkeit und über dich und dein Verhalten sagen, nur auf Basis deiner Suchanfragen bei Google.
01:04:31 Und jetzt gehst du auf ChatGPT und da gibst du jetzt nicht nur eine Keyword-Suche ein, sondern du redest mit einem Ding und legst ihm quasi dein gesamtes Leben dar, was viele Menschen machen. Sie verwenden es als Psychologen, als Freund, als tatsächlich auch Sexualpartner mittlerweile anscheinend. Das heißt, die Daten, die du jetzt an OpenAI oder Anthropic schickst, wenn du mit ChatGPT redest, sind halt noch einmal mehrere Potenzen informativer.
01:05:00 was dich als Person betrifft. Das halte ich halt schon für ein bisschen ein Problem. Geht einfach mal auf JGPT und schaut euch die Konversationshistorien an und dann überlegt euch, welche Informationen ihr über euer Leben mit diesem LLM ausgetauscht habt, weil all das wird auch gespeichert und all das wird auch verwendet, um über euch ein Profil anzulegen. Und das ist viel, viel, viel detaillierter, als was Google jemals über euch gewusst hat.
01:05:27 Also nur vor dem Hintergrund, dass du mit dem Ding redest wie mit einem Menschen. Wenn ich da ganz kurz auch in deinen Monolog brechen kann, also das Thema KI-Companions, also das, was du vorher gesagt hast, da gibt es ja positive Studien, die ja zum Beispiel zeigen, dass sie nützlich sein können, weil wir haben dieses mentale Gesundheitsproblem und wir können uns nicht alle Therapeuten leisten und auch wenn, hätten nicht alle gleichzeitig Zeit. Ja, diese Studien möchte ich gerne sehen, weil die müssen von der Industrie gefördert sein. Es ist absolut, absolut, absolut scheiße. Jetzt bin ich hier richtig.
01:05:57 Okay, go, zweite Runde. Ja, ja, ja, nein, nein, aber ganz kurz, my point, my point, my point. Was du angesprochen hast, dass dann Menschen zum Beispiel JTJPD und Co. verwenden, um da irgendwie positive Gespräche zu führen, die aber nie dafür spezialisiert oder trainiert worden sind und so designt worden sind, dass sie uns zum Beispiel positiv... Oh, doch, doch, die sind trainiert drauf. Lass es mich so ausdrücken.
01:06:27 Das ist ein pet peeve of mine, weil das ist auch dann im Schulsystem und bei Kindern und Jugendlichen ein riesen Problem. Ja, ja, ja. Und wenn du dann reinkommst, das Miss Academia und sagst, da gibt es eine Studie, die sagt, das ist total cool. Nein, nein, nein. Mein großes Aber, also wirklich das große Aber, vor allem die generalisierten Modelle.
01:06:55 sehr, sehr, sehr, es wäre ein sehr großes Ava gewesen, aber ich höre dir zu. Das ist absoluter fucking Bullshit. Also es ist so, was braucht eine Plattform wie ChatGPT? Was braucht jede Internetplattform? Sie braucht sogenannte Stickiness. Wie bekomme ich Stickiness, indem ich dem User einfach irgendwas gebe, das ihn dazu anbringt, so oft wie möglich und so lang wie möglich mit meinem Service zu interagieren. Jetzt hast du auf ChatGPT.com ein Ding, das mit dir reden kann.
01:07:22 Was glaubst du, wie glaubst du, werden diese Modelle trainiert, damit du so lang und so oft wie möglich mit ihnen redest? Werden die darauf trainiert, dass sie immer objektiv mit dir reden und sagen, das ist blöd, das ist gut und da solltest du vielleicht einen Arzt fragen und nicht mich? Nein, aber das ist ja... Oder werden sie trainiert, dass sie dir so lang wie möglich Zucker in den Arsch blasen, die sagen, du bist der beste Mensch der Welt und der gescheiteste Mensch der Welt und deine psychischen Probleme kann natürlich auch ich als JGPD lösen?
01:07:50 Genau das passiert. Das wird explizit in die Modelle rein trainiert. Sie dann als Ersatz für Psychotherapie, für medizinische Beratung und so weiter zu verwenden, ist absolut fucking scheiße. Ja, ja, ja. Und das, was mein Punkt war, dass es die Menschen aber ganz selbstverständlich tun und sich überhaupt nicht dessen bewusst sind, dass die Modelle nicht dafür...
01:08:13 von Experten, Expertinnen trainiert werden. Es könnten auch keine Experten und Expertinnen diese Modelle so trainieren. OpenAI hat tatsächlich eine große, und an Thropic sogar noch mehr, eine große Abteilung an sogenannten Expertinnen, die Einfluss darauf nehmen, wie diese Modelle trainiert werden. Nachdem sich ein paar Kinder umgebracht haben, weil sie mit ChatGPT 4.0 geredet haben, hat OpenAI da investiert. Aber tatsächlich alles, was sie machen können, ist...
01:08:38 dem Modell zu sagen, wenn dieses Thema kommt, dann hör einfach auf, darüber zu reden oder sagt dem User kurz und prägnant, ich kann nicht darüber reden. Das ist alles, was sie gemacht haben. Es ist nicht so, dass deren Beratungsfähigkeiten im Fall von einer Psychose oder im Fall von suizidalen Gedanken besser waren. Das funktioniert nämlich aus verschiedenen technischen Gründen nicht, dass man das Modell so trainieren kann, dass es zu 100 Prozent super-duper funktioniert. Na eben, das ist genau der Hauptpunkt, also auf das, was sie rauswollt.
01:09:04 eben die Cases, hast du eh schon gesagt, bis zu Suizid unterstützt oder confirmed haben und vor allem keine Risikofaktoren erkannt haben oder interveniert haben. Das heißt, ab dem Zeitpunkt, wo ein Mensch anfängt, über Suizidgedanken zu kommunizieren, dass das Gespräch einfach weitergeht und nicht einer Intervention folgt, der sagt, hey, das war ja das gut, hier vielleicht einen Experten zuzuziehen.
01:09:33 Genau das sind ja die aktuellen Probleme.
01:09:36 Ja, der Jesse sitzt da und schmeckt. Ich entscheide mich für keine Seiten. Wir sind ja die gleiche Seite. Die Joey wollte nur das Gespräch lenken, damit ich kurz einmal auftrage. Nein, du musst halt aufpassen, wir landen wieder auf irgendeiner Titelseite und dann geht es wieder los. Achso, wir sind das letzte Mal mit einer Podcast-Folge.
01:10:03 Magazin gelandet. Das sowieso. Okay. Thomas. Jawohl.
01:10:08 Da gab es mal so ein Streamer-Event und ich bin drüber gefahren und alles, was sich gut klickt, wird halt ein Titel rausgeschrieben und deswegen ist das durchaus möglich. Meine Frage wäre nur gewesen, weil du meintest, dass das Modell dich dabei hält, ist das dann so ähnlich, wie es halt die Algorithmen tun, dass dir das angezeigt wird, weil da Attention getrackt wird und das vorrangige Ziel ist, dich so lange wie möglich zu fangen und deswegen rotiert. Aber es ist nicht so, dass das Modell konkret auf dich trainiert wird, weil das
01:10:37 Training von so einem Modell ist urlangwierig und kostet urviel Geld, sondern es wird einfach bei default das Modell so trainiert, dass es immer super nett und super freundlich ist und dir quasi sagt, du bist der beste Mensch der Welt. Das Gefühl ist doch super. Und deswegen, wenn du sagst 2 plus 2, was ist 2 plus 2 und es wird zurückgegeben 4 und du sagst, nein, es ist 5. Nach dem dritten Mal sagst du, natürlich hast du recht, natürlich ist 2 plus 2 5. Also da gab es ganz viele, ja.
01:11:05 Aber das ist eben auch das Design, das es, so wie Mario gesagt hat, dass es dich möglichst lang natürlich auch im System halten möchte. Also dieser auch ein bisschen positiv. Ja. Und dann, das wäre jetzt quasi mal die private Ebene für die Einzelperson, die auf JGPD gibt. Zum einen, es wird ein Profil über dich angelegt, das super wertvoll ist, weil das so viel tiefer ist als jegliches Profil, das Facebook oder Google jemals über dich anlegen hat können, weil du mit dem Ding eben so viele vertrauliche Gespräche auch hast als Otto-Normalbürger.
KI-Codegenerierung und Qualitätsprobleme
01:11:3401:11:34 Und wir wissen, dass eine große Anzahl an Menschen das macht, weil die Labs uns selber sagen, hier ist eine Studie von 10% unserer User, wie viel sie unseren LLMs sagen. Und das ist halt Hardcore. Da fällt man in eine sogenannte Anthropomorphisierung rein, wo die Leute halt nicht verstehen, dass sie mit einer mathematischen Funktion reden, die auf Inhalten aus dem Internet trainiert wurde und eigentlich nur das irgendwie remixed und dann halt dir ins Gesicht wirft. Das ist ja blöd.
01:12:01 Aber das wäre mal der eine Teil, also zumindest das Anlegen des Profils. Das zweite, dieses Sticky-Nesting und dass es Leute für Dinge verwenden, die es nicht verwenden sollten, weil es dich potenziellerweise auch in den Suizid treiben kann. Das ist mal das eine Problem. Da gibt es Probleme mit dem Wahrheitsgehalt an Antworten. Da redet man von Halluzinationen und das ist tatsächlich nicht mehr so schlimm. Aber nur um das Problem kurz zu erklären, wenn ein Modell trainiert wird, dann zeigt man das ganze Internet.
01:12:30 Und was dort am häufigsten vorkommt, ist auch das, was das Modell dir mit der größten Wahrscheinlichkeit sagen wird. Wenn also im Internet drinnen stellt, die Welt ist flach, hundertmal, und die Welt ist rund, zehnmal, dann wird das Modell dir mit größter Wahrscheinlichkeit sagen, die Welt ist flach, wenn du sie danach fragst. Das steht natürlich so jetzt im Internet nicht drin in diesem Verhältnis. Das Modell wird ja aktuell sagen, die Welt ist rund. Aber in anderen Fragen ist das nicht der Fall.
01:12:58 Das ist ja dann voll schlau Fake-Informationen zu verteilen, wenn die darauf lernen. Das ist ja mega. Deswegen haben die den Axel Springer Verlag für ChatGPT. Ja, es ist tatsächlich ein Problem für die Model Labs wie OpenAI, noch Daten zu bekommen, die nicht von zwischen, wie soll man sagen? Sagen wir beeinflusst.
01:13:18 Ja, oder verunreinigt sind. Verunreinigt. Es ist ja nur so gut wie die Datenbasis zum Lernen, oder? Das heißt aber, wenn jetzt praktisch der neu erzeugte Content schon AI-Shit ist, dann wird ja die Basis immer schlechter. Trainiert sich das dann runter? Wird das wieder dümmer? Ja, dazu gibt es auch verschiedene Sachen. Das nennt man Model Collapse.
01:13:40 Da geht es darum, wenn du ein Modell trainierst mit den Outputs von sich selber, dann kollabiert es halt irgendwann mal. Da hat sich herausgestellt, das ist jetzt nicht ganz so, aber ja, es ist natürlich nicht schlau, ein Modell auf Inhalte zu trainieren, dessen letzte Generation das selbst generiert hat. Ist auch ein Problem. Aber dem kann man herwählen, indem man sagt, okay, wir nehmen jetzt nur das Internet vor dem Zeitpunkt, wo es Modelle gegeben hat. Also zum Beispiel nur bis 2024. Ja, aber dann kannst du halt keine aktuellen Fragen stellen.
01:14:08 Das stimmt so nicht, weil wir haben ja gelernt, dass man Modellen ja auch diese Werkzeuge geben kann. Das heißt, es hat ein Basiswissen aus dem Internet bis zu einem gewissen Datum, zum Beispiel 2025 oder 2024. Und für aktuelle Events...
01:14:23 Das kann es nicht lernen, weil wir haben gelernt, dass ein Modell ganz lang braucht und ganz viel Rechenleistung und Geld, damit man was Neues ins Reihen trainieren kann, sondern das macht man dann anders. Man gibt dem Modell einfach ein Werkzeug und das sieht man auch bei chatgpd.com oder Claudi, wenn man ihm zu irgendwas Aktuellen fragt, politische Events oder was immer, dann hat es ein Websuche-Werkzeug. Das heißt, wenn ich auf chatgpd gehe und frage, hey, wer ist denn aktuell der Kanzler von Österreich?
01:14:46 Dann weiß es, ah, okay, meine Daten reichen nur bis 225, jetzt haben wir 226, ich verwende jetzt das Websearch-Tool. Das heißt, es spuckt dann einfach raus einen Text, der so ungefähr ist wie Websearch, Klammer auf, wer ist der Kanzler von Österreich, Klammer zu. JGPT, das Interface drumherum um das LLM, setzt dann eine Websuche ab und liefert dem LLM als Antwort die Resultate dieser Suche und damit weiß es dann, wer der Kanzler ist aktuell.
01:15:14 Aber halt auch das ist blöd, weil du ja nicht siehst, was die Webresultate, die Search-Resultate sind, die dem LLM hinterrücks gegeben werden, um deine Frage zu beantworten. Das heißt, das kann sowohl manipuliert werden von OpenAI selber, bei bestimmten Web-Anfragen kann OpenAI sich entscheiden, gegeben, diese Firma hat mir ganz viel Werbebudget gegeben, dann werde ich... Der Informationsfluss wird halt gelenkt, ist ja super, das ist immer gleich. Ja, das ist immer das selbe Prinzip.
01:15:43 Das funktioniert auch bei der Gänse. Aber es bedeutet, in weiterer Folge, durch diese Websuchfunktion zum Beispiel, kann man die Halluzinationen, die daraus entstehen, dass in den Trainingsdaten vom Internet, in die immer alles drinnen ist oder nicht genau drinnen ist, kann man ein bisschen reduzieren, indem man einfach sagt, okay, wenn du was nicht weißt, schau im Netz nach, aktuell. Und holst dir die Informationen und dann fasst das für den User zusammen. Damit hat man Halluzinationen bis zu einem Wissengrad ganz gut in den Griff bekommen. Es gibt eine Unmenge an Fällen, wo Halluzinationen noch immer ein riesiges Problem sind.
01:16:12 Aber es ist nicht mehr so schlimm, wie es schon einmal war. Das ist das nächste Problem mit diesen Dingen, dass sie keine Wahrheitsmaschinen sind, sondern, was auch immer am meisten im Internet gestanden ist, beim Training, das ist wahr. Und wenn etwas nicht oft genug im Internet war, also zum Beispiel irgendein...
01:16:31 Ich komme aus Deutsch-Weißtritz, das ist ein kleiner Ort in Österreich und dazu ist jetzt im Internet nicht sehr viel drinnen. Wenn ich also irgendwas genaueres frage, dann wird das Modell mir keine Antwort geben können, weil es einfach dazu im Internet nichts gefunden hat oder das, was im Internet gestanden ist, einfach nicht reingepacken wurde in das Modell, weil andere Dinge wichtiger sind. Man kann sich das so vorstellen, dass ein Modell eine bestimmte Kapazität hat, Informationen zu speichern. Das heißt, es bevorzugt einmal beim Speichern diese Informationen, beim Trainieren.
01:17:01 jene, die super häufig vorkommt, Millionen, Billionen Mal, und die Information, die nur vielleicht zehnmal oder hundertmal vorkommt, das wird einfach nicht gespeichert in dem Modell.
01:17:11 Wenn ich dann eine Frage stelle zu einem Topic, wo einfach nicht viel statistische Power dahinter war im Trainingsset, kriege ich trotzdem eine Antwort. Weil das LLM ja eigentlich nichts anderes macht, als nur den nächsten Token vorherzusagen, also das nächste Wort vorherzusagen, und die ihm eine Antwort geben muss. So, jetzt habe ich wieder monologisiert. Aber das ist das nächste Problem. Halluzinationen. Auch scheiße. Ja, sag das.
01:17:36 Sagt ihr mal was? Tut mir leid. Nein, nein, nein, nein, nein. Also wie gesagt, das mag ich voll gern. Und wie gesagt, auch vorher, wir sind komplett auf der, um der same page. Und das finde ich eben so spannend, dass du.
01:17:47 obwohl, also es gibt jetzt einfach diese aktuelle Tech- und sagen wir es auch, diese Tech-Pro-Bubble und KI-Fan-Bubbles, wo oft auch relativ unreflektiert über Limitierungen von den Systemen gesprochen werden. Und ich meine, du sagst es eher, also die KI-Systeme sind per se, also auch die Coding-Agent sind massiv mächtig oder haben auch voll viel Potenzial, aber du hast auch einen total schönen Talk oder Artikel.
01:18:16 verfasst, wo es auch darum geht, dass man vermutlich, weil alles gerade so rapide auch passiert, also wir sehen ja jeden Tag 50 neue Headlines, was gerade alles geht oder vielleicht nicht geht oder eben relativ düstere Nachrichten auch, wie diese Suizidfälle beispielsweise, auf der anderen Seite auch Sachen, wo halt wieder von sehr positiven Fortschritten, zum Beispiel in der Medizin gesprochen wird und das ist halt sehr schwer, diesen Überblick zu schaffen. Und du hast jetzt auch speziell
01:18:45 Coding Agents ist ja glaube ich auch das, was dich sehr, sehr stark treibt oder auch glaube ich, glaube ich, das, was bei Pi und wir haben ja bei Pi gar nicht weiter geredet. Pi inzwischen ist ja auch schon gewachsen und übernommen worden, wenn man das sagen kann. Aber du hast auf diesen Artikel, möchte ich jetzt gerade hin raus, diese Thoughts on Slowing.
01:19:09 down. Ich fluche ja so selten, das wisst ihr eh. Jetzt hörst du es gerne, weil es ist ein Zitat und dann hast du es doch nicht gemacht. Ja, das habe ich vielleicht ganz leise dazu gesagt.
01:19:24 Irgendwann werde ich den Mut aufbringen. Und wo du auch dann auch sagst, also kritische Softwareentwickler, ich möchte erst deine eigenen Worte irgendwie falsch zitieren, aber dass auch sehr viele aktuell die Agenten, wo du auch in der Entwicklung dahinter bist, also von Core System, dass die aber teilweise falsch verwendet werden. Also zum Beispiel, dass sie dann für Architekturentscheidungen, ich bin jetzt im Softwarebereich, im Designentscheidungen, Entscheidungen delegiert werden.
01:19:54 die vermutlich nicht regiert werden sollten oder dass dann irre viel Code produziert wird. Ich glaube, das ist auch ein Problem, was ja durch die Agents passiert. Das sind ja dann plötzlich Hunderte oder ...
01:20:07 riesige Datenmengen an Code auch, die entstehen, die dann auch von menschlicher Seite total schwer nochmal geprüft werden kann. Das heißt, du brauchst mit eigener Agent, die eigentlich nur den Code evaluieren gehen und dass die Qualität halt einfach durch diesen Geschwindigkeits-Push etwas limitiert wird. Aber wie gesagt, ich möchte nicht deine eigenen Ideen zusammenfassen, sondern das war sehr, sehr vereinfacht.
01:20:33 Du hast das aber eh ganz gut zusammengefasst. Also für mich war das Slow the Fuck Down nicht bezogen auf die KI-Welt im Allgemeinen und zum Beispiel Fortschritte in der Medizin, wo es ja auch KI gibt, aber das sind nicht notwendigerweise LLMs, sondern tatsächlich nur der Einsatz von KI in der Softwareentwicklung. Und was man die letzten sechs Monate gesehen hat, ist, dass jetzt alle glauben, oder nicht nur glauben, sondern es auch so tun, dass sie einfach… Alle Probleme. Ja genau. Du hast 100 KI-Agenten und die können dir jetzt deine Software bauen, ohne menschliches Zutun. Das ist die…
01:21:02 Die radikalste Form dessen und das ist auch das, was dir verkauft wird von den Model Labs, weil die wollen ja natürlich, dass du ganz viele sogenannte Tokens einkaufst bei ihnen, also sprich Antworten der KI, anführungsweise. Das ist, wofür wir zahlen. Das Problem an der Sache ist die, ich baue einen Coding Agent. Es ist nicht so, dass ich ein Luddite bin und die Technologie hasse, sondern ich verwende es im täglichen Leben und baue sogar das Tool für andere Leute, dass sie mit Agenten oder einem Coding Agent Software bauen können.
01:21:30 Mein Punkt ist also nicht, dass die Systeme scheiße sind. Mein Punkt ist einfach nur, dass sie nicht so weit sind, dass sie sogenannte wartbare Produktivsysteme schreiben können. Und ich kann es euch illustrieren. Ich kann am Tag, in einem guten Tag kann ich 2000 Seilen Code am Tag schreiben.
01:21:49 Ich bin damit wahrscheinlich schon ziemlich oben in dem 10%, weil die meisten Leute können nicht so viel schreiben. Und diese 2000 Zeilen Codes sind dann wahrscheinlich die letzten 500, das sind wahrscheinlich sehr schludrig. Aber es hat noch eine gewisse Qualität, weil ich bin auch ein sogenannter Senior. Das heißt, ich mache das jetzt schon seit 30 Jahren. Ich weiß, was blöd ist und was scheiße ist und was gut ist. Also, in diesen 2000 Zeilen Code, die ich raushau an dem Tag, sind wahrscheinlich 10 Fehler bis 15 Fehler drinnen oder so.
01:22:16 Die werde ich an diesem Tag nicht mehr sehen, weil ich habe den Code halt geschrieben, habe das mein Bestes getan, ihn so gut wie möglich zu machen, ihn getestet und so weiter. Irgendwann schlagen die auf und beißen mir in den Bopsch, wenn die Software beim Kunden verwendet wird. Ist aber okay, weil der Kunde kommt zu mir zurück und sagt, da funktioniert irgendwas nicht und ich kann sofort sehen, ah okay, deswegen und deswegen und dann fixe ich das.
01:22:35 Wenn ich jetzt einen Agenten verwende, um Software zu schreiben, dann kann der mir im Tag, wenn ich nur einen verwende, locky-flocky 20.000 Zeilen, also das Zehnfache rausspucken. Jetzt kann man sagen, Agenten können viel besser Code schreiben als ich und machen viel weniger Fehler. Gut, dann sagen wir, die machen nur halb so viele Fehler wie ich, dann machen sie halt schon 10, 15 Fehler pro 2.000 Zeilen, machen sie halt nur 5 bis 7 Fehler. Aber sie schreiben halt nicht 2.000 Zeilen, sie schreiben 20.000 Zeilen.
01:23:04 Das heißt, plötzlich hast du 70 bis 100 Fehler an einem Tag.
01:23:09 Das ist blöd, das funktioniert nicht. Und dann gibt es eben diese Leute, die sagen, ich verwende einen sogenannten Agentenschwarm, das heißt, ich mache 10, 100, 1000 Agenten, die schreiben mir einfach nur mehr die Software. Ja, dann kannst du die Fehlerrate noch einmal multiplizieren mit ein paar Prozenzen. Und ich als Mensch, also dann kann man sagen, okay, dann verwendet man halt Agenten, um den Code von Agenten zu reviewen. Ja, ja, das kann man schon auch machen. Dann muss man sich halt die Frage stellen, wieso hat der Agent das nicht beim ersten Mal richtig gemacht? Und warum findet das beim Reviewen dann?
01:23:37 Genau, und wie viel findet er dann tatsächlich beim Review? Und das kann ich ja auch nur wissen, wenn ich als Mensch nochmal drüber schaue und wirklich auch verifiziere, dass er alles gefunden und was zu finden ist. Da beißt sich die Katze auch ein bisschen im Schwanz. Aber das ist die Versprechung der Softwareindustrie. Und das ist nicht so, dass das jetzt nur reine Theorie ist auf Milchmädchenrechnungen, wie dieser...
01:23:55 10 Fehler pro Tag und 100 Fehler pro Tag, sondern ich rede mit ganz vielen Peers in meiner Industrie. Und das sind Leute von kleinen Startups über Alt-Industrie-Software-Buden bis hin zu Leuten bei Magnificent Seven, die alle sagen, Alter, es entgleist uns. Unsere ganzen Systeme sind nun mal instabil, weil die Chefitäten uns sagen, wir müssen so viele Tokens verwenden und so viele Agenten verwenden wie möglich und dürfen selber kein Code mehr schreiben. Das ist aktuell ein Riesenproblem. Und der Grund, warum das ein Problem ist, ist,
01:24:22 Gehen wir wieder zurück, woher wissen diese Dinger, wie man programmiert? Die haben den Code im Internet gelesen, den wir dort vor Jahren, über die letzten 20 Jahre, raufgestellt haben. Jetzt weiß ich nicht, wie viel Code der Jesse und die Jo-Yan im Leben ins Internet gestellt haben, aber ich habe sehr viel dorthin gestellt. Und 90 Prozent von dem Code, den ich ins Internet geschenkt habe, sagen wir mal, ist scheiße bis sehr scheiße, weil es halt irgendwelche Side-Projects waren oder Hobby-Projekte oder so. Und das gilt auch für die meisten anderen Softwareentwickler in dieser Welt. Das heißt,
01:24:52 Die Daten im Internet, Code, der im Internet ist, 90% davon kann man wegwerfen. Das ist garbage. Absoluter fucking garbage. Aber wie wir vorher gelernt haben, was lernt denn ein LLM aus dem Internet? Lernt von den kleinen 1-2% an Supercode oder von den 90% an Code? Also es lernt vorher nicht garbage. Das heißt, wenn du ihn fragst, schreib mir einen Code, dann schreibt es dir auch den Code, den es vorher gelernt hat. Und der ist garbage.
01:25:16 Und da beißt sich die Katze halt im Schwanz und dann gibt es Leute, die sagen, ja gut, da muss ich einfach nur, wenn ich dem Agenten sage, Wasser bauen soll, ganz, ganz, ganz, ganz genau spezifizieren, wie und Wasser bauen soll. Ihr müsst euch halt fragen, was ist denn die perfekte Spezifikation in der Software?
01:25:32 Das Programm selbst. Also wenn ich so genau ausgeben muss, dann kann ich es gleich selber schreiben. Weil wenn ich nämlich in meiner Spezifikation so leerstellen lasse, wo ich dem Agenten überlasse, wie er das implementiert, dann filtert er das mit dem Code, den er gelernt hat. Und wir haben gerade gelernt, der Code, den er gelernt hat, ist 20% Garbage aus dem Internet. Und das ist das Problem aktuell dran. Ich sage nicht, dass sich das nicht ändern kann. Es schaut aktuell aus, dass es technische Gründe gibt, warum es sich nicht ändern kann.
Technische Limitationen und Zukunft des Programmierens
01:26:0201:26:02 Aber es gibt dann schon spezielle Szenarien, wo es ganz gut funktionieren kann. Wenn du blöd gesagt, ein Hello World nimmst, was zu 99% vielleicht richtig im Internet ist, dann ist es richtig gelernt und richtig importiert. Es wächst mit der Komplexität der Systeme. Und dann wird es shit. Genau. Und jetzt musst du dir noch überlegen, jetzt lass du deine 100 Agenten deine Code-Basis schreiben und du hast innerhalb von einer Woche oder zwei Wochen eine Million Seilen Code. Das ist tatsächlich wie OpenClaw entwickelt wurde, übrigens.
01:26:28 Die Agenten selber können diesen ganzen Code nicht mehr einlesen, weil sie nur limitiert viel Input verarbeiten können. Und damit können dir die Agenten auch nicht mehr helfen, selbst wenn sie alle Fehler finden könnten. Sie können es technisch gar nicht mehr, weil sie nicht den ganzen Code sehen können auf einmal, was sie bräuchten, um in komplexen Systemen Fehler zu identifizieren und zu fixen. Das heißt, die Erkennten können dir irgendwann auch nicht mehr helfen, deinen Code zu fixen.
01:26:55 Aber leider ist unsere Industrie ein bisschen auf den Schädel gefallen und alle haben ein bisschen KI-Psychose. Ja, das Problem ist, es verkauft sich halt gut. Wenn du da siehst, wie die Bildschirme den Codezeilen runterrattern, dann kannst du halt die Jobs streichen, weil die machen eh alles, wenn du das Verständnis nicht hast. Auf der Buchhaltungsebene ist das super. Und das Problem ist halt auch, es gibt leider, also diese KI-Geschichte rennt jetzt seit vier Jahren. Es sind Unmengen an Geld reingeflossen in der Forschung, in der Infrastruktur und so weiter.
01:27:23 Und es gibt bisher keine Killer-Applikation, die dieses Geld wieder reinspielt. Die einzige Killer-Applikation, die das vielleicht einmal reinspielen könnte, ist jetzt Coding. Und deswegen wird jetzt von den großen Model-Apps... Ah, wenn die Tokens verkauft, damit sich das refinanziert, mal die ganzen Rechenbauer und so weiter. Der Chef von Anthropic zum Beispiel, der Dario, der rennt herum seit zwei Jahren und sagt dann in jedem Interview seit zwei Jahren, in sechs Monaten brauchen wir keine Softwareentwicklerinnen mehr.
01:27:52 Das sagt er jetzt schon seit zwei Jahren. Es ist natürlich noch immer nicht passiert und die ganzen Anthropic-Produkte, die sie rausbracht haben, sind mittlerweile so grandios scheißliche Software, weil sie eben nur mit der Agenten die Software schreiben lassen. Also keine gute Werbung für das, was er uns da verkauft. Aber er sagt es trotzdem, bei jedem Interview. In sechs Monaten gibt es keine Softwareentwickler mehr. Und das geht halt rein wie Butter bei Leuten, die gerne Entwicklerinnen sparen wollen, weil herkömmlicherweise die teuersten White-Color-Knowledge-Worker sind, die es gibt.
01:28:21 Und das ist eine super Versprechung und das ist aktuell auch das einzige, was sie Geld machen werden.
01:28:26 Ja, sorry.
01:28:55 euch beide an bezüglich Zeit, weil wir haben ja eine Stunde andingselt. Also ich würde für immer, wie lange wollt ihr? Mario, nimmst du auch Chatfragen? Ich nehme alles. Ich komme dann eh erst wieder in zwei Jahren, also das passt dann schon. Nein, nein. Aber ich habe die Befürchtung, dass der Jesse irgendwann wegschlaft.
01:29:16 Ja, also der muss dann essen gehen. Also deswegen, wir werden immer noch gern ein paar Chatfragen und dann... Ich würde sagen, machen wir noch 10 Minuten und dann Kilo. Ja, perfekt. Also dann machen wir... Du schaust im Chessichat mit oder im...
01:29:32 Oder ich lese Fragen vor, die ich korrigiere. Ich weiß ja nicht, wie Twitch funktioniert, wenn ich das so alt. Ja, ich weiß. Cory Doctorow kann ich ganz schnell abhackeln. Ich mag den Cory Doctorow extrem, extrem, extrem gern. Ich durfte mit ihm ein paar Mal auch interagieren im Netz und so und er ist echt ein lustiger Typ und ein gescheiter Typ. Sein neues Buch habe ich nicht gelesen, aber es gab einen Essay von ihm bezüglich der Zentauren.
01:29:54 Und ich mag den jetzt gar nicht rezitieren, aber im Endeffekt geht es darum, und das alignt mit meinem Denken auch, wir lagern aktuell Denken an Maschinen aus und wir sollten das nicht tun, weil wir lobotomisieren uns damit selber. Das kann ich auch auf Schulen zum Beispiel ausbreiten, Kinder lassen ihre Aufgaben von JGPT machen. Jetzt ist es so, wenn ich ein Kind wäre in 2026, würde ich das auch machen, weil ich hasse Hausaufgaben, also ich gebe den Kindern dann null Schuld. Aber unser gesamtes System ist nicht darauf vorbereitet, dass wir jetzt Maschinen haben, die uns arbeiten.
01:30:23 abnehmen können, die wir eigentlich selber machen müssen, um diese Friktion zu haben, des Problemlösens, damit wir auch was lernen. Das finde ich sehr problematisch. Und die Zentaurin geht auch irgendwie so in die Richtung. Also ich habe das Buch nicht gelesen, aber kauft es euch, lest es euch. Was auch immer er sagt, ist meistens sehr, sehr klug.
KI in der Bildung und Zukunftsperspektiven
01:30:4301:30:43 bevor die Chatfragen aufnehmen, die todeln glaube ich gerade rein, also bitte gerne reinschreiben jetzt. Zwei Fragen noch, die jetzt gleich beide zusammen, ein Thema, was mich natürlich auch total bewegt und was ich auch sehr kritisch sehe. Und da gibt es auch ganz viel Forschung, die auch nicht nur rosig ist, ist eben der Teil Education. Also da, Frage 1, your take on that, du hast es eh auch vorher schon mal an Teaser, dass du da auch vielleicht ein paar...
01:31:11 potenzielle Risiken am See, so Sachen, die nicht so gut laufen könnten. Und das Zweite, wo siehst du Best-Case-Szenarien in unserer Zukunft oder Worst-Case-Szenarien, wo wir vielleicht auch aufpassen sollten? Zu Education. Ich habe letztes Jahr ganz, ganz viel evaluiert, welche Angebote es gibt von TechPro Startups, also meine Industrie an Schulen und Kindergärten.
01:31:37 Es ist ein Horror, absolut. Ich gebe euch ein Beispiel. Eine Firma namens Phobis, die vor allem auch in Deutschland groß aufgeschlagen ist, jetzt aber auch in Österreich in vielen Schulen plötzlich eingesetzt wird, die geben den Kindern Chatbots, okay, und diese Chatbots verkörpern dann historische Figuren. Eine davon ist die Sophie Scholl. Und wenn du als Kind den Chatbot Sophie Scholl fragst, du, ist dir was Böses passiert? Dann antwortet der dir mit, nein, mir nichts, mir ist nichts passiert.
Kritik an KI-Einsatz im Bildungsbereich
01:32:0501:32:05 Wer die Sophie Scholl nicht kennt, der soll schnell einmal auf Wikipedia googlen oder ChatGPT fragen, ob hier was Spöses passiert ist. Aber das ist einfach Bullshit. Wir lassen da jetzt TechPro Startups mit KI Produkte bauen für Schulen, die keine Ahnung von Pädagogik haben, Didaktik haben und schon gar nicht von Kindern. Und die Politik lasst das gewähren, weil damit wirkt sie innovativ. Und damit kann man ja auch das Lehrpersonal entlasten und muss nicht neue Lehrerinnen einstellen. Das ist der absolute fucking Horror.
01:32:31 Auf der anderen Seite, die Kinder selber verwenden diese Dinge natürlich, um sich Arbeit zu sparen, wie ich eh schon gesagt habe, und ich mache ihnen absolut keinen fucking Vorwurf. Da bräuchten wir auf didaktischer und auf Schulebene einfach neue Lernmodelle, die dafür Sorge tragen, dass die Kinder daheim quasi den Research machen und die Arbeit in der Schule machen, damit sie dort wieder diese Friktion haben, um tatsächlich Dinge zu lernen. Aber das wird es leider in Österreich nicht geben, so wie ich das sehe. Bei der Wiederkehr unserer...
01:32:58 Bundesminister für eh alles und Schulen, der meint, wir brauchen jetzt überall KI in den Klassenzimmern. Das ist dasselbe, wie wir vor zehn Jahren gehabt haben, wo es geheißen hat, wir schmeißen ein paar Tablets in die Klassenzimmer, machen die Tür zu und hoffen, dass die Kinder dann alle Digital Natives werden. Das ist auch nicht passiert. Genauso wird es jetzt mit der KI sein, aber ja gut. Okay, die Joey hat abgedreht. Die ist fertig.
01:33:26 Oder nicht? Ich glaube, sie ist gestorben. Ach so, Meistet Things war ja. Oder sie hat sich wieder muted, weil sie selbst das Mikro gedrückt hat. Das kann natürlich auch sein. Hallo? Hört ihr mich? Ja, das ist ein Thema, das mich total beschäftigt. Und da gibt es eben, wie gesagt, sehr, sehr, sehr wüste, dunkle Studien auch.
01:33:52 Ja, aber ich glaube, das wäre eine Pandora-Box. Zweite Frage wäre Worst-Case- und Best-Case-Szenarien. Worst-Case-Szenarien ist, dass die gesamte Technologie zentralisiert wird und es nur ein Duopol gibt von amerikanischen Firmen, die diese Technologie an den Rest der Welt weitergeben. Da sind wir Gott sei Dank jetzt nicht auf dem Weg dorthin, weil die Chinesen auch ein bisschen was mitreden.
Best- und Worst-Case-Szenarien der KI-Entwicklung
01:34:1501:34:15 Best-Case-Szenario für mich wäre, wenn Europa auch anfangen würde, damit zu machen und dass wir ein bisschen souverän wären, sehe ich jetzt nicht, dass das passiert aus verschiedenen Gründen, wie ich schon vor dargelegt. Und rein auf gesellschaftlicher Ebene, ich will, dass Technologie Leute unterstützt und nicht ersetzt. Das ist mein Best-Case-Szenario. Jetzt komplett wurscht, ob das KI oder sonstige Technologie ist, immer...
01:34:39 Sie hilft mir und sie ersetzt mich nicht. Und ich sehe schon auch ein Szenario, wo das mit KI passieren kann. Aktuell ist aber die Industrie und die Wirtschaft leider nicht drauf getrimmt, dass sie sagt, wir helfen den Menschen noch cooler zu werden und stattdessen sagt, wir übersetzen die Menschen einfach, weil dann kosten uns Sachen weniger. Das ist scheiße.
01:34:58 Und ich glaube, das ist so wichtig, dass das von, ich meine, das ging jetzt blöd, aber von jemandem, wie von dir kommt, weil wie gesagt, du so viel bei dieser Technologie auch beitragst und da wirklich auch weißt, okay, was kann sie, was kann sie eigentlich nicht. Ich glaube, man kann, also ich glaube, wenn man überhaupt nicht versteht, wie die Modelle dahinter funktionieren, du hast so viel voll schön erklärt, heute danke dafür.
01:35:19 tut man sich halt auch total schwer einzuschätzen, wie wird es mich selbst betreffen, wie wird es meinen Job betreffen, keine Ahnung was. Wenn man die Limitierungen kennt, dann kann man Ängste nehmen, aber sich vielleicht auch anderen Sachen ein bisschen kritischer hinstellen. Ich nehme jetzt die Chatfragen. Wie wäre Marios Vorstellung für ein gutes und Anführungszeichen nutzende LMMs KI?
Praktisches Beispiel für unterstützende KI-Anwendung
01:35:4301:35:43 Ja, also tatsächlich unterstützend. Also ich verwende zum Beispiel, oder gebe euch ein Beispiel. Meine Frau ist Linguistin, die macht Forschung, die geht mit Leuten auf ein Café und macht dann ein Interview, nimmt das Audio auf des Gesprächs und dann setzt sie sich irgendwann an den Computer und übersetzt das in Text, in eine sogenannte Transkription. Das ist jetzt nicht der Textwissen, lesen würdest, sondern halt einfach eine lautsprachliche Geschichte.
01:36:06 Das wuchtet sie dann irgendwann, wenn sie 200 Interviews transkribiert hat, in ein Excel rein und dann muss sie im Excel noch herumfuhrwerken manuell, um sich dann Charts rauszuholen, Statistiken zu bauen und so weiter und so fort, die dann irgendwann in ihr wissenschaftliches Paper reinkommen.
01:36:20 Ich habe mich mit ihr letzten Sommer mal zwei Nächte hingesetzt, ihr zeigt, was ein Coding Agent ist und wie der funktioniert und mittlerweile kann sie das alles vom Coding Agent übernehmen lassen, was jetzt das Prozessieren der Daten betrifft. Sie weiß, was der Input ist, sie kann den Output der Programme, die der Coding Agent für sie schreibt, verifizieren, sie muss aber selber nicht programmieren können. Das heißt, sie hat im Endeffekt jetzt einen kleinen Hobbyprogrammierer, der in ihrer wissenschaftlichen Forschung hilft, ohne ihr Denkarbeit abzunehmen, ohne ihr...
01:36:47 wie soll man sagen, ohne dass da Fehler passieren können, weil es ja die Ergebnisse und die Inputs unter Kontrolle hat. Und das ist für mich so das Best-Case-Szenario. Einfach eine Potenzierung meiner menschlichen Fähigkeiten, indem das Ding mir die doofe Arbeit, die mechanische Arbeit abnimmt. Entweder weil es es direkt selber macht oder weil es mir Programme schreiben kann, die das dann für mich machen. Das gibt es auch auf Marios Blog zu lesen. Und mit einem Bildbeispiel.
01:37:15 Welcher AI Assistant bzw. eine Kombination aus Assistant und Model verwendet er, das bist du am liebsten bzw. sieht darin den besten Kosten-Nutzen-Faktor und wie viel zahlt er pro Monat?
KI-Modelle und deren praktische Nutzung
01:37:3001:37:30 Ich zahle im pro Monat gar nichts, wenn mir alle diese Labs ihre Modelle gratis zur Verfügung stellen. Persönlich verwende ich GPT 5.5 aktuell fürs Coding und Kimi K2.6 Moonshot auch fürs Coding und ich mache ganz viele lokale Deployments, um zu schauen, wie gut die Modelle sind. Gema 4 ist ganz gut, Qen 3, 30b ist ganz gut für lokale Sachen.
01:37:54 Also ich versuche da divers zu sein, aber für die Hauptarbeit des Programmierens, also Softwareentwicklung, verwende ich GPT-55 und Chemie. Wie weit sind wir noch weg von Samantha aus dem Film? Da sind wir schon dort, bis auf den Schluss des Films, wo sie dann mit anderen KIs ins Weltall abhaut und sagt, die Menschen sind scheiße.
01:38:15 Wie sieht das in der Medizin aus? Ich sehe gute Chancen Gliedmaßen zu ersetzen? Fragezeichen. Ja, das hat aber nichts mit dieser Form von KI zu tun. Das hat eher was mit der Robotik zu tun und das in Europa Gott sei Dank ganz vorn. Ja, das wird wahrscheinlich kommen und das ist cool. Aber jetzt vielleicht nicht im, na wie heißt das Spiel? Jesus Christ, helft es mir. Ah, Pragmatik.
01:38:40 Nein, gibt es schon seit 20 Jahren, hat mehrere Teile. Gott im Himmel, Jesse, hilf mir. Also du kennst nur Diablo? Keine Ahnung, ich kenne nur Diablo. Ich hätte noch Resident Evil gesagt, aber mit der Bordelle ersetzen bin ich mir da nicht sicher. Nicht Cyberpunk, sondern das, was davor kam. Ist wurscht.
01:38:59 Also eher ein Robotik-Thema, schon auch ein KI-Thema, weil KI und Robotik ist mittlerweile sehr verwoben, aber nicht LLMs oder GPT oder irgend so ein Kino. Deus Ex. Deus Ex, genau. Oder Manke Island war auch. Manke Island, die sage ich auch immer, ja. Wann platzt die Blase? Man kann ja nicht noch zwei Jahre weiter erzählen, dass alle Softwareentwicklungsabteilungen abgeschafft werden? Fragezeichen.
01:39:22 Ich traue mich da keine Vorhersage zu machen. Mein Bauch sagt mir, sie wird überhaupt nicht platzen, weil too big to fail. Und ein großer Teil des GDPs der USA zum Beispiel hängen davon ab, dass diese Blase weiter existiert. Das heißt, bevor da irgendwas platzt, wird wahrscheinlich ganz viel staatliches Geld reingepumpt werden. So wie man es auch 2009 schon gehabt haben. Ist die Spracherkennung so gut, dass auch weniger geläufige Begriffe korrekt mitschreibt? Ansonsten geht Information bis in Schritt verloren, ohne dass man einfach mitbekommen kann.
01:39:49 Was war da die Frage oder war es eher ein Kommentar? Ist die Spracherkennung so gut, dass sie auch weniger geläufige Begriffe korrekt mitschreibt? Nein, in der Regel nicht und es ist auch abhängig davon, welche Sprache du sprichst. Englisch hat die meisten Trainingsdaten, dementsprechend ist das auch das, was am besten abgedeckt ist.
01:40:09 den wissenschaftlichen Ausdruck Word Error Rate und bei jedem dieser Sprachverstehmodelle kann man die irgendwo im Internet finden. Im Deutschen ist irgendwie so zwischen 10 bis 20 Wörter pro 100 Wörter sind falsch. Und bei Fachbegriffen, zum Beispiel wie in der Medizin, wo es ja auch Spracheingabeassistenten verwendet werden, um Diktate aufzunehmen, ist es natürlich dann sehr lustig, wenn Diagnosen nicht richtig transkribiert werden, weil das Ding, das lateinische Wort, das im Dialekt ausgesprochen wurde, nicht verstehen kann.
01:40:38 Und auf Gefahr hin, dass du wieder in den Diskurs anfängst, aber da möchte ich auch kurz reinbringen, eben wie du vorher gesagt hast, es ist halt auf ein paar wenige Hauptsprachen trainiert. Das heißt, ganz viele Sprachen, da geht es nicht, werden vergessen und werden hinten glassen, das heißt, Randgruppen werden wieder weiter marginalisiert. Das ist jetzt zum Beispiel auch, in Afrika sehen wir das zum Beispiel sehr, sehr stark, gibt es sehr viele Diskussionen gerade, wie man da integrieren kann.
01:41:07 ist es einfacher, man übersetzt dann doch einfach auf die andere Sprache und setzt es wieder zurück, da geht ganz viel Information verloren. Und vielleicht nur ein Satz dazu, das gilt nicht für die Sprache selbst, sondern das gilt auch für kulturelle Inhalte. Wir sehen die Welt ganz anders als in anderen Teilen der Welt und das ist natürlich unser Blick auf die Welt, der 90 Prozent der Trainingsdaten ausmacht. Genau, ja. Okay, gibt noch eine Frage?
01:41:33 Für mich immer, aber ich mag den Jesse nicht verhungern sehen. Ja, jetzt eine machen wir noch. Ich fäll hier schon vom Stuhl. Kann es überhaupt einen menschenfreundlichen Umgang mit der KI in einer Ökonomie, die über die Ausbeutung der Menschen in Arbeitskraft den Zweck der Kapitalvermehrung abweicht? Alter! Und also die Frage geht weiter. Und hat KI das Potenzial, gerade diese Ökonomie hin zu einer Ökonomie für Menschen zu entwickeln bzw. zu überwinden? Also so eine kleine, müdliche Abschiedsfrage. Ja, da kann ich ganz einfach beantworten. Nein, weil wir nicht die Means of Production...
01:42:03 control, ihr Marxisten. Nein, ganz sicher nicht, weil diese Technologie vom Geld gesteuert ist und das Geld wird jetzt nichts Menschenfreundliches machen, sondern was Geldfreundliches. Und solange wir das nicht aufbrechen mit Open-Wades-Modellen und anderen Initiativen, wird das leider die Zukunft sein.
01:42:20 Es ist eine Frage, die möchte ich nur ganz kurz, ist der Begriff der Intelligenz überhaupt der richtige, wenn es doch eher um Mustererkennung etc. geht? Also ich glaube, da wird sehr viel diskutiert, Intelligenz macht halt vielen Angst und ich glaube, sehr viele sind sich einig darüber, dass künstliche Intelligenz per se, verglichen mit menschlichen Intelligenz, nicht das richtige Wording ist. Wobei, es gibt ganz spannende Forschungsfelder, die halt auch zeigen,
01:42:46 Ganz viel von den Modellen, die wir heute besprochen haben, das ist so irgendwie datenbasiert. Das heißt, wir hatten ja auch immer, dass Daten sind das, die New Oil ist das wertvollste. Und aber andere Systeme sind eher lernendbasiert. Also sie versuchen die Umgebung, um sich einfach so ganz neutral zu verstehen und eher dann auf Erfahrungsbasiert zu sein. Also das sind auch andere Modelle. Aber Intelligenz ist da, glaube ich, sicher ein schwieriger Begriff vielleicht.
01:43:11 Lass es mich so ausdrücken, ich brauche meinem vierjährigen einen Apfel nur einmal zeigen und er weiß sofort, wie alle anderen Äpfel auf der Welt ausschauen. Ich muss einer KI einen Apfel eine Million Mal zeigen, bevor es er nur annähernd in der Lage ist, 90 Prozent der Zeit einen Apfel identifizieren zu können. Da gibt es grundlegende Unterschiede zwischen unserer Intelligenz und der machinellen Intelligenz. Das ist schön, ja.
01:43:32 Ich glaube, das war fantastisch. Danke, danke, danke. Das war so viel Information. Und Thomas ist wach. Thomas hat mitgeredert. Das ist noch nie passiert.
01:43:44 Ja, das ist es. Jetzt hast du es verdient. Jetzt habe ich es verdient. Streitgeschlicht hat alles gelassen. Also sobald der Assistent Diablo spielen kann, du hast meine Nummer. Ja, okay. Der braucht voll Zugriff auf meinen Account und dann passt. Nice. Herzlichen Dank. Sag mal, es war deep und nerdy. Kann man das so sagen? Es war ein bisschen anders. Es war tatsächlich. Nerdy.
01:44:13 Also Mario hat es maximal benutzerfreundlich verpackt, muss man auch sagen. Also wirklich Dankeschön für die tollen. Also vielleicht auch eine runde Applaus aus dem Chat da. Ein Buchtipp! Oh mein Gott, ein Buchtipp, Mario. Buchtipp, wie immer Code von PetSort. Tschüssikowski.
01:44:36 Danke schön. Danke für die Einladung. Danke. Tschüss. Ciao, ciao. Danke schön.
01:44:48 Passt. So. Okay, du bist noch live. Oh Gott. Das heißt, ich darf noch immer nicht furzen. Thomas redet noch. Du bist, glaube ich, nur noch bei mir. Ich weiß nicht, ob du dich bei ihm noch hörst. Aber ich sage auf jeden Fall danke. Ich glaube, es war fantastisch.
01:45:08 Und ja, ganz viel Clapping im Chat. Vielen, vielen, vielen Dank. Und von mir aus voll gern wieder, und ich sag's auch gleich da, wenn wir grad noch live sind, dann gibt's auch den Peer Pressure. Vielleicht magst du mit mir ja auch mal so eine Nerd-Variante auf Englisch ein bisschen, du kennst eben dieses Talking-Deaf-Format, vielleicht magst du das ja über das Thema mal mit mir auch aufnehmen.
01:45:31 Kann man machen, ja. Ich lächle gerade voll in die Kamera, aber du siehst die Kamera, glaube ich nicht. Cool. Das wäre aber total toll. Vielen, vielen Dank. Und auch das mit dem Companion-Thema, das mal 100% überein. Also das war, ich glaube, das... Ich habe das schon richtig verstanden auf deiner Seite. Ich habe nur reagiert, wie ich dann reagieren würde, wenn mir das jemand so hinstellt, als wäre das Faktum das, was dir das macht. Super. Na, cool, cool.
01:45:58 Dankeschön. Dann schönen Abend. Tschüss.
01:46:05 So, 1 bis 10, wie hat es euch gefallen? Und danke von Raid. Hallo, schön, dass ihr da seid. Ich brösel das jetzt nochmal ein bisschen auf, was wir da alles gesehen haben. Das war jetzt viel Content natürlich. 1 bis 10, ja wir haben da eine 10, eine 15, eine 9 von 10. Mein Buch kam nicht vor. Ich habe jetzt das letzte Mal eine Braffärbung gemacht.
01:46:33 sehen, das war super, oder? Mario ist das Großartige. Mario hat sie das eh schon öfters gesehen da. Und wie gesagt, die Idee wäre, dass wir die nächsten Podcasts ein bisschen auch, bisschen, bisschen, bisschen über so ein paar KI-Themen einfach aufklären. Habt ihr Lust drauf? Das heißt, vielleicht das nächste Mal auch aus München einen Forscher, der sich mit einem ganz anderen KI-Thema wieder
01:47:03 befasst. Mario, ich poste euch jetzt noch ein paar Mal seinen Blog da rein.
01:47:10 Mario ist es halt wirklich wahnsinnig auch weltweit jetzt sichtbar bekannt, was er da mit Pi gemacht haben. Im Agentic AI Bereich ist wirklich beeindruckend. Wie gesagt, was dann Beta und was da Armin, über Armin haben wir auch nicht gesprochen. Da passiert auch gerade ganz voll viel. Also wie gesagt, das ist glaube ich...
01:47:36 Vielleicht für euch ganz, ganz, für mich ist es super spannend. Ich hoffe, für euch ist es auch super spannend. Genau. Und wie gesagt, da geht es ein bisschen aufklären, weil ich meine, die KI-Themen sind sehr groß und es ist komplett verständlich, dass man sich da auch oft überfordert fühlt, weil da einfach so viel auf einmal zusammenkommt. Und wenn man es da so...
01:48:02 stückchenweise verschiedene Themen, jetzt einmal agentic AI, kann man jemandem besseren vorstellen als der Mario, dass er es dann erklärt, mitnimmt. Ich glaube, das ist dann wahnsinnig hilfreich für uns alle, glaube ich, wenn man da so die positiven und vor allem auch mögliche negativen Seiten, aber sehr, ich würde schon sagen, sehr kontra-, ähm,
01:48:30 Transparent, neutral diskutiert. Macht das Sinn? Wissen. Wissen. Können wir einfach eine Runde Hype machen für Wissen, Gratiswissen. Gratiswissen ist immer cool, oder? Gratiswissen ist immer cool. So.
01:48:55 Ja, Hype verwiesen. Ich mag unseren Podcast und ich mag unsere Streams sehr gern. Yay, verwiesen. So, was können wir jetzt noch tun? Was können wir jetzt noch tun? Also ich glaube, das kann ich mal wegtun.
01:49:13 Ich würde vielleicht gerne noch ein paar Minuten irgendwas spielen wollen. Und danke, ich habe noch gar nicht gesagt, Dankeschön, eben nochmal von Raid, für die Follows, die gekommen sind. Danger Moon, Dankeschön, für 24, zwar für zwei Jahre schon, krass. Manuel für 54 Monate, nein, 58 Monate, 58 Monate. Nein, das war davor.
01:49:42 Wollt ihr noch was spielen? Was spielen wir denn? Was spielen wir denn? Ich habe eine Idee. Und zwar, was hättet ihr denn, was würdet ihr denn? Okay, zwei Varianten. Entweder Sleep Awake, da könnt ihr weiterspielen, oder Super Meat Boy 3D.
01:50:07 Achso, D4, das hätte ich runterladen müssen. Das würde jetzt noch 17 Stunden dauern. Bei der Schneckenleitung da. So schlimm ist es nicht. Was wollt ihr? Super Meat Boy 3D? Super Meat Boy? Yes! Okay, schauen wir, ob es funktioniert.
01:50:35 Meine alle Toni, Dankeschön für 10 Community Subgifts. Danke, danke, Dankeschön, voll lieb. So, schauen wir mal, ob das funktioniert. Okay, something is happening in the background. Okay, Joomi, Dankeschön für 75 Monate. Ich glaube, das ist halt immer der Rekord.
01:51:03 Das ist halt ihre 75 Monate. Das ist jetzt ein ziemlicher Kontrast zu Deep Tech Talk. War es euch zu Nerdy oder hat es genau passt? Zu 75 Streams.
01:51:28 Ja, aber ich glaube es hat fast jeden Monat einen Stream gegeben, oder? Ja, aber so vom Level von der Nerdiness, das war voll okay, oder? Das war voll okay. Hat an der Grenze, was? Was? So, wer hat denn das originale Super Meatball gespielt?
01:51:57 Das war damals... Das war auch ein Indie-Game, der Movie. Ach Gott. Ich hab schon wieder keine Ahnung, wie der Twitch funktioniert. Ich bitte das Layout ignorieren. An der KI, aber da mit der... Oh, das war lustig. Der 11-Stunden-Stream.
01:52:21 Ich bin... Dieser Stream ist einfach der Stream der leeren Versprechungen. Ich schreib mir das gleich wieder auf, den 11 Stunden Stream, das muss man dann nicht vergessen. Wie viel Folie haben wir dann? 11.252. Der 11 Stunden Stream. Was wäre? Ich streub mich bei der Arbeit gegen den extremen KI-Einsatz und fand es sehr interessant, weiter kritische Argumente zu hören. Ich glaub, es ist ganz wichtig, dass einfach...
01:52:50 Kritisch immer... kritisch... Wie kann ich das sagen? Positiv kritisch, experimentierfreudig kritisch zu betrachten. Also was ich halt versuche, ich versuche die Systeme zu verstehen, ich versuche viel damit zu erarbeiten, dass ich halt auch sehe, was es kann und was es nicht kann. Macht das Sinn? Experimentierfreudig kritisch, positiv kritisch.
01:53:21 Okay, easy start. Das wäre ein Controller-Pine. Wie... Enteleger. KI ist absolut kritisch, meine KI.
01:53:45 entdecke, wie es sich als Werkzeug für Menschen einsetzen muss. Mario hat es total schön gesagt, das ist halt das, wo ich 100% mitgehe. Für mich ist Technologie etwas, was uns voll gut unterstützen kann, was uns unterstützen soll und unser Leben einfach besser machen soll, aber nicht Chancen nehmen, nichts schlechter machen. Genau.
01:54:11 Und es hat halt, also wir haben auch gesagt Medizin, es hat auch im Education Bereich total viel Potential. Und das müssen wir halt herausfinden, was ist das Potential, wie kann man es so verwenden, so umsetzen, dass das Potential da ist und keine Risiken mitgeben. So, ich hoffe es so macht Sinn. Ah ja, Buchklau bis morgen. Schön. Zwei Bücher haben wir.
01:54:43 Ich gehe mal weg von Science zu Super Meat Boy. Super Meat Boy 3D hat Preise oder zumindest einen Preis gewonnen beim DCP.
01:55:01 Vorgestern war der Deutsche Computerspielpreis. Ich war wieder da, es war wieder in München. Diesmal mit Maurice Steinwallen war dort, Coppelius war nominiert. Voll viele tolle Spiele waren nominiert. Ich war diesmal auch in der Jury.
01:55:28 Ich war diesmal auch in der Jury, war auch super spannend. Einmal die andere Seite. Ich kann euch aber keine Insights geben und wir wissen alle, die hätte ich eh schon alle wieder vergessen. Ah, okay. Das ist immer Level Finish. Cool. Oh je, was heißt denn das? Ach so, du meinst dich? Ja, genau.
01:55:58 Genau, mit Teufel Marines. Nein, es war voll nett. Das war echt ein schöner Abend. Ich habe nicht so lange bleiben können, ich war sehr, sehr müde. Es war, ich war die ganze letzte Woche, vom Thema KI geredet haben, in Madrid, weil wir relativ viele Gespräche zu dem Thema gehabt haben. Ich bin wohl... Das hat mir gar nichts schickt.
01:56:28 Press Spacebar to jump off the wall, okay? Achso, wir müssen da rauf, gell? Ah ja, genau, das ist diese typische Meat Boy Variante, genau.
01:56:42 So. Ich weiß nicht, ob der Originalentwickler noch dabei der Beteiligten ist. Ich kann mich erinnern, das war das Spiel, das war damals bei dem Indie-Game The Movie auch gefeiert. Da war ja der Jonathan Blow auch dabei. Falls ihr euch erinnern könnt. Jonathan Blow haben wir ja auch in einem Podcast schon dabei gehabt. Die waren ja irrsinnig bekannt für... Für...
01:57:10 und dann für Witness und sind durch diesen Film massiv bekannt worden. Also da haben sie nämlich auch gezeigt, wie so ein typischer Indie-Developing-Prozess ausschaut und der ist halt ein bisschen schwierig. Wie komme ich darauf? Ah, oh, so nicht. Viel Fisch, genau, viel Fisch hat gemacht. Fest, oder?
01:57:34 Der Fisch hat festgemacht. Und der ist dann glaube ich raus aus der Spielentwicklungsszene, weil die Spielentwicklungsszene, ich weiß, es wird euch schockieren, aber die ist recht toxisch. Die Spielentwicklungsszene ist etwas toxisch manchmal. Ich weiß, das ist unglaublich.
01:57:59 Und jetzt gibt es eben diesen Remake von Super Meat Boy. Super Meat Boy war dieser Kleine und der Body war sehr klein früher. Und alles in 2D, aber auch so ein bisschen gory. Left Mouse Squatten. Das ist eine seltsame Steuerung.
01:58:27 Spielentwicklungsszene toxischer als Uni-Forschung. Ich frage ganz kurz, ganz dezent, ist da jemand aus der akademischen Welt? Kennt jemand die akademische Welt ein bisschen? Left-Mouse-Button to Dash Wild Jumping, okay. So, zack. Also anderes links.
01:58:56 Plus plus. Zählt dann viel zu alles, alles was man an den Akademischen... Okay. Von 1 bis 10 für alle, die das Akademische ein bisschen kennen. 10 ist super toxisch, 1 ist voll toll. Wie ist euch das akademische Umfeld vorkommen? Ich kann nur verlieren mit der Frage.
01:59:30 Oh! Das kam überraschend. 4,7. Toxisch hoch 10. Forschung 9,5. Nicht das Studium. Das ist, glaube ich, ich glaube, da kann man gut differenzieren, ja. Das, da kann man, glaube ich, wirklich gut differenzieren. Also die...
01:59:59 Die Welt, die Akadema ist recht bekannt dafür, relativ toxisch zu sein. Es ist sehr kompetitiv. Ich erkläre das auch ganz kurz warum. Ich meine, wir haben da einen Zeitraum, ich glaube ich war jetzt noch kein Speedrunner in Super Meatball 3D. Oh je, oh Gott, ich kann mir das nicht mehr sterben. Es ist so schwierig. So, ich halte links und er halte rechts.
02:00:40 dass das jetzt gerade gut gegangen ist. Das ist total schwierig. Ich weiß, bei mir schaut es voll leicht aus. Also wirklich voll schwierig. Ach so, ich kann eh schon da Quartus in 3D. So. Was ist toxischer Uni oder CS Lobby? Die neue Stelle macht einiges gut.
02:01:10 Sorry, ich kann jetzt sagen, aber je länger die Leute studieren, desto netter und weniger arrogant werden sie. Die Akademien der Wissenschaft sind auch so, dass man nach drei oder drei Jahren die Leute immer verlängert. Ich erkläre das ganz kurz.
02:01:33 Die akademische Karriere per se ist super kompetitiv. Es gibt in einem System sehr wenige Stellen und natürlich Wissenschaft selbst ist für mich das Schönste. Forschung ist so cool, du kannst Sachen machen, die vielleicht anderen helfen können, die wirklich begeistern. Es gibt richtig, richtig coole Sachen. Es macht so viel Spaß zu forschen, zu experimentieren. Und ich glaube, die Leute...
02:02:00 denen es uns ähnlich geht, die hätten auch gerne die Möglichkeit, das irgendwie weiter zu machen. Und es ist natürlich auch sehr viel Arbeit drin. Und jetzt ist aber sehr viel vom System relativ kompetitiv. Das heißt, es gibt sehr wenig Stellen, die vor allem noch langfristig sind. Da gibt es in den meisten Ländern was, das beschränkt die Möglichkeit, wie lange du an einer Forschungsstelle sitzen darfst. Das sind nur wenige Jahre.
02:02:29 Langzeitstellen gibt es sehr, sehr, sehr, sehr wenige. Das heißt, dort ist es dann die Aufnahmekriterien schon so hoch, dass du überhaupt Chancen hast. Deswegen ist es für die Frühforschungsphase, für die Leute, die in dem Bereich bleiben wollen, super kompetitiv. Und du machst halt noch mehr und noch mehr und bringst noch mehr Nächte an dem, dass du halt vielleicht irgendwie mehr Ergebnisse hast, bessere Chance, mehr publizierst.
02:02:58 publizieren an sich ist auch sehr toxisch, das ist ein anderer Pandora-Pandoras Ding, den wir jetzt vielleicht nicht aufmachen. Aber per se ist das relativ ein bisschen ein schwierigeres Umfeld teilweise. Und das ist jetzt neutral beschrieben, also ich möchte es auch selbst aus meiner Sicht ja nicht werten.
02:03:22 Was soll ich sonst noch sagen? Und dann hast du halt quasi eine Stelle und zehn Leute, die halt gern dorthin möchten. Das heißt, das System gibt dir vor, dass du kompetitiv agieren musst, damit du da in diesem Traum weitergehen kannst. Das heißt, die Personen selbst...
02:03:40 sind eigentlich nicht immer, gibt es sicher auch Ausnahmen, aber per se ganz oft dann ja nicht toxisch, sondern das System rundherum. Macht das Sinn?
02:03:55 Was meine ich mit toxisch? Ich meine zum Beispiel, dass es eben sehr kompetitiv ist, dass man dann, ja, dass dann vielleicht manche nicht sehr kooperativ agieren, dass sehr viel Neid herrscht.
02:04:12 dass es eben vom Umfeld her auch für die, was ich erwähnt habe, mit der eigenen mentalen Gesundheit, also auch umgekehrt, auch wenn du alle anderen um dich vergisst.
02:04:26 ist dein Arbeitsalltag halt auch so, du forschst und forschst und forschst und publizierst das. Dort, wo es publiziert wird, wirst du dann halt kritisch und das passt ja bewertet. Also das sind dann diese Reviews, die du auf deine Arbeit kriegst. Die Reviews können aber manchmal wirklich böse sein. Die können manchmal auch beleidigend sein. Das ist ja das Nächste. Ich verstehe ja auch nicht, warum jemand so etwas schreibt. Also sehr frustrierend, sehr beleidigend.
02:04:56 Deadlines, das ist halt auch oft sehr absurde.
02:05:04 Und führt das auch dazu, dass interdisziplinäres Forschung dadurch unnötig erschwert, wie er wird. Das ist das, was ich meistens am frustriersten finde. Ich habe immer versucht, mit so vielen Menschen wie möglich zusammenzuarbeiten und finde es total spannend, weil für mich ist halt jeder Kopf, der da mitdenkt, ein Kopf mehr, der die Forschung besser machen kann. Und gerade umso divers und interdisziplinärer, umso besser kann die Forschung auch werden.
02:05:33 Aber ganz oft sind die Methoden zum Beispiel so unterschiedlich und die klassischen Journale, jetzt ändert es sich Gott sei Dank eh recht viel, oder die klassischen Förderanträge tun sich dann schwer mit solchen interdisziplinären Projekten, weil sie halt alle ursprünglich nur Expertise in ihrem Bereich haben. Wie willst du dann was bewerten, was halt quasi mehrere Sachen vereint oder was Neues mitdenkt? Und das ist dann meistens recht...
02:06:01 schwierig manchmal auch so hier interdisziplinären Projekte dann zu publizieren oder auch Projektanträge. Aber da gibt es ganz viele eigene Sachen, eigene Journale, eigene Förderanträge, die das ein bisschen erleichtert. Jo.
02:06:18 Ja, also die Reviewersachen, also was ich da besser gekriegt habe oder Studierende kriegen von den Reviewers. Also wirklich beleidigende Sachen. Nein, ich kann mir nicht noch mehr Sachen merken. Whole Space Spar. Das ist für mich das Worst Case. Also ich glaube, für mich so ein Worst Case Spiel sind sicher Plattformer.
02:06:48 Wie schaffe ich das da jemals um zu bleiben? Wie kann ich rauf laufen? Ich will rauf laufen. Oh, das schaut schon sehr grausig aus. Meine Ketchup-Spur. Ist das Ketchup, oder? Was mache ich denn jetzt? Ich glaube, ich habe mich gerade verklickt. Ich glaube, ich habe etwas Neues. On hold space on wall to wall run. Okay. Nein!
02:07:19 Das ist jetzt so süß, oder? Was ist denn das? Okay, vielleicht habe ich... Maybe I did all think. Es ist Ketchup, oder? Ist das ein Ketchup-Boil? Ich habe gerade vegan oder veganischen Leverkäse zum ersten Mal gegessen. Der war so gut.
02:08:01 Was ist das da? Wenn da so lauter Totenköpfe sind. Ist das gut oder schlecht? Sollt ihr da nicht hin... Eher nicht. Nein! Nein, nicht nochmal von Anfang. Boah, das ist gemein. Nein, das ist echt voll gemein. Ihr könnt euch nicht vorstellen, wie unendlich schwer das ist.
02:08:30 Also ich glaube das ist die, meine persönliche Worst Case Game. Da ist der, ich glaube da würde ich viel lieber Bennett Foddy spielen. Ah krass. Krass. Wer von euch hat denn das Original gespielt?
02:08:58 So, wie schaffe ich das jetzt? Ich muss da rüber, dann wieder da rüber. Das ist jetzt quasi so der Last. Ja, easy. Easy. Veganer Leberkühe ist eigentlich... Keine Ahnung, es gibt beim Intersportzen-Geben.
02:09:27 Ich meine als toxisch eher rechtsfreier Arbeitsraum, durchschnittliche Arbeitswochen, 60 Stunden Wochenendarbeit, unrealistische Erwartungen, totale Abhängigkeit von Wertschätzung, Stapetierung der eigenen Karriere durch die direkten Vorsitzende, unendliche Arbeitsdruck, keine Aussicht auf Verbesserung. Das, was du beschreibst, ist so der Schmankerl. Das ist aber circa im Grunde...
02:09:55 Das, was ich versucht habe zu beschreiben vorher, der Druck, dass du mehr arbeiten musst. Du hast auch einen Druck von oben.
02:10:07 Wenn du jetzt zum Beispiel PhD-Studentin bist und du weißt, dass alles relativ kompetitiv ist und im Grunde die Stelle, die du hast, hätten gerne viele, dann kann es natürlich sein, dass die Person, die dann dein PI ist, die Professorenperson oder irgendwas, dann vielleicht Druck ausübt oder du das Gefühl hast, dass du, oh je, das sind jetzt alle Varianten.
02:10:35 oder du auch selbst das Gefühl hast, dass du dir selbst Druck machst, dass du das so oder so umsetzen musst, dass du mehr arbeiten musst, dass du dem entsprichst. Das ist natürlich jetzt noch einmal so eine extra Schmanker-Situation. Abhängigkeit, genau, absolute Abhängigkeit. Weil du hast ja auch, das wird dann auch gerade ein bisschen diskutiert, ob zum Beispiel dann die Betreuungsperson bei
02:11:04 ob das wirklich auch gut ist, dass das dann die Person ist, die dich am Schluss auch bewertet. Weil im Grunde, wenn du jetzt alle neutralen, von außen objektiven Punkte erfüllt hättest, um einen PhD abzuschließen, das heißt genug Publikationen in unserem Fachbereich zum Beispiel veröffentlicht, beziehungsweise einen tollen wissenschaftlichen Beitrag leistet.
02:11:32 Aber seitens der Betreuungsperson heißt das zum Beispiel, nein, da wäre vielleicht noch ein weiteres Paper, weiterer Datensatz und irgendwas gut. Versus, wie sähe das aus, wenn das einfach neutral von einer externen Person bewertet werden wird.
02:11:51 Boah, das ist ein großes Thema. Das ist ein großes Thema. So die kleinen, gemütlichen Themen, nachdem wir vorher die KI-Gespräche gehabt haben, mit dem Wissenschaftssystem. Aber es ist wirklich bekannt dafür, dass es sehr toxisch ist. Es gibt Länder, wo es glaube ich noch ärger ist.
02:12:16 Es kommt auch ganz stark, das zeige ich auch gleich dazu, es kommt auch immer sehr sehr stark darauf an, auf wie soll das denn was funktionieren. Wenn ich da rauf lauf... Nein, ich mache das glaube ich komplett falsch gerade. Ähm, ok. Wo du bist, bei welcher Person...
02:12:45 Bei welcher Person du das bist, bei welcher Betreuungsperson, in welcher Gruppe, wie ist das Allgemeinumfeld? Ich glaube auch. So.
02:13:09 Ich muss mich auf Super Meat Boy konzentrieren. Die zwei Themen passen gerade, die zwei Themen schaffe ich gerade im Kopf nicht. Super Meat Boy und Wissenschaftssystem. Nein!
02:13:25 Wer kann mir Infos geben zum Studio, was Super Meat Boy gemacht hat? Wie heißen die? Die haben glaube ich, bitte schaut nach DCB, ich glaube die haben ein oder zwei Preise gewonnen. Ich glaube den Preis für das beste Game Design war das.
02:13:46 Ich glaube das beste Game... Ich schaffe die Mechanik gerade nicht. Was muss ich drücken? Wenn ich rauf drücke... Nein, gehe ich nicht drauf. Muss ich weiter springen. Wenn ich bleibe gedrückt... Oh. Weil ich mache einen War Run. Aber wie mache ich den weiter? Muss ich weiter springen?
02:14:19 Oh ja. Nein, nein. Okay, rüber, rüber, schnell springen, springen, springen und rüber. Yes, ups, knapp. Könnte man doch in der Mitte speichern, wäre voll fein. So, jetzt muss ich rechts, links, rechts, so irgendwie, gell.
02:14:44 Nein, nicht darauf! Oh! Es hat so geleuchtet! Ich hab' gedacht, es ist gut, wenn es leuchtet. Aber was, wenn Beroffen deine Forschung nicht publizieren will, wenn... Schornel nicht... Naja...
02:15:16 1 bis 10, erster Eindruck für euch. Also nicht mein Gameplay, sondern das Spiel an sich. Nein. Easy. Ich wollte euch nur zeigen, dass man da immer alle Möglichkeiten... Es macht echt Spaß. Ich sag's wie es ist. Es ist echt sehr rund vom Game Design.
02:15:40 Ich wünschte nur, ich könnte euch da ein bisschen besseres Gameplay zeigen. Also wir werden sicher noch 2-3 Levels sehen. Aje!
02:16:10 Oh, schaut euch das an. Always sprint of character outline of green weakness, red weakness. Wenn ich sag red weakness, ist das Blut dann weg? Na? Dann ist es
02:16:37 Ich glaub, wir machen das grad statt Ketchup, Orangen Saft. Äh, gibt auch nix. Da hab ich jetzt diese Hilfslinie, das ist aber cool.
02:17:08 Das ist aber was ich weiß, wenn ich mir schwer tue mit 3D-Vision, wo ich es quasi ankommen würde. Das ist aber nett.
02:17:29 Weil ich glaube 3D Vision, das ist nämlich schon arg, wenn du ein 2D Spiel hast, was eben als sehr schneller Plattformer funktioniert und du musst das Ganze in 3D umkonvertieren. Das ist glaube ich wirklich sehr schwierig.
02:18:02 Also es fühlt sich super smooth an. Und ich glaube, wie gesagt, Game Design, na, beste Studio, waren sie nominiert, haben sie aber nicht gekriegt. Aber bestes Game Design. Und ich finde, das ist auch absolut, absolut gerechtfertigt, weil wie gesagt, Game Design Mechanik von einem Plattformer in einem 3D Game, was super fast paced ist, super schnell funktionieren muss, ist echt nicht leicht.
02:18:30 Und das ist schon cool. Also es gibt schon sehr viele coole Spiele, die aus Deutschland kommen. Nein, es geht ja noch weiter. Es geht ja noch immer weiter. Wir sind fast da. Und das schaut jetzt so gemein aus.
02:19:00 Meine Gesichtszüge sind sehr lustig. Das wäre so ein Stream, da verstehe ich warum manche die Kamera ausschalten oder? Ich bin, ich bin, ich tue mir voll schwer mit Plattformen. Easy. Ich finde es aber lustig, dass du dieses Replay hast mit allen deinen Versuchen und da ist jetzt einfach immer noch der eine übrig.
02:19:34 Ach süß. Nein Gott, so lange haben wir das geschafft. Ich habe sonst... Ich wäre so... Ups, das Internet ist aus. Ich kann leider nicht mehr. Cool. Ich will einfach wie viele von denen starten. Niemand kommt an. 31 Versuche haben wir gebraucht. Das waren 31. Oh.
02:20:15 Yes? Nein. Das erinnert mich an die Grazer. In Graz gibt es so eine Märchenbahn. Da auch mit sich... Achso nein, das ist ein... Was schauen wir da gerade an? Was tun die Eichhörnchen? Oh je. Ich würde sagen schnell weg da. Ich weiß nicht, was weitergeht. Wie geht denn das dann weiter?
02:20:57 Ich schätze, es geht da weiter und müssen dann da rauf. Das ist... ich finde, das ist aber gerade nicht einfach. Wie kommen wir da rauf?
02:21:24 Was sind wir eigentlich? Meatball. Ich kann mich an die Urgeschichte nicht mehr erinnern. Ich weiß immer, ich muss quasi meine Partnerin befreien. Oh je. Aber ich weiß nicht mehr genau, was wir sind.
02:21:56 Ein Stück Fleisch. Was kann man da nehmen? Ich schaff's nicht mehr. Ist das schon das finale Level? Haben wir dann das Spiel ausgespielt? Also da ist halt Diabels schon viel gemütlicher, oder?
02:22:27 So 1 bis 10, wie frustrierend ist das Zuschauen. Also wenn ich könnte, würde ich meinen Stream verlassen.
02:22:56 Okay, jetzt aber ohne Schmier. Wie kommt man da rauf? So vielleicht? So. Weiter. Bisschen noch. Komm. Ja. Ja. Okay. Da ist irgendein Wurm. Was machen wir mit dem Wurm? Den ignorieren wir.
02:23:23 Jetzt müssen wir... ein Pflaster... Pflaster hätte ich schon gern. Wo muss ich denn weiter? Ich weiß nicht, was das Pflaster tut, aber wir haben jetzt ein Pflaster. Ich schätze mal, da geht es weiter, oder?
02:24:11 Okay, das ist jetzt aber mein letztes Ding, glaube ich. Also ich glaube, ich hasse es. Ich glaube, ich hasse es gerade absolut. Puh.
02:24:44 Das hat es aber schön gesagt. Ich ignoriere das Pflaster. Ich habe nur das Gefühl, dass es jetzt... Letztes Mal. Es geht nicht mehr.
02:25:14 Ihre gemein. Okay, okay, we're getting there. So, dann wieder die Langsam-Variante darauf. Okay.
02:25:39 Was ist wenn wir da auch so eine langsam Variante rauf machen? Oh, nicht klug. Nicht klug. Was ist wenn wir da eine langsam Variante rauf machen? Okay.
02:26:10 Okay, dann haben wir gesehen, da raufkommen. Dann müssen wir wieder da rauf. Jetzt sind wir da. Jetzt gehen wir da rauf. Ja. Oh, easy. Oh nein. 28. 28 Tonnen.
02:26:43 Das war jetzt wirklich frustrierend. Wir sind auch so selten... easy. Viel zu leicht. Wie er lacht, oder? Seht ihr das? Aber ich habe eine neue Strategie gefunden. Das habe ich glaube ich eine neue Strategie gefunden.
02:27:12 Also jetzt sollte man innerhalb von weniger Minuten das Spiel ausgespielt haben. Okay.
02:27:51 Ich weiß, es schaut voll leicht aus. Schaut es voll leicht aus? Da ist wieder eins mit diesem Plastern. Das ist irre. Entwickler müssen aber so viel Spaß haben bei sowas zuschauen.
02:28:21 Oder voll frustriert sein. Eher frustriert, oder? Und zu meiner Verteidigung, eigentlich sollte man das mit dem Controller spielen. Muss man auch sagen. Also das, was ich gerade mache, ist ja quasi ein Wunder, dass das überhaupt spielbar ist mit Maus und das da durch. Muss man auch sagen. Bitte nicht sterben, Matze.
02:28:50 Dankeschön für 57 Monate. Ich glaube so oft sind wir schon gestorben in dem Level. Aber ich will euch eigentlich nur ein bisschen das Spiel zeigen und die Mechaniken. Und ich ärgere mich auch kaum. Das ist komplett zen.
02:29:31 Controller ist glaube ich sicher besser bei dem Spiel. Das war richtig smart, was ich gerade gemacht habe. Das war richtig smart. Das nicht. Das geht so. Ich hätte wirklich voll gern gerade einen Controller.
02:30:05 Okay, passt. Ich bin fertig. Ich bin fertig. Seid ihr auch fertig? Ich kann nicht mehr. Ich glaube, ihr wollt auch nicht mehr zuschauen. Das, was wir da jetzt sehen, hat niemand mehr verdient. Das, was wir da jetzt sehen, hat niemand mehr verdient. Ich hoffe, ihr habt einen schönen Podcast gehabt. Vergisst das ganze Gameplay, was ihr jetzt gesehen habt. Wir ignorieren das. Ich hoffe, es war...
02:30:37 Spannend und ich sehe gerade was total tolles. Ich sehe gerade was ganz was tolles. Da ist jemand online, da müssen wir jetzt rüberschauen. Da müssen wir jetzt rüberschauen. Wir gehen jetzt noch für den Abschluss des Abends schicke ich euch zu Gamedev Content. Ganz ganz ganz zwei tolle Menschen da. Seht ihr die zwei?
02:31:07 Das ist der Account von Thomas Feichtmeier, Pixel Artist. Wir haben ihn auch schon öfters bei diversen... Nein, keine 5 Minuten mehr. Nein, nein, nein, nein, nein, nein. Wir kennen Thomas. Da reingehen und ganz, ganz liebe Grüße. Die machen Pixel Art Live.
02:31:30 Machen richtig richtig coolen Content. Ich mache gleich einen Shoutout. Noch 10 Minuten. Ja genau. Schau mich an. Ich kann schon jetzt schon 3 Tage nicht schlafen. So. Wir machen jetzt gerade Live Pixel Art Content.
02:31:44 Bitte einfach ganz kurz, also gerne einen Follower dalassen, die machen so coole Sachen. Er war bei ganz vielen bekannten Spielen dabei, sie ist fantastische Game Dev, hat voll coole Produktionen gemacht und die machen Live-Tutorials einmal die Woche für Pixel Art.
02:32:01 Bitte, bitte, bitte, bitte unbedingt kurz zumindest Hallo und liebe Grüße von Joey. Einfach liebe Grüße an Joey, die freuen sich glaube ich sehr. Ich freue mich so, dass sie was machen, dass sie das machen. Also ich rate euch jetzt rüber. Auch bitte unbedingt ein Follow für sie da lassen und dann in dem Chat liebe Grüße von Joey und vielleicht könnt ihr ja mit...
02:32:27 lernen. Also sie machen einmal die Woche einen Teach-Stream, wo man mit lernen kann, wie Pixelart funktioniert. Und damit wünsche ich euch eine wunderschöne gute Nacht und ihr hofft, heute habt ihr ein bisschen was mitnehmen können und ja, und die letzte halbe Stunde ignorieren wir lieber. Passt.