Nvidia im Talk zur RTX 50er-Serie ! GameStar Talk frage

Nvidia RTX 50er-Serie: Experten diskutieren Launch, Verfügbarkeit und KI-Features

Talk Shows & Podcasts

00:00:00
Talk Shows & Podcasts

00:00:00 Bis zum nächsten Mal.

Vorstellung der Gäste und Themen des Streams

00:13:41

00:13:41 Ganz herzlich willkommen zu diesem Stream, den ich mal wieder moderieren darf. Ich freue mich sehr, dass ich hier bin. Ich sehe auch schon, ihr schreibt ganz fleißig in den Chat. Da freue ich mich sehr drüber, wie ihr hinter mir im Hintergrund schon seht und wahrscheinlich auch bei dem Anfangs-Display gesehen habt. Wir reden heute über Nvidia und über die neuen Grafikkarten, über Marktverfügbarkeit, über technische Features, über Kritik.

00:14:09 die Grafikkarte in den letzten paar Wochen einstecken musste. Und hallo, ja, Vera ist blau. Ich bin Gamestar Blau heute. Ich hätte auch die Wahl gehabt zwischen Blau und Grün. Ich habe noch von so einem grünen Einteiler zu Hause, aber das war mir ein bisschen zu weihnachtlich und wir gehen ja auf den Frühling zu. Deswegen dachte ich mir, Blau passt ganz gut dazu. So, ich habe ganz zwei fantastische Gäste hier bei mir im Studio sitzen. Wir haben einmal Alex da. Ganz herzlich willkommen.

00:14:36 Alex ist für GameStar Tech hier bei uns und Experte, was Grafikkarten angeht und Benchmarks und so. Ja, ich finde, das kann man schon so sagen. Ja, mache ich gelegentlich. Und wir haben Lars Weinand da, Senior Technical Product Manager bei Nvidia. Was ein langer Name. Herzlich willkommen. Hallo, servus. Schön, dass ihr da seid. Wir machen hier ein kleines bisschen Warm-up.

00:15:04 Also bevor wir dann so richtig in die eingemachten Fragen hier reingehen. Ich habe ein bisschen was vorbereitet und ihr könnt natürlich auch ganz gerne eure Fragen in den Chat posten. Das macht ihr ja auch schon ganz fleißig, wie ich hier gesehen habe. Dafür einfach Ausrufezeichen, Frage und dann eure Frage da reinschreiben und dann taucht die hier bei uns in einem gesonderten Fenster auf. Und dann habe ich einfach einen besseren Überblick darüber, was ihr für Fragen habt und welche wir vielleicht davon schon beantwortet haben.

00:15:30 Aber erstmal eine Frage an euch als kleiner Warm-up. Welche Spiele zockt ihr denn aktuell und auf welcher Hardware?

00:15:41 Ich kann gerne anfangen. Ich zeige zur Zeit Monster Hunter Wilds. Und da ich in der privilegierten Situation bin, als Grafikkartentester auch die Grafikkarten zu Hause zu haben, zocke ich auf der RTX 5090. Zuerlich muss man sein. Ich weiß, das Spiel performt nicht auf allen Systemen, gerade auf schwächeren Systemen nicht so gut. Da tun mir die Leute fast ein bisschen leid, weil das ist tatsächlich ohne.

00:16:07 Jetzt Währung machen zu wollen, aber auf einer Leistung starken Grafikkarte sieht das schon richtig nice aus. Also ist es eine Freude, aber da stecken die Probleme. Ja, das hat andere Gründe. Stecken in der Engine und so weiter. Also warum das nicht so gut läuft, leider. Weil es ein sehr schönes Spiel ist. Und Lars, bei dir? Zuletzt war ich mit Indiana Jones dran.

00:16:31 Das habe ich durchgespielt. Ziemlich genial. Von der Story her ist es eigentlich wie ein Indiana Jones Film. Das letzte Mal, dass ich hier im Studio saß, haben wir einen Stream gemacht zu Indiana Jones und der große Kreis, was auch immer dieser Name soll. Und da war ich sehr angetan von dem Spiel, weil ich habe mit Indiana Jones überhaupt gar nichts am Hut. Ich habe weder die Filme gesehen noch irgendwelche Spiele gespielt. Und das hat mich aber neugierig gemacht. War es gut? Hat es dir gefallen? Ja, total. Also der nimmt auch ein paar...

00:17:00 Szenen aus den Filmen mit auf. Das ist auch der Harrison Ford. Und die Stimme ist auch ziemlich gut, der Schauspieler, der das macht. Also auf Englisch, auf Deutsch weiß ich es nicht. Auf Deutsch ist er auch ziemlich gut. Also das ist ziemlich cool. Dann habe ich Alan Wake 2 gespielt. Da will ich nochmal diese Spiral durchspielen. Also dieses Add-on und dann die DLCs. Ein bisschen Zeitproblem. Sonst spiele ich viel...

00:17:26 World of Warships oder jetzt auch Sea Power. Das ist so ein Echtzeitstrategiespiel, was ich manchmal ganz gerne mache. Weil da kann ich auch mal wieder einsteigen, wenn ich mal eine Zeit lang nicht gezockt habe. Bei den Online-Spielen ist das Problem, ich habe die Zeit da nicht. Sei es jetzt ein Call of Duty oder Battlefield, da habe ich früher ewig viel gemacht. Aber da musst du dich so reinfuchsen. Da bist du eigentlich nur Freckfutter dann und gehst da rein.

00:17:53 Ich habe vor ein paar Monaten wieder mit League of Legends angefangen. War ein Fehler. Ich habe das früher ganz exzessiv gezockt. Und nach zehn Jahren hatte ich da mal wieder Lust reinzuschauen und dachte mir so, ja, okay, es ist nicht mehr ganz so toxisch, hatte ich das Gefühl, wie früher, aber doch immer noch irgendwie. Und natürlich braucht man dann auch Zeit.

00:18:15 Das ist gerade nicht ausgegangen. Irgendwie schon. Und natürlich braucht man dann auch irgendwie Zeit, um da aufzuholen und sich natürlich dann auch da reinzufuchsen und eine bestimmte Elo zu erreichen und so weiter. Und die habe ich halt einfach nicht. Und auf welcher Grafikkarte zockst du oder mit welcher Hardware? Na gut, da bin ich befangen. Natürlich auf einer 5090 auch, aber auch halt auf den anderen, weil ich halt auch viel teste und ausprobiere. Und oftmals...

00:18:42 muss ich leider spielen, wenn ich dann irgendwas testen soll, was dann auf einer Karte in irgendeinem Level irgendwo speziell ist und du hast die Savegames nicht, da musst du halt mal wirklich, jetzt musst du unbedingt dann spielen. Ja, ja, stimmt, das kann ich nur beipflichten, das ist so, das Leben eines Testes, das machen wir schon hart. Vor allem, wenn man dann vergisst aufzuhören. Also meine Verlobte, die kommt mal an mir auch vorbei und schaut mir dann so zu und sagt, ja.

00:19:09 Ja, arbeitest du nicht? Und dann sage ich, doch. Ich muss halt da gerade hinspielen irgendwo. Ich muss halt da schauen, dass ich irgendwie, keine Ahnung, ich brauche eine Reflexion, damit ich das irgendwie messen kann. Aber ich glaube, viele Leute, die beneiden das auch so. Also so kommt mir das zum Beispiel bei meinem Job auch vor, dass ich dann irgendwelche Handys teste oder Laptops oder so, die gerade alles auf den Markt gekommen sind und noch gar nicht da sind. Aber das ist halt...

00:19:33 Trotzdem ein Job. Und ich finde irgendwie, dass es etwas anderes ist, wenn man ein Handy oder eine Grafikkarte privat erlebt und dafür sich ausprobiert, als wenn man wirklich jobmäßig testet. Oder? Ja, definitiv. Also es ist ein ganz anderer Anspruch. Es ist für mich schon...

00:19:54 Schon spannend, sage ich mal. Also ich freue mich dann, wenn neue Grafikkarten aufschlagen. Ist egal von wem, auch von AMD. Ich freue mich auf die neue Technik und zum Schauen, was können die. Das macht mir Privatspaß und auch für die Arbeit. Aber ja, klar, also gerade wenn es ums wirklich harte Benchen geht und du brauchst halt bestimmte, willst bestimmte Aspekte abbilden, also die neuen Techniken zum Beispiel oder was weiß ich.

00:20:16 Ja, jetzt bei AMD FS4 oder bei Nvidia DLSS4 willst du dir einen Eindruck machen können, wie sieht es aus, wie funktioniert Multiframe Generation und so weiter. Und klar, da musst du natürlich ein bisschen suchen und das ist dann schon ein bisschen mehr als nur Spaß. Das ist dann natürlich schon ein bisschen Arbeit. Wenn ihr euch eins der zentralen Features der neuen Grafikkarte aussuchen könntet.

DLSS als Lieblingsfeature und die Faszination der Technologie

00:20:41

00:20:41 was ihr für den Rest eures Lebens weiter nutzen könnt. Die anderen nicht. Welches Feature wäre das? Mein Lieblingsfeature ist einfach die LSS. Also gerade jetzt mit dem neuen Transformer-Modell.

00:21:01 richtig gut aussieht und ich auch weiß halt, was im Hintergrund passiert und wie es dazu kommt, weil es so ein bisschen so, ja, das klingt jetzt wieder marketingtechnisch, aber du hast halt das Problem, du nimmst aus weniger Pixel und willst damit mehr Details generieren. Aber das kennt man vom Foto. Wenn man ein Foto vom Handy macht und das aufbläst, dann wird es nicht besser. Und wir haben halt Möglichkeiten gefunden über vorher gerenderte Bilder, die dann mit in das Modell mit reingehen.

00:21:29 Und du kriegst einfach mehr Daten raus, als eigentlich wirklich da sind. Das heißt, du kannst die Bildqualität wirklich verbessern und hast noch bessere Performance dazu. Und es ist nicht immer perfekt, aber es wird immer perfekter und immer besser. Und wenn du die Leute kennst, die das entwickeln im Hintergrund, was ein paar sehr, sehr helle Köpfe sind, da ist es super spannend. Also das ist für mich das Feature, was vor Jahren hat man zum Scherz gesagt, ja, könnte man so machen.

00:21:59 Und da war alles viel zu langsam. Und was da im Hintergrund passiert, das ist für mich super faszinierend. Was fasziniert dich daran? Eben die Möglichkeit zu finden, also die Geschwindigkeit, mit der das passiert auf der GPU. Weil das dauert dann zwei Millisekunden, eine Millisekunde, um das AI-Netzwerk...

00:22:20 auszuführen, mit den ganzen Daten zu füttern. Das heißt, was da passiert in Millisekunden auf der GPU, auf dem Datenbus, wo du mal die Specs hast, wenn du sagst, wozu brauche ich diese Gigabyte an Speicherwandbreite, was da an Daten rumgeschoben wird, das kann man sich gar nicht visualisieren. Und dann hast du dann halt hohe Frameraten, wenn du jetzt 60 FPS, 60 Millisekunden hast und ja gut, machst halt eine Millisekunde.

00:22:46 ein ganzes AI-Netzwerk, was dazukommt und ausgeführt wird im Hintergrund. Aber du sitzt dann davor und zockst dein Spiel und merkst davon gar nichts, dass da eigentlich auf diesem Chip einfach ein Megasturm an Daten passiert, was da an Datenmengen verschoben werden, generiert werden und dann wieder weggeworfen werden, weil du hast ja, sag ich mal,

00:23:07 Wenn du 150 Bilder pro Sekunde hast, passiert das 150 Mal in der Sekunde und danach ist es weg. Also wenn man sich da mal so reindenkt, das ist schon sehr faszinierend. Finde ich auch. Hört ihr mich jetzt besser? Ich habe ein anderes Mikro bekommen. Ich hoffe, es geht jetzt. Ich höre mich auch ein bisschen besser in meinen Ohren.

00:23:29 Okay, perfekt. Was ist bei dir da, Alex? Ja, bei mir ist es auch tatsächlich DLSS. DLSS. Zu viele S. Genau. Nee, das war auch schon 2018 so, als damals angekündigt wurde. Da habe ich mich tatsächlich immer gedacht, ja, Raytracing, klar, das ist cool und das ist sicherlich die Zukunft. Da entwickelt sich alles hin. Das wird irgendwann mal der Standard sein und traditionelle Beleuchtungsmethoden ersetzen.

00:23:55 Aber viel spannender war für mich damals schon, was wird die LS kommen? Wieder 3S gesagt. Und ja, es ist tatsächlich so, wie Lars schon sagt, es ist faszinierend, wie schnell das geschieht, also was im Hintergrund passiert.

00:24:11 Und wie das vor allem aussieht. Ich meine, DLSS 1, das war natürlich noch, okay, da hat man noch Schwächen gesehen. Ich weiß noch, Battlefield 5 damals, da haben wir gedacht, okay, ist schon ziemlich vermatscht. Aber es hat nicht lange gedauert, bis das wirklich besser wird. Ich weiß noch, das erste Spiel, wo es mir so richtig auffiel, wie gut es war, war eben Monster Hunter Worlds damals. Das hat mir richtig gut gefallen. Und danach kamen ja dann schon die Sachen wie, wie ist es noch, Control und so weiter, der nächste Step.

00:24:36 Und das wurde wirklich sukzessive immer besser, bis zu dem Punkt, wo man halt zu jedem sagen konnte, ja, also wenn du eine Karte hast, die das kann, dann unbedingt einschalten. Also mindestens im Quality-Mode, also zumindest überwiegend im Quality-Mode, weil das CNN-Modell das einfach richtig gut konnte und der Unterschied.

00:24:54 Den siehst du halt wirklich kaum. Den SaaS waren wir schon kaum. Und jetzt ist es mit jeder Iteration über 3, 3, 5 und jetzt zu 4, zu dem Transformmodell natürlich nochmal deutlich besser geworden. Also ja, es ist ein absolutes Must. Und ich kann tatsächlich sagen, dass ich mit DLSS 4 tatsächlich jetzt auch den Performance-Mode nutze, weil es halt echt, ich meine...

00:25:17 Ich nehme das mal an. Also wo merkst du da einen Unterschied? Das ist einfach qualitativ nochmal besser. Und der Performance-Mode, der geht ja von noch einer niedrigeren internen Auflösung aus. Das heißt, du hast potenziell noch weniger Bildinformationen. Und trotzdem wird die dann hinterher wieder mit reingerechnet per Upscaler. Und das ist halt schon verrückt, wie gut das funktioniert. Und der Performance-Mode ist eine Möglichkeit, durch das, dass er von einer niedrigeren Auflösung kommt, dementsprechend auch noch mehr FPS. Also du hast wirklich einen Performance-Boost.

00:25:44 Und ja, das war so, muss ich ehrlich sein, bis Version 3.5 hätte ich jetzt gesagt, naja, Performance Mode, lass den lieber mal. Aber bei Version 4, da muss ich sagen, gibt keinen Grund, den nicht zu nutzen. Also ich spiele Monster Hunter Wiles, spiele ich genau damit und das sieht fantastisch aus. Cool. Ich würde sagen, wir starten mal so langsam mit den wirklich wichtigen Fragen heute.

00:26:13 Ich starte nochmal, wir machen eine kleine Anmod nochmal für unser Video danach, nicht wundern. Das sieht jetzt ein bisschen blöd aus mit diesen zwei Mikros, aber das kriegen wir hin.

Launch der RTX 50er-Serie und Verfügbarkeitsprobleme

00:26:26

00:26:26 Ich begrüße euch ganz herzlich zu diesem Talk mit Nvidia. Wir haben zwei wunderbare Gäste hier. Es geht um Nvidia, die neue Grafikkarte, um die Marktverfügbarkeit, um den Launch generell. Wie lief der eigentlich? Ist Nvidia damit überhaupt zufrieden? Es geht so ein bisschen auch um, oder wir reden ziemlich viel eigentlich über die neuen Features der Grafikkarte, aber natürlich auch über die Kritik, die die Grafikkarte einstecken musste. Ich habe zwei wunderbare Gäste bei mir. Einmal Lars Weinand.

00:26:55 ist Senior Technical Product Manager bei Nvidia. Es ist ein unfassbar langer Name oder unfassbar langer Titel. Und dann haben wir auch noch Alex Köpfter, der ist hier von Gamestart Tech und der ist unser Experte, was Grafikkarten und Benchmarks angeht. Genau.

00:27:16 Ich freue mich sehr, dass ihr beide da seid. Der Chat ist auch am Start und ich würde ganz gerne erstmal auf den Launch der Grafikkarte eingehen. Ich war ja dabei bei der CES 2025, wurde die Grafikkarte vorgestellt und es war ein mega krasses Event. Du warst da oder nicht? Du hast vorhin gesagt, wir haben uns verpasst in Las Vegas. Genau, der Launch war vielfältig.

00:27:46 was öffentlich war. Wir haben einmal die GeForce LAN dort abgehalten, drei Tage LAN-Party in Vegas. Und dann gab es die Keynote von Jensen, da sind natürlich sehr viele Themen angesprochen worden, unter anderem dann auch GeForce, die Karte. Und dann hatten wir den, was wir dann Editor's Day nennen, wo wir dann die großen Pressebriefings und technische Deep Dives für die Presse und die Medien hatten.

00:28:09 Und da war ich dann sehr stark involviert. Da habe ich dann auch was präsentiert und Demos gezeigt und alles. Und ja, das war für uns sehr wild, sehr viel Arbeit, sehr viel zu tun. Und sehr viel Information versuchen zusammenzupacken, weil es einfach so massiv viele Neuerungen gibt in der Architektur, die man gar nicht...

00:28:35 fast gar nicht alle abhandeln kann, auch an einem Tag mit Briefings, das alles zu erklären, was da zukünftig kommt mit Technologien, was da im Hintergrund ist. Wir hatten die Entwickler da. Also alle Demos, die wir so gezeigt wurden, die waren auch live, hands-on für die Presse und für die Kunden da, um sie anzuschauen. Da waren die Entwickler da, die das Ganze programmieren und erschaffen. Also gerade da mit Mega-Geometry, mit dem Drachen.

00:29:04 Und die Geeks konnten da jetzt, also gerade die technischen Medien, dann auch mit den Experten reden, wo dann richtig eintauchen und wirklich für alles Antworten dann da sind. Alles ist gelaufen. Wir hatten Demosysteme ohne Ende, ich glaube irgendwie 50 Demorechnen. Wow, das ist krass. Jetzt ist ja die CES schon eine Weile her. Die war im Januar. Dementsprechend sind die RTX 5080 und 5090 Karten auch schon eine Weile auf dem Markt. Aber sehr teuer und...

00:29:32 Ja, auch schwer verfügbar tatsächlich. Wie zufrieden bist du mit dem Launch? Also mit dem Launch sind wir eigentlich sehr zufrieden. Mit der Verfügbarkeit sind wir nicht zufrieden. Das hat aber weniger, oder was heißt, da muss man unterscheiden. Die Verfügbarkeit ist der Grund, dass die Nachfrage unglaublich groß ist. Weil wir haben ja von der alten Ada-Serie...

00:30:01 Es ist eigentlich nicht mehr viel im Markt da und die Nachfrage ist riesig. Wir gehen da gleich noch genauer drauf ein. Ich höre gerade aus der Regie, dass wir ein kleines technisches Problem haben. Wir gehen ganz kurz in die Pause und sind gleich wieder für euch da.

00:33:15 Willkommen zurück. Ich hoffe, die technischen Probleme haben sich jetzt behoben. Ganz herzlich willkommen zu diesem Talk mit Nvidia. Wir reden heute über die RTX 50er Serie, die neuen Grafikkarten, die gelauncht wurden. Wir reden ein bisschen über den Launch, über die Marktverfügbarkeit.

00:33:33 über die technischen Features, die die Grafikkarte mit sich bringt, aber auch die Kritik, die die Grafikkarte einstecken musste. Und dazu habe ich zwei fantastische Gäste an meiner Seite. Einmal haben wir Lars Wienand. Er ist von NVIDIA und zwar Senior Technical Product Manager. Immer noch ultralanger Titel. Und auf der anderen Seite haben wir Alex Köpf. Er ist von Gamestar Tech und unser Experte, was Grafikkarten und Benchmarks angeht.

00:34:01 Der Chat ist auch schon am Start. Wir haben ja schon ein bisschen mit euch gequatscht hier. Und wir fangen am besten einfach nochmal an. Es gab hier kurz ein paar technische Schwierigkeiten. Deshalb für euch, die Leute, die das hier als VOD nachschauen, wollen wir natürlich auch die Fragen aufnehmen. Die eine Frage, die ich jetzt schon gestellt habe. Deswegen fangen wir nochmal von vorne an.

00:34:26 Die 5090 und die 5080 sind ja schon eine Weile auf dem Markt. Die wurden mit der CES 2025 vorgestellt, beziehungsweise auch drumherum irgendwie. Das hat ja Lars eben gerade schon erklärt. Die sind aber noch sehr teuer und sehr schwer verfügbar. Wie zufrieden seid ihr mit dem Launch? Also der Launch hat eigentlich alles sehr gut funktioniert. Der Zeitpunkt ist...

00:34:50 mit Chinese New Year. Das ist immer ein Punkt, der Anfang Februar kommt. Das heißt, da sind in Asien eigentlich alle FAPs dicht und ist aber eigentlich immer eingeplant. Also generell sind wir, die Verfügbarkeit ist sehr hoch, was unsere Produktion angeht.

00:35:10 Ich kann leider keine Zahlen sagen. Das ist immer das Problem. Wir sind ein öffentlich gelistetes Unternehmen an der Börse. Das heißt, wir dürfen keine Zahlen nennen. Außer bei dem Geschäftsbericht, was das Ganze schwierig macht. Was ich sagen kann, ist, dass wir deutlich mehr produziert haben und gechippt haben als mit der Vorgängergeneration. Schon jetzt zum Zeitpunkt. Auch wenn ich keine Zahlen nennen kann. Das hilft natürlich aber nicht, wenn die Leute sehen, es sind im Handel keine Karten da.

00:35:38 Man sieht es ja auch schon im Chat, also die Frage kommt auch immer wieder, woran liegt es dann, dass die Verfügbarkeit so schwierig ist? Nun, es wird wöchentlich kommen, Shipments, je nach Hersteller, natürlich auch nach Deutschland, auch in ganz Europa weit und auch in die ganze Welt. Und viele kommen gar nicht in die Shops, weil die vorbestellt sind, preordert sind. Das heißt, die...

00:36:05 Die Shipments kommen rein und die Karten gehen sofort raus, weil die alle preordert sind. Und die Karten, die man sieht, das sind spezielle oder manche Modelle, die zu sehr hohen Preisen angeboten werden. Und das macht der Handel halt, weil die Nachfrage entsprechend hoch ist. Da habt ihr mit nichts zu tun?

00:36:24 Das können wir leider überhaupt nicht beeinflussen. Der einzigste Preis, den wir beeinflussen können, ist von unserer Founders Edition, die von vornherein sehr limitiert ist. Ansonsten verkaufen wir Kits, GPUs, Speicher an die Partner oder manchmal auch mit Boards. Je nachdem, also ein Board-Partner, sei es ein ASUS, MSI, Gigabyte, die kaufen bei uns die GPU und Speicher als Kit, bauen dann die GPU und schippen die.

00:36:53 Und was danach passiert, da haben wir überhaupt keinen Einfluss drauf. Das ist auch nicht unser Sales. Und wir können auch nur sagen, klar, wir haben eine unverbindliche Preisempfehlung. Das ist der Preis, den wir gerechnet haben. Das sagt, okay, da verdienen wir, da verdient der Handel, da verdient jeder und jeder ist glücklich. Aber wenn ein Produkt sehr begehrt ist, das ist halt freie Marktwirtschaft, dann steigt der Preis. Und wenn jetzt jemand sagt, naja, die wäre nicht verfügbar, wenn das...

00:37:22 An den Preisen sieht man leider, dass der Bedarf sehr hoch ist und alles, was reinkommt. Es kommen wie gesagt wöchentlich viele tausende Karten überall rein.

00:37:36 Da sind wir außen vor, da können wir nichts machen. Jetzt fragt jemand im Chat, wo kann man denn preordern? Noch nie gesehen. Und dann scheint es nur in Amerika der Fall. Warum ist es nicht in Deutschland so? Oder geht es auch in Deutschland? Das ist auch in Deutschland. Wie genau, weiß ich jetzt nicht. Ich muss sagen, ich habe mir schon lange keine Grafikkarte mehr selber bestellt. Da bin ich im Vorteil. Aber das geht über die Distribution, über den Channel.

00:38:07 Wie gesagt, da habe ich jetzt keinen Einblick rein. Wir haben natürlich auch Sales und Marketingleute, die da mit den Partnern zusammenarbeiten und das alles koordinieren.

00:38:22 Da haben wir wirklich leider wenig Einfluss drauf. Und es ist halt eben, wie gesagt, auch nicht so, dass wenn man sieht, die Preise sind hoch, dass wir jetzt, wir verdienen mit der Grafikkarte keinen Cent mehr, egal für welchen Preis, die am Ende über die Handelstheke geht. Da sind wir vollkommen raus. Alex, wie hast du den Launch wahrgenommen? Also jetzt auch, was die Marktverfügbarkeit angeht, vielleicht auch im Vergleich zur Vorgängerversion? Da müsste ich jetzt mal überlegen.

00:38:51 Also könnte schon sein, dass es besser war, schlechter nicht, würde ich sagen. Aber ja, was habe ich mitgekriegt? Ich habe natürlich durch die Tests bedingt sehr viel die Kritik der Menschen mitgekriegt, die halt gehofft haben, okay, irgendwo natürlich zur UVP eine Grafikkarte zu kriegen und dann letzten Endes gesehen haben, okay, was weiß ich, eine 50, 90.

00:39:13 Kostet statt 2.330 auf einmal 3.000, 3.500 und mehr. Da gibt es ja ganz eigenartige Konstruktionen. Da werden ja teilweise von den AIBs dann quasi Grafikkarten plus irgendwie Peripheriegeräte verkauft. Und jetzt heißt das 6.000 Dollar dafür. Die Leute kaufen es trotzdem, by the way, das ist das andere und so. Ja, aber wie habe ich den Launch dann erlebt?

00:39:40 Ja, schwierig. Natürlich. Aber ich sehe auch, es ist ein Produkt, das weltweit gefragt ist. Da ist es, glaube ich, per Definition fast unmöglich, die Nachfrage zu bedienen.

00:39:55 Also es stürzen sich auch alle drauf. Die Leute wollen halt zum Launch, zum Fall des Testembargos am besten schon bestellen. Das ist meistens ein Tag früher. Da liegt wahnsinnig viel Interesse drauf und entsprechend groß ist natürlich dann die Enttäuschung, wenn die Leute leer ausgehen. Dazu kommen dann auch die ganzen Scalper, Bots und was weiß ich alles, was man ja deutzutage noch hat. Das macht es natürlich noch schwieriger. Klar, also da bin ich irgendwo hin und hergerissen. Ich kann beide Seiten verstehen. Ich kann die Wut verstehen.

00:40:23 Ich persönlich, und das soll jetzt nicht irgendwie beschwichtigen klingen, ich würde es halt immer den Leuten raten, auch im privaten Umfeld, naja, ihr werdet ja wahrscheinlich nicht unbedingt jetzt eine neue Grafikkarte brauchen, außer die alte ist natürlich kaputt oder so. Einfach ein paar Monate warten, bis die größeren Stückzahlen verfügbar sind, die erste Welle so abgeebbt ist und sich die Preise normalisieren. Aber klar, natürlich, man wünscht sich grundsätzlich natürlich zum Launch alles.

00:40:49 soll zu UVP zur Verfügung sein. Das kann ich schon nachvollziehen. Pyjama fragt, warum wurde die 4090, 4080 so früh gestoppt, obwohl man wusste, dass es nicht ausreichend 50er Karten geben wird zum Launch? Na gut, den letzten Teil kann ich sagen, das stimmt so nicht.

00:41:10 genügend Verfügbarkeit gibt. Es war auch schon so, dass eine 4090 auch schon im Dezember schwer zu bekommen war. Einfach auch, weil der Bedarf da höher ist. Und wir haben natürlich irgendwo eine Übergangsphase. Was wir vermeiden wollen, ist zum gewissen Zeitpunkt, dass zu viel Ware von dem früheren Produkt noch im Markt ist. Weil die Ware wurde ja schon bezahlt. Das heißt, die hat auch einen gewissen Preis.

00:41:39 die dann auch die ganze Handelskette bezahlt. Die Partner zahlen das, die Distribution zahlt das, die E-Tailer zahlen das. Und plötzlich ist die aber theoretisch weniger wert, weil es ja einen Nachfolger gibt. Und das heißt, es ist ganz natürlich, dass da auch die Bestellungen zurückgehen, sobald bekannt wird, es kommt eine neue Generation. Wenn wir das zu früh ankündigen...

00:42:01 Fängt das schon sehr viel früher an. Das heißt, du kannst keine perfekte Transition machen. Du versuchst natürlich den Supply, also den Übergang möglichst treibungslos zu haben. Aber dann kommt natürlich dann auch die News dazu, dass jetzt Nachfolger kommt. Dann wird auch viel weniger geordert, auch vom Handel. Es kommt dann viel weniger in den Handel rein. Wenn wir dann noch entsprechend die Chips hätten, dann hätten wir auch das Problem ja, wer nimmt.

00:42:27 Jetzt diese Chips, die noch da sind, was macht man damit? Also das ist alles ein sehr, sehr komplexes Thema. Und das Ganze muss auch viele Monate im Voraus geplant werden. Also man kann nicht einfach sagen, ja, produziere ich das einfach weiter. Das ist dann so wie jetzt auch bei anderen Produkten, Autos oder sonst was ähnlich, dass ich da einfach meine Produktionsketten haben muss. Und wie gesagt, wir verkaufen ja, wenn man es jetzt mit zum Beispiel mit Telefonen vergleicht oder...

00:42:56 sage ich jetzt mal einen bestimmten Telefonhersteller, der das Telefon selber baut, selber vertreibt und selber verkauft. Wir verkaufen ja über Partner, über Bordpartner. Da ist eine Riesenkette dahinter. Und das geht nicht ganz so einfach. Das ist wirklich sehr komplex. Ich meine, wir haben das schon vielfach gemacht. Und wie gesagt, ich kann verstehen, dass die Leute denken, es gibt zu wenig. Oder wie man gelesen hat, manche meinen, es wäre ein Paper-Launch. Das ist es definitiv nicht.

00:43:25 Aber ich kann verstehen, dass man sich darüber ärgert. Ich habe auch selbst Freunde, die mich anpingen und sagen, du kommst so günstiger an eine Karte ran oder auch zum normalen Preis. Ich sage, ich habe da keinerlei Einfluss drauf, weil das alles über die Partner geht. Wir können doch nicht mal für uns selber, wenn ich mir selber eine Grafikkarte kaufe, muss ich sie mir auch ganz normal im Handel kaufen, weil wir auch kein Mitarbeiterprogramm oder sowas haben, weil wir die Karten ja gar nicht...

00:43:54 selber herstellen, außer jetzt die Founders, die halt dann aber limitiert sind. Und da müssten wir uns auch strecken, dass wir dann privat eine bekommen. Die nächste Frage ist wieder von Pyjama. Zu welchem genauen Zeitpunkt, ich hätte gerne Uhrzeitangaben von dir, wird der Markt mit ausreichend Stückzahlen der 50er 50, 80 versorgt werden? Also ich weiß, was, auch wenn ich die Zahlen nicht nennen darf, was...

00:44:22 geschippt wird wöchentlich. Ich kann den Bedarf halt nicht einschätzen, weil der Bedarf ist so groß, wie gesagt, es kommt Ware rein und die geht dann raus. Aber ich bin auch kein Selbstmensch. Also ich kann da auch nur, was ich von den anderen höre. Was würdest du schätzen? Ich nehme das mal zurück mit der Uhrzeit. Ich bin überrascht.

00:44:48 dass es nicht schon längst passiert ist, dass einfach mehr Inventory, wie man es nennt, also mehr Lagerware dann da ist, dass es immer noch so ist, dass es kommt rein, geht alles sofort raus. Das hat mich jetzt überrascht, nicht selber, ehrlich gesagt. Hatten wir so jetzt noch nicht, aber wir sind ja auch nicht die Einzigen. Ich meine, unsere...

00:45:12 Freunde von der anderen Fraktion, denen geht es ja genauso. Die haben auch und versuchen das zu dem Preis rein, aber das ist der Handel und du kannst dem, wir leben halt in der freien Marktwirtschaft und wir können dem Handel nicht vorschreiben, für wie viel er die Karte zu verkaufen hat.

00:45:28 Ich merke, dass das Thema hier gerade auch mit den Fragen, dass euch das sehr beschäftigt. Und ich werde noch gleich eine Frage dazu stellen. Wir haben noch so viele andere Themen, wo wir hier weitermachen wollen. Ich gehe aber mal eure Fragen hier durch, weil ich die auch ganz spannend finde. Asics A fragt, welche Maßnahmen wird Nvidia ergreifen, um ein erneutes und massenhaftes Aufkaufen durch ...

00:45:54 Jetzt ist es hier irgendwo verrutscht. Und Bot-User zu den Releases zu verhindern. Ich denke insbesondere an den deutschen 5090er Faunas Edition Sale. Da versuchen wir jetzt, wir haben in den USA jetzt ein Lottery-System, das wir testen. Das heißt, man kann sich dann bewerben. Also Lottery so ein bisschen wie bei Nike, glaube ich. Hat das auch? Genau. Weil wir wissen ja, die Karten sind limitiert.

00:46:22 Wir haben, egal was wir versuchen und mit welchen Partnern, es irgendwas geht scheinbar dann schief und es ist nicht so, wie es geplant ist. Und jeder findet es unfair und egal wie man es macht, ist es verkehrt. Und jetzt probieren wir das jetzt in den USA aus. Da müssen wir auch lernen, weil wir wissen, es ist ein limitiertes Produkt, eine limitierte Edition. Und da kann ich mich drüber bewerben.

00:46:48 Wie das dann in Europa nächstes Mal laufen wird, da sind wir das gerade am Ausarbeiten. In den USA ist das so, dass ich mich dann einfach bewerben kann. Über einen NVIDIA-Account oder je nachdem. Communities, das sind wir jetzt alles. Da sind die verschiedenen Teams gerade am Schauen, wie kann das möglichst fair gemacht werden, wie kann das möglichst transparent gemacht werden.

00:47:11 Wird sicherlich auch nicht alle glücklich machen, weil verschiedene dann sich auch beworben haben und dann trotzdem keine bekommen. Und andere dann doch oder dies oder jenes. Das ist dann schwierig, was das Scalping an sich angeht. Das ist halt jetzt im E-Tail, wenn halt ein E-Tailer, ein Händler, wenn einer zehn Karten bestellt und er gibt ihm auch zehn Karten, dann liegt das halt auch an dem Handel.

00:47:39 An den Bedingungen zu sagen, ich gebe halt nur pro Person eine Karte raus. Wenn ich das rausgebe, wenn ich eine Großbestellung rausgebe, ja hier 20 Karten, das ist halt der Handel dann selber. Das ist dann wieder der Händler, ob der sich da selber eigene Policies zurechtlegt oder nicht. Das können wir da nicht beeinflussen. Wir können das halt nur mit der Founders und die ist halt von vorne weg.

00:48:03 limitiertes Stück, weil es für uns ein Technologiedemonstrator ist. Kannst du da Zahlen nennen, wie limitiert die ist oder nicht? Nein, Zahlen kann ich da nicht nennen. Leider nicht. Zahlen sind immer schwierig. Zahlen sind immer schwierig. Ich würde mal sagen, wir gehen mal zum nächsten Thema weiter. Ich sehe hier die ganzen Fragen noch von euch.

Kritik an der nativen Rechenleistung und Zukunftsperspektiven

00:48:29

00:48:29 Teilweise doppeln sich die Themen hier so ein bisschen. Teilweise haben wir es schon angesprochen. Deshalb würde ich mal sagen, wir gehen mal so ein bisschen auf die Leistung der Grafikkarte ein. Es gibt ja Kritik an der nativen Rechenleistung. Also manche sagen ja, dass die RTX 5080 sei eigentlich so eine 5070. Die 5070 ist eigentlich eher eine 5060. Und wie stehst du dazu oder Nvidia? Was sagt ihr dazu? Naja.

00:48:57 Die erste Frage ist, was ist nativ? Was ist native Leistung und wo will ich damit hin? Weil das Hauptproblem, also unsere, wir reden ja vom Neural Rendering. Das heißt, es gibt das Problem bei den Chips, dass die Chips nicht unendlich größer werden können. Und der Hintergrund ist der, dass wir haben jetzt schon bei dem 202, bei einer 5090,

00:49:26 kommen wir schon langsam an die Grenzen ran, wie groß wir diesen Chip auf dem Dime machen können. Das klassische Beispiel ist, wir nehmen ein Spiel wie Cyberpunk mit Past Raving, 4K, mit einer 4090 habe ich 20 FPS. Mit einer 5090 habe ich dann 27 FPS. Das ist dann, wenn die Leute sagen, ja, nicht genug native Rechenleistung.

00:49:55 Na gut, das ist prozentual 30-40% schneller, eine 50-90, als eine 40-90, nativ. 40% ist eine Nummer, aber reichen die 27 FPS? Nein, die reichen nicht. Wenn ich jetzt sage, ich will es verdoppeln, 100% mehr Leistung, dann bin ich bei 40 FPS. Das ist immer noch nicht gut.

00:50:19 Ich will irgendwo 60, 80 FPS in 4K. Das heißt, der Chip, den ich dann baue, den kann ich mir gar nicht mehr bauen. Und das ist das Problem, was wir haben, dass wir mit der Prozesstechnologie an Grenzen kommen, dass wir die Chips nicht mehr skalieren können. Wir sagen offiziell, Moore's Law ist tot. Moore's Law war aus der CPU-Geschichte.

00:50:42 Die Leistung verdoppelt sich alle zwei Jahre und der Preis halbiert sich alle zwei Jahre für die Transistoren in der Fertigung. Es gibt da auch so eine schöne Grafik dazu. Vielleicht kann die Regie das raussuchen. Ich habe sie leider nicht reingefügt, weil ich jetzt nicht wusste, dass wir darüber reden. Aber ja, das sagt mir auf jeden Fall was. Alex, würdest du sagen, dass die Zeit von großen Entwicklungssprüngen, wie wir sie vielleicht noch vor...

00:51:10 fünf, sechs, sieben Jahren oder noch weiter erlebt haben, dass die vorbei ist? Ich würde sagen, bei den Entwicklungssprüngen ist es ein bisschen anders, weil es kommen Entwicklungen in anderen Bereichen. Aber wenn man das auf die reine Rasterleistung bezieht, die ja viele damit meinen, dann sind die Sprünge wirklich jetzt wohl kleiner geworden. Die Leistungssprünge sind jetzt ein bisschen kleiner geworden.

00:51:36 Meine Auffassung ist, und ich habe mich damit schon ein bisschen beschäftigt, die Zeit der regelmäßigen großen Sprünge, ich glaube, die ist einfach vorbei.

00:51:47 Man stößt da schon längst, das ist nicht so, dass man in ein paar Generationen vielleicht an physikalische Grenzen stößt. Man stößt da jetzt schon an physikalische Grenzen. Du hast da teilweise Isolationsschichten bei den Transistoren, die sind zwei Nanometer dick. Da tunneln einfach, also da gibt es sogenannte Leckströme, die zu kontrollieren.

00:52:08 Hier sieht man Mooslau. Ja, also die zu kontrollieren ist relativ schwierig. Es gibt verschiedene Tricks, die man vielleicht noch, die man in künftigen Generationen sehen werden. Also sowas wie Gate-Allround-Transistors und so weiter und so fort. Da kommt sicherlich noch was. Aber die großen Sprünge allein durch die Verkleinerung der Strukturbreiten, also egal, was wirklich draufsteht, ob es nach DSM-Sie, 4 Nanometer draufsteht oder so weiter, die werden nicht mehr so kommen.

00:52:38 Mit der aktuellen Technologie sind wir schon ziemlich ausgereizt. Also ich glaube persönlich, glaube ich, wird die 6000er Generation vielleicht eine sein, weil ich behaupte jetzt einfach mal, also meine Schätzung ist, man wird da auf die SMC 2 Nanometer wechseln, wenn die entsprechenden Fertigungsanlagen gebaut sind und die Ausbrüte auch entsprechend da ist und so weiter.

00:53:02 Das wäre mein Tipp. Da könnte ich mir vorstellen, dass nochmal ein Sprung kommt. Aber ich habe mir auch Daten angesehen, also wie allgemein das in der Chip-Industrie prognostiziert wird. Also weit bis 2040 gehen da die Prognosen teilweise. Die gehen alle davon aus, dass das spätestens ab 2027, 2028 komplett abflacht. Und dann siehst du halt einfach nichts mehr. Du bist ja jetzt schon, wenn man sich mal so einen Transistor und das alles anschaut, die einzelnen...

00:53:29 Wenn da draufsteht 4 Nanometer, okay, da ist vielleicht irgendwas 4 Nanometer, aber das ist ja nur ein Name. Tatsächlich sind die einzelnen, was weiß ich, Gate-Längen und was weiß ich, was es alles gibt oder die Abstände zwischen den einzelnen Gates, das ist eigentlich so eine Messgröße. Das ist man teilweise auch schon bei 10 Nanometer. So eine Gate-Länge ist typischerweise vielleicht 10 Nanometer, sag ich jetzt mal. Und bei 10 Nanometer, das ist nicht einfach nur irgendwie, sondern da...

00:53:54 Da kannst du halt schon, da siehst du halt schon ein Atom daneben. Also wirklich. Und da ist man halt. Und das ist halt die Grenze, die kannst du nicht mit der aktuellen Technik unterschreiten. Gibt es sicherlich vielleicht andere Möglichkeiten, Silizium herzunehmen, Molybdänzophilz und sonst irgendwas. Und keine Ahnung, habe ich vorher auch schon gelesen, irgendjemand hat das geschrieben, photonische Transistoren, die potenziell viel schneller schalten können, weil sie einfach...

00:54:18 extrem wenig Energieverbrauch. Aber da ist man halt einfach, das steckt, sagen wir mal, im besten Fall in den Kinderschuhen, würde ich jetzt mal behaupten. Aber ich habe ja einheitlich gesagt, die großen Entwicklungssprünge, die bleiben ja nicht daraus. Es gibt ja Entwicklungssprünge, also gerade im Bereich der KI. Also Nvidia geht halt jetzt den Weg der KI.

00:54:43 Wahrscheinlich war es einfach die logische Entscheidung, dahin zu gehen. Und da gibt es ja sehr wohl eine Entwicklung. Also man sieht bei DLSS eine Entwicklung, also jetzt von dem einen KI-Modell auf das nächste.

00:54:58 einfach deutlich bessere Bildqualität ermöglicht und dadurch wieder im Umkehrschluss, obwohl es eigentlich mehr Leistung kostet, wieder viel mehr Leistung ermöglicht, weil man einfach eben diese andere DLSS-Modi wählen kann, wie ausgeglichen oder eben Leistung, Ultra-Leistung habe ich jetzt noch nicht probiert, das ist mal zu krass, aber probiere ich nochmal aus. Und ja, da tut sich ja einiges. Multi-Frame Generation, okay, das ist eine Technologie und dann kommen ja noch die ganzen Neural Shades.

00:55:28 Neural Texture Compression und so weiter und so fort. Also da kommt einiges auf uns zu, was, und das glaube ich persönlich, die Karten relativ gut reifen lassen wird. Also ich weiß nicht genau, wann die Spiele, ich meine, das muss ja erstmal in den APIs, sprich Vulkan oder TargetX umgesetzt werden, bis es da mal in einem Spiel ist und so weiter. Da dauert es sicherlich noch eine Weile, bis Entwickler sich auch daran gewöhnt haben und so weiter.

00:55:54 Das könnte schon sein, dass man da in zwei Jahren dann Spiele sieht und dann ist man froh, dass man so eine Karte hat und sich einfach Leistungssteigerungen oder bessere Bildqualität mal ergeben. Du hast es gerade schon angesprochen, DLSS 4, Multiframe Generation, Neuro-Renderings und so weiter. Was ist DLSS 4 oder was macht es so besonders, Lars?

DLSS 4 und Multiframe Generation im Detail

00:56:16

00:56:16 Okay, also ich hole ein bisschen aus, weil wir hatten ja eben das Beispiel gehabt mit den 20 FPS auf einer 4090, mit den 27 FPS auf einer 5090. Was wir mit DLSS, mit Multiframe Generation machen, ist, wir packen da verschiedene Technologien erstmal dazu. Das heißt, mit Frame Generation, dort generieren wir zusätzlich ein Zwischenbild, zwei gerenderte Bilder.

00:56:44 Mit Multiframe Generation können wir bis zu drei AI-generierte Bilder anhand von zwei gerechneten Bildern generieren. Wie gut das funktioniert, hängt erst mal von der sogenannten Input Framerate ab. Das heißt, ich kann, wenn ich jetzt mein Beispiel mit 27 FPS habe und da Multiframe Generation einschalte, dann spielt sich das Spiel trotzdem wie 27 FPS.

00:57:13 Nicht das, was ich haben möchte. Das heißt, was ich zuerst mache, ist, ich nehme erst mal DLSS Super Resolution mit dem AI Upscaling in dem Sinne, wo wir schon gesagt haben, dass das mit einer sehr, sehr guten Bildqualität möglich ist. Über das AI-Modell, was wir haben, haben jetzt das verbesserte Transformer-Modell noch gemacht. Und dann kann ich aus 27 FPS, weil ich in der kleineren Auflösung rendere, und das...

00:57:39 dann hochskaliere sozusagen über die AI. Das ist eigentlich neu generieren, keine reine Skalierung. Und dann lande ich irgendwo bei 70, 80 FPS mit DLSS. Und dann mache ich die Frame Generation dazu und komme dann in dem Beispiel, was wir eben hatten.

00:57:58 27 FPS komme ich dann in 4K auf 270 FPS. In 4K mit Past Racing in Cyberpunk. Brauche ich 280 FPS in 4K, hängt vom Monitor ab. Wenn ich in 4K 240 Hertz habe, dann schon. Wenn ich in 4K 144 Hertz habe, reicht mir vielleicht zweifach Multiframe Generation. Das Schöne an den Technologien ist,

00:58:23 Es zwingt einem ja keiner irgendwas auf. Es gibt für alle die Optionen, verschiedene Möglichkeiten auszuwählen. Das ist das, was wir alle am PC lieben und auch am PC Gaming lieben. Sonst würde ich auf einer Konsole spielen, die mache ich an und spiele. Und hier kann ich meine Settings, kann das einstellen, auf mein System mit den Monitoren das optimieren. Und dazu kommt, wenn wir Multiframe Generation oder Frame Generation aktivieren, haben wir auch immer Nvidia Reflex aktiv.

00:58:53 Nvidia Reflex ist unsere Latency-Reduction-Technologie. Das heißt, wir reduzieren die Input- oder die komplette System-Latency. Zumindest den Teil, den wir beeinflussen können mit der Grafikkarte. Und damit ist der Input-Lag oder die komplette Reaktionszeit vom Spiel, von meinem Input, bis das Spiel reduziert, teilweise um die Hälfte reduziert. Je nach Spiel, mal mehr, mal weniger.

00:59:20 Hängt an vielen Komponenten. Und damit gleichen wir zum Teil den Nachteil von Frame Generation aus. Nämlich, dass sich durch Frame Generation die Latenz nicht verringert. Und das ist ein Kritikpunkt, den viele haben. Sagen normalerweise, je höher meine FPS, meine Framerate ist, umso geringer wird meine Latenz. Weil, kann man jetzt mal grob erklären, wenn ich auf meine Maus klicke, dann geht das von meiner Maus.

00:59:49 über USB an meinen Rechner. Da läuft ein Treiber. Der Treiber sagt Windows, es gab hier einen Mausklick. Das kostet schon ein paar Millisekunden. Dann läuft das auf Windows. Das Spiel läuft im Hintergrund, nimmt diesen Input, verarbeitet den über die CPU, wird dann in der Game Engine irgendwie verdröselt und wird dann ein neues Bild generiert. Das neue Bild kommt an die Grafikkarte. Die Grafikkarte rendert es, macht zum Display Output und geht dann an den Monitor. Je nach Spiel dauert das.

01:00:18 60, 70, 40, 30 Millisekunden. Jedes Spiel ist anders. Jedes Spiel hat eine andere Latenz. Und wir können halt diesen Teil vom Rendering optimieren, um das dann auszugleichen. Und normal ist es so, je höher die FPS sind, umso kleiner ist die Renderzeit. Weil die Millisekunden, also wenn ich von 60 FPS habe ich 16 Millisekunden, bei 120 nur noch 8 Millisekunden. Das heißt, je höher meine FPS...

01:00:44 Automatisch wird meine Latenz geringer. Deshalb wollen E-Sports-Spieler mit 300, 400 FPS spielen, dann haben sie zwei, drei Millisekunden Latenz. Das ist micro. Bei Frame Generation reduziert sich das natürlich nicht, weil es werden zwar mehrere Frames generiert, die sorgen für auch...

01:01:02 Für mehr Smoothness, also für ein softeres Bild, für eine bessere Darstellung auf dem Bildschirm. Aber die Latenz wird nicht reduziert. Und der große Vorteil, den wir haben, den man aber natürlich dann auch sich aussuchen kann, wie ich den benutze, wenn ich sage, ich benutze jetzt erstmal DLSS Super Resolution, habe meine 70, 80 FPS, dann mache ich Reflex an, reduziert mir die Latenz nochmal um die Hälfte.

01:01:29 Dann habe ich eine super gute Latenz. Und wenn ich dann Frame Generation aktiviere, dann habe ich pro Faktor rund drei Millisekunden, die on top kommen auf diese Latenzen. Aber ich spiele insgesamt mit Frame Generation auf einer sehr geringen Latenz. Natürlich ist sie mehr wie mit Super Resolution mit Reflex ein. Aber wenn ich Reflex ausschalte, habe ich eine deutlich höhere.

01:01:57 Latenz. Also wir haben da Beispiele und ich habe die Zahlen jetzt nicht dabei. Aber wer sich wirklich mal den Spaß machen will, soll mal spielen ohne Reflex mit Super Resolution und dann Reflex einschalten und Multiframe Generation und ich habe teilweise eine geringere Latenz mit Frame Generation oder Multiframe Generation als ohne Reflex. Dann sagt natürlich der eine, ja, aber mit Reflex ist die Latenz geringer.

01:02:24 Ja, aber so kann ich ja spielen. Wer das mag, kann natürlich so spielen. Es fängt einen, niemand die Multiframe-Generation einzusetzen. Aber wenn ich damit happy bin, sage ich mal, ich spiele mit 70 FPS in Cyberpunk und sage, ja, die Latenz ist gut, das Spiel fühlt sich gut an, habe aber ein 240-Hertz-Display, dann schalte ich es ein und habe dann ein deutlich flüssigeres Bild. Und da kommen wir dann...

01:02:46 Da war dann die Eingangsfrage noch, was machen wir noch mit Multiframe Generation? Da machen wir noch sehr viele Sachen im Hintergrund. Wenn wir diese Zwischenbilder rechnen, dann haben wir ein Flip-Metering eingebaut. Was ist das? Flip-Metering bestimmt, sagen wir mal, ich mache jetzt einfach mal eine blöde Rechnung, 16 Millisekunden, 60 FPS. Ich würde da jetzt Bilder dazu einsetzen.

01:03:13 Das heißt, ich habe ein 16 Millisekunden Fenster. Das heißt, ich habe alle vier bis fünf Millisekunden, mache ich diese Zwischenframes rein und teile die so auf, dass sie möglichst in diesem Flow, der von meiner Bildrate abhängt, genau am richtigen Zeitpunkt dargestellt wird. Das konnten wir bei der 40er-Serie noch nicht mit Frame Generation. Da wurde der Frame gerendert und gezeigt und da hatten wir keinen Einfluss, wann...

01:03:41 der genau in der Pipeline angezeigt wird. Und damit konnte es ein bisschen, hat sich dadurch nicht so smooth angefühlt, weil man hatte zwar eine höhere FPS, aber irgendwie war es manchmal ein bisschen holprig, je nach Spiel. Und das haben wir jetzt geändert, dass wir das genau bestimmen können, wann diese Frames gezeigt werden und damit ich auch eine absolut smoother Framerate habe.

01:04:07 Du hast ja eben gerade die 40er-Serie schon angesprochen. Ist es denn denkbar, dass Multiframe-Generation dann für die 40er-Serie auch freigeschaltet wird? Oder sind doch die Kerne nicht stark genug? Das erforschen wir gerade. Also wir haben es jetzt optimiert zum Launch für die 50er-Serie. Es muss natürlich schnell genug sein. Das ist ja auch die Crew bei Frame-Generation. Wenn ich ab einer gewissen Bildwiederholrate, lohnt sich, bringt es nichts mehr. Weil ich habe natürlich eine...

01:04:35 eine gewisse zwei bis drei Millisekunden, die es braucht, um diese Frames zu generieren über AI. Wenn das darüber hinaus wächst, wird es natürlich ein bisschen schwierig. Und wir schauen uns das jetzt an. Technisch ist es natürlich denkbar, wie die Experience dann ist, gerade wenn es dann, sage ich mal, auf einer 4090 sicherlich denkbar ist.

01:05:00 Auf den kleineren Karten wird es dann irgendwann ein bisschen schwieriger von der Rechenleistung her. Also wir versprechen dort nichts, aber wir schließen auch nichts aus, was das angeht. Captain T Jack fragt, wie passen die geringen VRAM-Kapazitäten zu den neuen Features? Also Raytracing, Frame Generation, Transformer Model brauchen alle mehr Speicher.

VRAM-Kapazitäten und Neural Shaders

01:05:25

01:05:25 Transformer, also die Frame Generation, die neue, braucht sogar weniger Speicher. Wir haben das umgestellt, das Modell, braucht weniger VRAM. Und generell ist es so, dass das Thema Speicher dann aufkommt, wenn ich entsprechende Grafikfeatures extrem hoch setze in den Spielen. Zum Beispiel Indiana Jones ist so ein Fall, wenn ich den Texture Cache auf extrem setze, dann...

01:05:52 haut mir das den Speicher voll, habe aber eigentlich damit keinen wirklichen Vorteil im Gaming oder im Spiel oder in der Bildqualität, sondern es überfordert in dem Fall einfach, das Setting ist einfach zu hoch. Und wir bieten halt, also wir designen halt die Karten, dass es passt von der Performance her, von der Speicherperformance. Lieber schnelleren Speicher, dann haben wir die Features wie DLSS dazu. Und die...

01:06:20 Speichergrößen passen eigentlich perfekt zu dem Einsatzzweck. Wer unbedingt meint, er braucht mehr VRAM, haben wir dafür auch entsprechende Produkte im Portfolio. Zum Beispiel bei einer 5070, mir reichen die 12 GB nicht, ich möchte 16 GB haben. Wir haben eine 5070 TI im Angebot, die das dann entsprechend auch bietet. Und wir haben auch viele Beispiele. Wir sehen das ja auch intern, dass manche...

01:06:46 Ich kann natürlich Settings fabrizieren, wo ich sage, okay, irgendwann hat die Karte keinen Speicher mehr. Aber dann spiele ich es so oder so auf Bildraten, die bei 7, 8 FPS liegen und mit mehr Speicher bei der gleichen Rechenleistung der Karte, weil es ist ja auch keine 5070, keine 5090 vom Chip gesehen her.

01:07:07 Auch mit mehr Speicher würde sie nicht wahnsinnig viel mehr FPS schaffen. Und selbst wenn sie 11 oder 12 schaffen würde, wäre es immer noch nicht spielbar. Das heißt, ich muss einfach smartere Settings anwenden und eben auch Features wie DLSS verwenden. Wenn ich jetzt sage, okay, ich habe eine 5070, will 4K spielen, ist absolut problemlos möglich. Okay. Alex, du hast vorhin, glaube ich, nur Shaders angesprochen.

01:07:36 Ich glaube, das Wort ist gefallen. Ich erinnere mich dunkel daran. Ich habe das schon mal angerissen. Stimmt. Magst du einmal erklären, was für dich die Vorteile davon sind? Sowohl was Grafik als auch Performance angeht. Das ist noch schwer zu sagen. Wir müssen ja noch nicht in den Einsatz ziehen. Aber der große Vorteil ist, dass quasi diese Shader-Funktionen, die auf diesen Shader-Kernen ausgeführt werden,

01:08:00 typischerweise, die können jetzt auch auf die, lass mich korrigieren, wenn ich es falsch verstanden habe, aber die können jetzt auch auf die Tensor-Kerne zugreifen und dort eben dann kleinere KI-Modelle mit einbauen, die halt bestimmte Sachen beschleunigen, noch zusätzlich. Und das ist dann schon vorstellbar, dass das erstens mal die Schädelkerne entlastet und dadurch mehr Rechenleistung wieder frei wird für die.

01:08:20 wie wir vorher gesagt haben, in Anführungsstrichen native Rechenleistung. Und zum anderen geht es ja einerseits um die Texture Compression, aber da gibt es auch andere Sachen. Also zum Beispiel, das ist relevant bei Texturen zum Beispiel und generell Detailgrad von Objekten und so weiter. Das heißt, die Möglichkeit besteht, dass wir viel hoch aufgelöstere Texturen sehen, viel realistischere Texturen, die gleichzeitig vielleicht sogar weniger Speicher verbrauchen.

01:08:50 Und noch zusätzlich durch andere Funktionen, die auf den Neuron-Fallers ausgeführt werden, auch noch mehr Leistung sind. Also das ist schon potenziell alles möglich. Ich bin sehr gespannt darauf, wie es ist, wenn sie mal kommen. Ist natürlich jetzt schwer zu sagen. Wir haben jetzt noch kein praktisches Beispiel dafür. Gibt es noch nichts, aber es ist...

01:09:10 Ja, schauen wir mal, wie der Weg konsequent weiter geht. Es klingt auf jeden Fall ziemlich interessant, finde ich. Also technisch bin ich natürlich immer wahnsinnig begeistert von solchen Sachen. Da muss ich ein bisschen aufpassen, dass ich nicht zu sehr gehypt werde. Aber wenn ich sowas lese, denke ich mal, ja, ja, das klingt super. Es ist dann oft so natürlich, dass in der Praxis vielleicht nicht ganz so gut ist, wie man es sich zunächst mal erhofft hat. Aber oftmals ist es sogar noch besser als das, was man sich erhofft hat. Wir wissen, was auf uns zukommt. Ich sehe es auf jeden Fall als großen Fortschritt, weil

01:09:40 Das ist ja gerade, weil ich vorher schon gesagt habe, ich spiele Monster Hunter Burls und da ist wahrscheinlich die Texture Compression ein Problem. Warum dann oft die Leute, die spielen Cannons, vielleicht die Texturen laden, recht spät oft rein, das hieß das richtig und das liegt vermutlich daran. Und wenn man da, das wird ja quasi von, da bin ich mir nicht ganz sicher, von der KI auch entpackt, mehr oder weniger, glaube ich, oder?

01:10:03 Da täusche ich mich da. Später bei New World Shaders, meinst du? Ja, genau. Oder einfach definiert. Also die Möglichkeiten sind halt vielfältig. Also ähnlich, was mit vielen AI-Bildgenerierungsmodellen möglich ist. Also generell im Grafikshader kann man sich so vorstellen, dass dort Effekte beschrieben sind.

01:10:27 Das war ja die große Neuerung mit den GPUs, dass das alles programmierbar ist. Das heißt, ich kann mir eine Bump Map, eine Oberflächenrauheit, das kann ich mir programmieren, den Effekt, wie der grafisch aussehen soll und dargestellt werden soll. Und jetzt mit Neural Shaders kommen wir zu dem Punkt, dass wir AI-Modelle laufen lassen können. Ähnlich wie Bildgenerierung, ComfyUI oder anderes, da ich sage, generiere mir eine wunderschöne Holz.

01:10:53 Maserung oder ein Holzfußboden. Das kennen wir alle, wer mit Comfy UI, AI Tools spielt. Ich bekomme super hoch aufgelöste Böden dort, die genial aussehen. Und das Problem war, dass ich solche komplexe Shader...

01:11:08 nicht in den Shader-Code, in dem Shader-Programm ausführen kann. Und selbst wenn, dann würden Sie, wenn Sie normal auf den Compute-Cores, also auf den Shader-Cores laufen würden, halt entsprechend viel Performance verbrauchen. Die große Neuerung, die wir haben, ist, dass wir aus diesem Shader-Cores, also aus diesem Shader-Programm, AI-Modelle aufrufen können, die dann gleichzeitig parallel auf den Tensor-Cores, auf den AI-Cores.

01:11:35 mit der GPU laufen. Und da können wir dann richtig große, komplette, trainierte Modelle laufen lassen. Und können dann statt, wenn ich das als Textur machen würde, und das soll hochauflösend sein, mit vielen Details, dass ich jetzt statt 2 GB Texturdaten habe, habe ich einfach nur die Beschreibung und ich generiere mir das on the fly. Und ich spare mir einmal den Speicher, ich spare mir den Download. Und der nächste Schritt ist dann, ich kann doch ganz andere Effekte machen, die ich normalerweise...

01:12:05 hart programmieren könnte, was man mit AI, wie sich das transformieren kann. Also ich denke mal, da werden wir ganz geschichtige, surreale Geschichten. Es klingt wahnsinnig spannend. Ich glaube, wir könnten da noch zwei Stunden drüber reden. Wir müssen aber ein bisschen durchkommen hier mit den Themen, weil ich habe wirklich so viele Fragen mitgebracht und wir haben vielleicht sechs, sieben davon hier behandelt. Deshalb, das klingt alles...

Verschmorte Stromanschlüsse und Fazit

01:12:32

01:12:32 Unfassbar spannend und richtig technologisch einfach krass. Was weniger krass war, waren so Berichte über verschmorte Stromanschlüsse bei der RTX 5090 und 5080. Vielleicht haben wir auch Bilder davon, Regie. Vielleicht könnt ihr das mal einblenden. Was war da los? Was war da los? Generell ist es so, wir haben...

01:13:01 Alle Karten, die wir bisher zurückbekommen haben, waren eigentlich darauf zurückzuführen, dass irgendwas entweder am Kabel oder am Netzteil nicht gestimmt hat. Bei den Steckern generell ist es so, sei es ein 8-Pin, sei es den 12-Volt-High-Power-Stecker, gab es damals schon mit Aether eine neuere Version, die sicherstellt, dass der Stecker richtig eingesteckt ist.

01:13:28 Und es ist so, dass jede Karte kommt mit einem Adapterkabel vom Partner oder von uns. Und wir haben nicht einen Fall, wo das mit dem originalen Kabel passiert ist. Es ist so, ohne jetzt groß mit dem Finger zu zeigen, weil wir schauen auch, dass wir jetzt die...

01:13:51 User angesprochen, die davon berichtet haben, auch gesagt, schickt uns bitte eure Karte, euer Kabel und das Netzteil, ihr kriegt eine andere Karte und den ganzen normalen RMA-Prozess. Und es ist dann so teilweise, dass diese Kabel unterschiedlich fabriziert werden und gefertigt werden. Und darauf haben wir, sage ich jetzt mal, logischerweise keinen Einfluss. Zum Beispiel das eine Kabel, mit dem es losging, hat der Hersteller dann

01:14:21 gesagt für die 50-Jähriger, kauft bitte das neueste Kabel davon und nicht das, was wir vorher verkauft haben. Wenn jetzt natürlich ein User hingeht und das Kabel hatte, das in die einsteckt und sagt, das verwende ich jetzt und weil es passt ja und hat davor funktioniert für meine 4090, jetzt nämlich für die 5090, einmal können wir schwer sagen, was ist mit dem Kabel passiert, wie oft wird das rein...

Diskussion über Kabel und Stecker bei Grafikkarten

01:14:45

01:14:45 Im Testalltag, wenn wir mit den Karten rumhantieren und ständig eine neue, irgendwann leiern auch die Stecker ein bisschen aus. Das ist ein Faktor, was normalerweise beim Enduser nicht vorkommt. Mir ist noch nie irgendwas geschmolzen, dir wahrscheinlich auch nicht. Mir auch nicht. Und dann ist natürlich das Ding, dass man sagt, okay, ich habe eine Grafikkarte, ich habe einen Netzteilhersteller und ich habe ein Kabel von einem Hersteller, irgendwas, die ich miteinander verbinde.

01:15:13 und jetzt schmilzt mir das Kabel am Stecker, dann muss man halt schauen, was ist da jetzt die Ursache davon. Also die Grafikkarte ist es wahrscheinlich eher nicht. Und wenn wir den Fall hätten, dass wir sagen, okay, zum Beispiel haben wir den Punkt, dass bei uns im Stecker sind die verschiedenen Pins, die 12-Volt-Leitungen, miteinander verbunden am Stecker.

01:15:39 Jetzt gerade hier gesehen, können wir das andere Bild nochmal sehen, bitte. Genau, das ist von Roman. Genau, aber das ist eben das eine Kabel, was eben explizit nicht für die 50er-Serie verwendet werden sollte. Und natürlich wird dann ein Punkt heiß. Das kann aber mit dem mitgelieferten Kabel gar nicht passieren, weil da die Pins miteinander im Stecker verbunden sind. Das heißt, ich kann gar nicht zu so einem Hotspot kommen. Ein schwieriger Fall ist halt das, wenn Leute... Ich kann das mal...

01:16:08 Also von mir zählen, ich nutze für das aktuelle Testsystem ein ATX 3.0 Mainboard. Das hat den neuen 12-Wort zweimal, ich weiß jetzt nicht mehr genau, wie er heißt. Das unterstützt den gar nicht nativ. Also muss ich den alten hernehmen und ich bin immer so am fühlen.

01:16:24 Nein, passt schon von der Temperatur, da kann man schon noch arbeiten damit. Aber ja, ich kann ihm beipflichten. Ich habe es auch gelesen, ich habe einen Artikel dazu geschrieben. Es ist tatsächlich so, dass es die alten Kabel betrifft. Aber ja, was macht man denn jetzt natürlich? Das ist für jemand, der sich für eine 4090 1000 Watt Netzteil ATX 3.0 gekauft hat und will natürlich auch diesen schönen, einfachen, simplen 12 Volt Halbpower-Stecker hernehmen. Dann kaufe ich mir den mit dem Netzteil dazu.

01:16:51 Dann muss das Netzteil ein neues Netzteil kaufen unter Umständen. Oder gibt es dann auch Adapterkabel? Zum Beispiel von Corsair. Ich benutze bei mir, ich habe auch ein Corsair-Netzteil und habe dann auch den Adapter dazu. Je nach Netzteilhersteller bekomme ich die Kabel dann auch zertifiziert für dieses Netzteilmodell, wo ich dann die Freigabe vom Hersteller habe. Zum Beispiel Corsair gibt die Freigabe für seine Kabel. Auch getestet und dann habe ich dann kein Problem damit. Wenn ich jetzt, sage ich mir, irgendwo ein Kabel hernehme, egal ob der vielleicht...

01:17:20 einen guten Namen hat, weil in dem Forum habe ich gelesen, das ist ein ganz toller und dann kaufe ich mir das Kabel.

01:17:28 Dann gehe ich natürlich ein gewisses Risiko in dem Moment ein. Also wir liefern halt den Adapter mit. Wer den nicht möchte, dem kann ich nur raten, okay, dann schau dir dein Netzteil an, schau, ob es dafür ein entsprechendes Kabel gibt. Wenn es dafür kein entsprechendes Kabel gibt, würde ich eher dazu raten, dann nehmen wir den Adapter, der mitgeliefert ist. Weil damit hast du überhaupt kein Problem. Und wenn du halt ein Netzteil hast, was das kann, wie gesagt, ich habe mir auch...

01:17:55 Für meine Testsysteme mit Corsair-Netzteilen und ein Seasonic habe ich mir einfach beim Hersteller im Shop direkt das Kabel dazu gekauft. Funktioniert völlig problemlos. Das ist ja ein Standard. Das ist ja ein PCIe-SIG-Standard. Die Stecker sind standardisiert. Es muss natürlich nach dem Standard gefertigt werden und es muss auch getestet werden. Und es muss auch zuverlässig sein. Auch die Steckverbindung zuverlässig sein. Vom Kabel zu den Pins.

01:18:24 Und das ist natürlich auch eine gewisse Vertrauensfrage, dass das Kabel das auch hergibt. Und Asus, MSI, Gigabyte, die Bordpartner machen teilweise auch ihre eigenen Adapter dazu. Und die stehen dafür natürlich dann auch für die Qualität, die dann das Kabel dann entsprechend hat.

01:18:43 Jetzt kam hier im Chat so ein bisschen die Diskussion auf, als wir gerade die Bilder gezeigt haben, dass es ja Bilder von Roman sind, also von der Bauer. Und man da ja nicht wirklich davon ausgehen kann, dass er nicht darüber Bescheid wüsste und somit auch das richtige Kabel verwendet. Ja, bei Roman ist es ein Spezialfall. Das ist der Nutz, glaube ich, auch ein RTX 30 Mainboard und ein entsprechendes Kabel, also nicht das Neueste.

01:19:10 Und natürlich kommt er dazu, weil er hat ja den Fall bei sich selbst erlebt, dass ein Kabel dann so heiß wurde, was wahrscheinlich daran liegt, dass es halt wie beim Test bei mir auch so ist. Du steckst es halt permanent außen ein und irgendwann hast du halt irgendwie, dann greift der Kontakt nicht mehr so gut und so weiter. Das ist natürlich ein Problem des Weißroman auch. Ich sag mal...

01:19:34 Ohne da jetzt wertend zu sein, um da wirklich eine fundierte Aussage zu machen, bräuchte ich auch mehrere von diesen Kabeln, die ich teste und vergleiche, dass ich auch eine statistische Daten habe, weil das waren in dem Fall wirklich ein Kabel mit einem Netzteil. Und jetzt nicht irgendwie, ich habe noch mal ein neues Kabel bestellt, schaue, ob sich da die Temperatur ändert und messe das nach. Und ist natürlich auf jeden Fall...

01:20:03 wichtig, darüber zu sprechen. Und auch die Leute dann entsprechend aufzuklären darüber und sagen, hier passt bitte auf, was ihr da baut. Weil da geht natürlich schon einiges an Strom durch. Auch in so einem PC generell, so einem High-End Gaming PC. Und wenn ich mir die Sachen selber baue, muss ich halt auch selber dafür sorgen, dass ich hochwertige Komponenten habe. Kann ich als End-User natürlich nicht unbedingt testen. Da bin ich dann auch auf die Presse angewiesen oder auf den guten Namen von den Firmen.

Fertigungsfehler bei Grafikkarten und zukünftige Innovationen von NVIDIA

01:20:32

01:20:32 Aber das ist auf der einen Seite das, was wir so am PC-Gaming lieben und am Enthusiast-PCs so lieben. Aber es macht es dann natürlich auch schwierig. Okay, anderes Thema, beziehungsweise gleiche Kategorie, anderes Thema. Es gibt Berichte über so ein paar Modelle, da haben Render-Output-Units gefehlt. Wie konnte das dann passieren? Da lächelst du schon. Das ist eine gute Frage.

01:21:03 Also wir sprechen da von einer Manufacturing Anomaly. Fehler wurden gemacht. Fehler wurden dann erkannt. Warum der Fehler passiert ist auch und wie der Fehler passiert ist. Und es sollte aktuell eigentlich kein Thema mehr sein. Also der Fehler wurde erkannt in der Produktion. Betrifft auch nur die GPUs, die wir...

01:21:31 über die wir gesprochen hatten. Also weiß man ungefähr, wie viele Karten davon betroffen sind? Also es sind 0,5 Prozent. Es ist ja auch kein Geheimnis, auch bei einer 5090 ist es nicht der Vollausbau von dem Chip. Das heißt, es gibt immer Units, die nicht aktiv sind. Und das wird in der Fabrik festgelegt, welche Units aktiv sind.

01:21:58 Und welche nicht. Und damit wird dann dieser Chip definiert. Und ist natürlich je nach DAI und je nach Chip ein bisschen unterschiedlich. Und dabei ist ein Fehler passiert. Ein logischer Fehler, der gemacht wurde von Leuten. Und wie gesagt, dadurch ist der Fehler passiert. Es wurde alles richtig angewandt, aber in dem Moment falsch. Und damit ist das dann...

01:22:27 Was wir jetzt implementiert haben, ist sicherzustellen, dass das erst mal nicht mehr passiert und dass kein Chip, bei dem das potenziell passiert ist, überhaupt rausgeht. Das wollte ich gerade noch fragen. Das ist ja schon eine Frage der Qualitätskontrolle. Genau. Das haben wir also entsprechend, wenn wir sagen, wir haben das gefixt, auch in der Richtung gefixt und auch mit den Partnern und mit Screening und mit Tests.

01:22:55 Das heißt, jeder Bordpartner macht ja einen Test, Funktionstest, bevor die Karte dann rausgeht, gechippt wird. Die werden also eingeschaltet, werden getestet, funktioniert alles mit den Display-Outputs, werden alle automatisiert durchgetestet. Und auch da wird dann jetzt Sorge getragen, dass so etwas nicht mehr passieren kann. Okay, welche technischen Innovationen, wenn überhaupt, können wir denn so in den nächsten Jahren von NVIDIA erwarten?

01:23:24 Kannst du uns irgendwas verraten? Oder wie steht es um die RTX-60-Serie? Wie steht es um die RTX-60er-Serie? Au, die RTX-60er-Serie. Wenn sie denn so heißen wird, wer weiß. Unsere GPUs werden ja nicht nur im Gaming verwendet, kommen ja auch im Datacenter und Rechenzentren sehr stark zum Einsatz.

01:23:53 Was einem immer eine Idee gibt, ist die GTC, unsere GPU Technology-Konferenz, die wir einmal im Jahr haben. Die ist dann nächste Woche wieder in San Jose.

01:24:10 wo Jensen eine Keynote zeigt. Und dort wird natürlich sehr viel Neues vorgestellt, natürlich in Richtung AI. Auch im Datacenter, wo es hingeht, auch mit künstlicher Intelligenz, die ganzen Entwicklungen, Programme. Aber vieles, was wir dort verwenden, findet auch den Weg in Gaming, zum Beispiel DLSS-Upscaling.

01:24:32 ist eigentlich aus so einem Projekt entstanden, ist aus Bildgenerierung entstanden. Auch Frame Generation ist daraus entstanden, dass über Motion Compensation und über super Zeitlupen haben wir auch geforscht, zum Beispiel, dass ich ein normales Video habe, filme mit meiner Kamera und habe dann auch nur meine 30 Bilder pro Sekunde. Ich will jetzt aber ein super Slow-Mo generieren, habe den aber schon gefilmt. Und dann kann ich über AI die Zwischen...

01:24:59 Schritte mir generieren lassen. Das waren auch Forschungen, die schon vor vielen Jahren passiert sind. Ach krass, die dann jetzt quasi ausgereift entwickelt wurden. Ja, die Geschwindigkeit von den Chips ist halt so schnell. Vor Jahren war das so, hat man ja auch ähnlich mit Raytracing oder Pastracing, war es unmöglich zu sagen, ich kann das in Echtzeit machen. Das hat Stunden gedauert, Raytracing und Pastracing anzuwenden und über die AT-Kerne.

01:25:28 In dem Fall jetzt beim AI-Modell über die Tensorkerne wird der Chip so schnell, dass wir das in ein paar Millisekunden machen können und ausführen können. In einer Qualität, die früher nicht denkbar war. Und bei uns ist der Software-Stack, egal ob es jetzt Automotive, Datacenter oder Gaming ist, vom Chip und auch von CUDA, ist vollkommen miteinander kompatibel. Das heißt, alles, was wir entwickeln,

01:25:52 Alles, was andere Firmen und Forscher entwickeln auf unseren GPUs, ist potenziell nutzbar, natürlich auch fürs Gaming. Wir hatten zum Beispiel ein Beispiel gezeigt, das ist jetzt auch nur eine Vision, was vielleicht kommen könnte. Wir experimentieren auch viel mit, zum Beispiel ComfyUI, dass ich sage, ich will jetzt generieren mir eine Szene mit einem großen Kanal in Venedig.

01:26:20 In der Abendsonne generiert er mir ein Bild. Aber ich kann nicht sagen, wo die Kanäle laufen. Die laufen irgendwo. Jedes Mal, wenn ich generiere, sieht es anders aus. Da haben wir dann auch auf der CES ein Beispiel gezeigt, dass ich einfach nur eine grob gerenderte 3D-Szene habe mit ein paar Blöcken. Und sagt, jeder Block ist jetzt ein Haus.

01:26:43 Und das ist der Kanal und nimmt das als Anhaltspunkt, wo die Häuser stehen sollen. Und dann generiert die KI das dort. Dann kann ich ein Boot nehmen und einfach ein Schiff reinsetzen und sagen, da soll jetzt ein Schiff fahren. Dann macht er da ein Schiff rein. Wenn ich sage, ein größeres, macht er ein größeres. Wenn ich es nach rechts schiebe, bleibt es dort. Also es ist möglich damit auch, sage ich mal, in Zukunft auch in Spielen zusätzliche Inhalte zu generieren. Müssen nicht unbedingt jetzt im Vordergrund sein. Zum Beispiel denkbar haben wir mit Canvas.

01:27:11 auch schon Beispiele gezeigt. Das war dann für 3D-Raytracing, für Rendering-Programme. Wenn ich sage, ich habe hier ein Haus und generiere mir jetzt ein schönes Bergpanorama im Hintergrund, statt dass ich mir jetzt irgendwie Bilder suche in Google, generiert er mir das, die dann auch license-free sind, was dann auch wichtig ist. Und da wäre es zum Beispiel möglich, die Hintergründe...

01:27:34 in einem Spiel über AI zu generieren. Und dann auch vielleicht irgendwann, wenn es immer besser wird, auch im Vordergrund Sachen generieren. Was ist dann noch echt? Was uns dann auf diese Fake-Frame-Diskussion kommt, die dann eh lustig ist, weil das ist eh alles Fake. Wer mal sieht, wie so ein Spiel eigentlich mit den verschiedenen Schritten dargestellt wird. Aber das ist so ein bisschen die Richtung, die halt unheimlich spannend ist. Absolut.

01:28:03 Ich glaube, wir können da in den nächsten paar Jahren noch Großes erwarten, auch wenn vielleicht die physikalischen Grenzen mittlerweile so ein bisschen erreicht sind. Aber ich glaube, mit KI kann das irgendwie noch in eine ganz andere Richtung gehen, die wir uns vielleicht jetzt noch gar nicht vorstellen können. Ich danke euch sehr für diesen absolut spannenden Talk. Wie gesagt, ich hatte noch so viele Fragen, aber uns bleibt leider keine Zeit mehr. Danke, dass ihr dabei wart.

01:28:27 Der Chat kann gerne noch hier weiter dranbleiben, denn wir haben noch ein bisschen was für euch geplant. Wir gehen ganz kurz in eine Pause und dann schauen wir uns die Grafikfeatures der 5090, wenn mich nicht alles täuscht, mal in der Praxis an. Bis gleich.

01:34:53 Der Worte sind genug gewechselt. Lasst uns nun endlich geile Grafik sehen. Wir hatten gerade einen spannenden Talk hier bei GameStar Talk zum Thema Nvidia 50er Generation und deren Vorteile. Jetzt wollen wir euch noch ein bisschen mit Gameplay aus einem der allerschönsten Spiele überhaupt anbieten, nämlich Cyberpunk 2077, das wir hier im Studio auf einer RTX 5080 spielen.

Grafikeffekte in Cyberpunk 2077 mit RTX 5080

01:35:19

01:35:19 Es sei dazu gesagt, ihr seht das Ganze in Full HD, da kommt natürlich die totale Pracht, die diese Karte anbietet, nur bedingt zur Geltung. Das empfiehlt sich eher dann auf einem 4K-Display zu sehen, denn die Karten sind besonders dann stark, wenn die Anforderungen besonders hoch sind. Lars, du kannst uns hier bei einem kleinen Spaziergang durch Night City ein bisschen was über die Grafikeffekte erzählen im Spiel. Und wir stehen hier in Dogtown, das ist das Gebiet...

01:35:46 In Cyberpunk 2077 aus dem Add-on Phantom Liberty, das grafisch nochmal ganz schön aufpoliert ist gegenüber dem Rest der Stadt. Beziehungsweise es wurde hier sehr viel mit Neon gearbeitet und ist nochmal eine Ecke geiler als das Hauptspiel. Wir fangen hier mal an und wir machen, würde ich sagen, einen kleinen Spaziergang durch Night City und schauen uns mal an, was diese Grafikkarten...

01:36:10 Denn so können und wo denn die Unterschiede, die man normalerweise ja nur im Gespräch oder in Begriffen liest, DLSS und Frame Generation und so weiter, wo man die denn sieht. Vor allem Raytracing und Pathtracing wären hier wichtig. Also ich laufe jetzt einfach mal los. Ich habe das hart ausgeschaltet, damit ihr hier auch möglichst viel seht. Und wir sehen jetzt hier schon zum Beispiel eine Neonfront.

01:36:31 in Dogtown und wir spielen gerade mit der maximalen Qualität, also aktiviertem Raytracing mit allen Effekten und Path Tracing. Wo ist denn da genau der Unterschied, Lars? Bei Raytracing selber in Spielen ist es so, dass dort für verschiedene Objekte Raytracing angewandt wird, zum Beispiel wenn ich Fenster habe, Spiegelungen und so weiter, aber das komplette Lichtmodell noch auf einer normalen Rasterisierung.

01:36:58 Das heißt, ich habe Raytracing-Effekte. Bei Pastracing ist es so, dass der komplette Bildschirm quasi mit Pastracing, Raytracing gerechnet wird und ich damit ein globales Beleuchtungsmodell machen kann. Das sieht man hier ganz schön mit dem roten Licht. Das heißt, ich habe hier das rote Licht von diesen Neonröhren und alles ist ein rotes Licht getaucht. So wie auch in echt, wenn wir hier Lichter haben.

01:37:28 Bildschirm hinter uns an ist. Das ganze Licht, auch hier auf meinem Arm, reflektiert dann in den Farben, so wie es sein soll. Und das funktioniert mit Path Tracing halt sehr, sehr gut. Das heißt, ich habe ein fotorealistisches Beleuchtungsmodell und die Beleuchtung wirkt halt sehr realistisch. Das habe ich bei einem normalen Raytracing-Spiel nicht, weil da die Objekte nicht auf die Beleuchtung...

01:37:53 reagieren können. Ich habe dann quasi eine fixe Beleuchtung. Hier könnte man jetzt die Farben ändern von dem Neonlicht und die komplette Umgebung würde entsprechend reagieren und auch nur die Bereiche werden beleuchtet, wo das Licht auch wirklich hinkommt. Wir machen jetzt mal ein Beispiel. Also ich stehe jetzt hier auf dieser Brücke und habe diese Neonfassade vor mir und jetzt schalte ich mal im Menü um und schalte mal sämtliches Raytracing ab.

01:38:17 Damit ihr mal genau den Unterschied seht. Also Raytracing ist aus, Pathtracing ist damit automatisch auch aus. Und alles, was wir jetzt an Beleuchtung im Spiel sehen, ist sozusagen gebackenes Licht. Das heißt, man sieht jetzt schon, also die Neonröhren strahlen eigentlich.

01:38:32 Gar kein Licht wirklich ab auf dem Boden. Es gibt hier schon so ein paar Shader-Effekte. Und man sieht halt, die Neonröhren sind da und sie sind auch heller als die Umgebung. Aber wirklich diesen Leuchteffekt haben sie nicht. Und das rote Licht der Neonröhren strahlt auch nicht... Es blendet nicht. Genau, es blendet nicht, es strahlt nicht auf dem Boden ab. Das ist die Ur-Version von Cyberpunk. Man sieht es hier auch ganz gut. Das Ganze wirkt im Vergleich, ich werde es dann gleich noch genauer sehen, das wirkt vergleichsweise flach oder...

01:39:01 Flat, also es ist immer noch ein schönes Spiel. Man sieht hier hinten auch ein bisschen so Überstrahleffekte. Aber ja, so sah Cyberpunk ohne Raytracing auf den Konsolen aus. Und jetzt gehen wir hier mal in den Innenraum und schauen uns hier mal ein bisschen um. Also man kann natürlich, könnte jetzt hingehen als Spieleentwickler und diese Effekte simulieren, indem ich die Texturen vorfertige. Das geht aber in Cyberpunk wieder nicht, weil ich dort ja ein Tag-Nacht-Modell habe.

01:39:28 Und auch ein Wettersystem habe, was dann dynamisch reagiert. Da müsste ich halt als Spielentwickler, als Designer für jede Wetterlage quasi unterschiedliche Texturen vorbereiten. Und was dann teilweise auch gemacht wird in Spielen. Also es gibt viele Spiele mit reiner Rasterization und Screen Space Reflections, die sehr, sehr gut gemacht sind. Aber das resultiert dann auch einfach in dem Fleiß der Mitarbeiter.

01:39:57 Leute, um das dann zu generieren. Und selbst dann ist es einfach nur fix. Dann hätte ich zum Beispiel das Problem, dann habe ich immer noch nicht das Licht auf den NPCs, die dort rumlaufen, dann hätte ich es vielleicht auf dem Boden. Aber hier habe ich eben auf allen Objekten, die da sind, alles im Spiel, alles in der Szene mit der globalen Beleuchtung. Und das ist natürlich ein Riesenvorteil, auch als Game Designer, dass ich mich auf den Look...

01:40:20 einfach konzentrieren kann und auch mit dem Licht spielen kann, so wie es auch ein normaler Designer machen würde. Und in Filmen wird eben aus genau dem Grund auch Rate-Racing und Path-Racing verwendet. Also in der Filmindustrie, um diese typischen Szenen aus dem Computer zu generieren. Da ist es aber vorberechnet dann. Genau, da ist es noch mit einer viel höheren Genauigkeit.

01:40:45 Weil da ist es dann egal, ob das 10 Minuten braucht für ein Bild oder eine Stunde für ein Bild. Hier müssen wir das Ganze in ein paar Millisekunden generieren auf den RT-Cores. Das heißt, wir sind begrenzt in den sogenannten Bounces. Das heißt, wie viele Reflexionsebenen haben wir, wenn das Licht dorthin trifft. Dann sage ich, okay, das ist rot und danach geht der Lichtstrahl weiter und schaut sich an, wo treffe ich dann hin.

01:41:11 Das sind die sogenannten Bounces, auch mit Reflektionen. Da muss ich irgendwo ein Ende nach zwei, drei, vier Bounces sagen. Sonst wird das Ganze, ich kann das endlos komplex machen. Und es wird immer genauer und immer genauer. Und was hier noch dazukommt mit Path Tracing, ist dann der Denoiser. Der ist ja jetzt auch noch mal besser geworden, meines Wissens nach. Genau, mit Rave Reconstruction haben wir auch einen AI-Denoiser.

01:41:36 Da ist es so, dass bei Raytracing oder bei Pastracing gar nicht jeder Pixel gerendert wird. Es gibt dort, wer sich das für interessiert, kann mal ein bisschen googeln.

01:41:47 Bei den Neuser Raytracing. Das ist eigentlich ein schwarzes Krisselbild. Und dann benutze ich den Neuser, der die schwarzen Pixel auffüllt mit den Farben von den Umgebungspixeln. Man sieht das oder man sah das in frühen Raytracing-Spielen ganz gut. Gerade wenn man so spiegelnde Metalloberflächen angeschaut hat, die jetzt nicht direkt ein Spiegelbild gezeigt haben. Ich denke an Control zum Beispiel. Oder bei Spielen, die nicht so eine ganz professionelle Einsatz...

01:42:14 den höchstklassigen Einsatz haben, da sind gerade so spiegelnde Oberflächen, die haben oft so einen komischen fleckigen Grauschimmer drauf, der auch nachzieht. Also ein Licht geht an und dann braucht die Fläche ein bisschen, um nachzuziehen. Kannst du das im Detail erklären, Alex, woher das kommt oder was das die Neusing genau macht? Also das sind die Neusing, ja, wie er schon gesagt hat, letzten Endes hast du heute eine...

01:42:41 Du hast ja nur eine Punktwolke, quasi eine Annäherung an das eigentliche Bild. Und die Neuser füllt im Prinzip die Lücken einfach auf. Das heißt, die Rays, die Lichtstrahlen sind, werden gar nicht alle simuliert, sondern nur eine gewisse Anzahl, um dann näherungsweise den Rest dann aufzufüllen. Und auch nicht bei jedem Frame. Das ist das Interessante. Es gibt verschiedene Möglichkeiten für die Spielentwickler.

01:43:08 das Denoising zu machen. Entweder Sie machen es selbst. In der Nachtszene brauche ich einen anderen Denoiser wie in der Tagszene. Oder es gibt einen sogenannten Default Denoiser, den wir bieten, den auch jeder andere GBU-Hersteller bietet, die sich auch unterscheiden in der Qualität. Je nachdem, was der Spieleentwickler möchte und was wir jetzt hier neu haben, ist Ray Reconstruction.

01:43:35 Dort haben wir einen AI-Denoiser, der sehr viel schneller ist und auch mehr Daten hat. Funktioniert immer in Verbindung mit DLSS. Das heißt, wir haben den in dieses Upscaling mit eingebaut oder mit DLAA für maximale Qualität. Und man sieht das, also wer Minecraft ATX schon mal gespielt hat, da kann man das sehr gut sehen, wenn ich mir eine Hülle baue, die dunkel ist und jetzt schlage ich ein Loch in die Wand und da kommt ein Sonnenstrahl rein.

01:44:04 Dann dauert das so zwei, drei Sekunden, bis der Strahl dann in den Raum findet und plötzlich den Raum ausleuchtet. Einfach, weil der den Neuser so langsam ist, weil der erst alle paar Frames das macht. Es gibt Szenen in Cyberpunk, gibt es diese eine Szene, wo dieser beleuchtete Tunnel ist, wo sich ständig das Licht ändert. Und wenn ich den Standard-Denouser benutze vom Spiel, also nicht Ravey Construction, dauert es auch jedes Mal ein, zwei Sekunden, bis sich die Farbe geändert hat an der Wand.

01:44:33 Und mit Ray-Reconstruction geht das instant, weil wir da viel schneller und komplexer agieren können mit dem AI-Denoiser, der dann auch eingebunden ist. Da sparen wir uns ein paar Rechenschritte, weil wir den in DLSS mit einbinden. Wird ein bisschen technisch, aber funktioniert sehr gut, kostet eigentlich keine Leistung, teilweise sogar schneller.

01:44:54 Und sieht deutlich besser aus. Auch die Reflexionen sind höher aufgelöst. Und jetzt ist ja quasi auch, die Neuse nutzt jetzt, also Ray Reconstruction nutzt ja auch das Transformer-Modell jetzt. Genau. Das ist übrigens was, das ist mir daheim aufgefallen, ich habe nicht mal eine 50er-Karte, aber was das Transformer-Modell, man kann es ja über den Treiber auf alle Spiele im Prinzip ausweiten, auch die, die es jetzt nativ noch gar nicht so sehr unterstützen. Das ist ein Unterschied wie Tag und Nacht.

01:45:20 Ich habe seit letzter Woche das Gefühl, als hätte ich einen neuen Rechner. Es ist alles schärfer, smoother, kein Ghosting mehr und so. Wahnsinn. Eine Sache möchte ich jetzt hier noch zeigen, nämlich jetzt habe ich in der Zwischenzeit das Path Tracing mal angemacht. Jetzt mache ich es aber, ich lasse das Raytracing mal an, ich mache Path Tracing aber mal aus, weil das ist auch noch was. Okay, Raytracing ist das eine, aber...

01:45:43 Was der Unterschied jetzt eben ist beim Path Tracing mit der kompletten Berechnung. Also wir haben jetzt schon gesehen, okay, mit Raytracing, da haben wir jetzt schon das Gefühl, dass die Neonlampen das rote Licht auf den Asphalt abstrahlen und so. Aber hier zum Beispiel, jetzt gehe ich quasi aus dem direkten Licht raus. Die globale Beleuchtung. Genau. Und jetzt sehe ich hier, okay, es ist schon nicht ganz so plastisch mehr wie eben. Und dann schalte ich das Path Tracing nochmal an.

01:46:09 automatisch wirkt einfach die ganze umgebung wie aus einem guss und das ist halt dieser

Vergleich von Raytracing-Technologien und Ausblick auf zukünftige DLSS-Versionen

01:46:17

01:46:17 Ich habe auch den Schatten, der stimmt, der Schatten ist da. Auch unter der Bank und so. Jetzt versuche ich mal Reflexionen zu finden. Ich kann dir mal so einen kleinen Schwank aus meinem Leben oder meinen Freunden erzählen. Bitte gerne. Und zwar gibt es hier von Dune Awakening mittlerweile den Benchmark-Test. Und das nutzt Hardware und Software-Lumen.

01:46:43 Da mach mal Ray-Reconstruction aus. Genau, also ich komme gleich zu Lumen, Alex. Hier sehen wir so eine typische Pfütze. Und das war, also Reflexionen im Ray-Tracing, die kennen wir auch schon lang, aber die waren oft auch ein bisschen schemenhaft. Für alle, die da den Unterschied sehen wollen, wenn ich jetzt, ich mache jetzt mal die Ray-Tracing-Reflexionen erstmal aus und dann schalte ich noch die Reconstruction zu.

01:47:12 La la la, das ist hier oben, genau. Wo war denn das?

01:47:19 Ich mache Spray Tracing erstmal komplett aus. Denn wenn ich jetzt Screenspace Reflections habe, dann wird eben nicht die Umgebung korrekt gespiegelt, sondern es wird nur sozusagen der Bildschirmteil gespiegelt. Also hier sehe ich zum Beispiel oben am Bildschirm, da sehe ich jetzt die Palmen und diesen Obelisken. Was auf dem Bildschirm zu sehen ist, wenn ich nach unten schaue, dann in dem Moment, wo die Palme oben aus dem Bild verschwindet, weiß...

01:47:46 Die Engine auch nicht mehr, was sie eigentlich spiegeln soll. Und deswegen verschwindet das in der Pfütze auch. Seht ihr? Und jetzt habe ich halt gar nichts mehr. Also wenn ich als echte Person in diese Pfütze schauen würde, würde ich natürlich die Spiegelungen von den Palmen und diesem Obelisken sehen. Aber in dem Fall ist es ja nur ein Trick. Das ist eben Screen Space. Das heißt, er kann nur reflektieren, was im Screen Space dargestellt ist. So, jetzt machen wir das mal an. Lassen aber die Ray Reconstruction aus.

01:48:15 So, Frame Generation ist übrigens jetzt die ganze Zeit aus, weil bei der 1080p-Auflösung braucht die Grafikkarte das tatsächlich nicht, um auf eine vernünftige Zahl zu kommen. So, und jetzt sehen wir hier die Reflexionen. Aber wenn ich hier hin und her gehe, seht ihr schon, das schmiert so ein bisschen. Gerade diese Palmblätter, das ist also auch eine Näherung.

01:48:36 Das ist nur 1080p in 4K, sieht man das nochmal sehr viel krasser. Und jetzt schalten wir die Ray-Reconstruction an. Entschuldigung, das habe ich mir jetzt vertan, es tut mir jetzt leid. Das mache ich nochmal aus, damit man es genau sieht. Ja, genau. Und da ist es halt echt sehr unscharf und blurry. Klar, wenn du hier jetzt irgendwie einfach langläufst, dann merkst du es nicht. Aber wenn man genau hinschaut, dann sieht man eben den Unterschied schon. Und jetzt machen wir es nochmal an.

01:49:08 Ja, viele Sachen sind subtil und du merkst ja eigentlich erst, wenn du dann mal ohne spielst, gewöhnst dich sehr schnell dran, weil der Effekt realistisch rüberkommt und auch natürlich rüberkommt. Und man gewöhnt sich damit dran und sagt, irgendwann ist ja nichts mehr Besonderes. Bis zu dem Moment, wenn ich es ausschalte, dann plötzlich merke ich so, ups. Kommt auch immer aufs Spiel an. Also Cyberpunk ist natürlich der Goldstandard.

01:49:36 An Raytracing-Implementationen, die waren auch immer ganz vorne mit dabei. Ihr habt die sicherlich auch nicht umsonst immer gleich zu Rate gezogen, wenn es zum neuen Trailer ging und so. Die Jungs sind halt auch so enthusiastisch, was das alles angeht. Eben auch mit Frame Generation, als das aufkam, wo sie auch gesagt haben, sie machen da jetzt Path Tracing rein. Und auch die ganzen Updates, weil eigentlich wird die Engine ja gar nicht mehr verwendet in der nächsten Generation.

01:50:04 Aber wer die Jungs kennt, auch die Entwickler kennt, die lieben und leben dieses Spiel. Und auch die ganzen Details. Ich habe das Spiel jetzt dreimal komplett durchgespielt. In verschiedenen Setups, weil ich kann ja entweder mit Allguns Blazing, also vor allem mit Waffen oder als Netrunner praktisch auch mit...

01:50:32 AI und Technik oder ich kann auch mit Katanas, mit Messern und Schwertern und mich umbauen und dies und das und jenes. Und dann spielt man es einmal female, einmal male. Also das Spiel ist einfach und hat natürlich vier, fünf verschiedene Enden, die ich auch mal alle ausprobieren möchte dann oder sehen, wo ich mich entscheiden kann. Also ich habe, glaube ich, ich habe, glaube ich, ein Gigabyte.

01:51:01 Speicherstände. Alex, du wolltest noch was über Loomen in Dune Awakening. Weil es ja vorher gerade um globale Beleuchtung ging und wie viel das doch ausmacht. Und ich habe einen Freund, einen sehr guten Freund, die hat noch eine ältere Grafikkarte, die Raytracing auch noch für sich nicht kann. Also zumindest kein Hardware Raytracing unterstützt. Und wir haben uns von Dune Awakening den Benchmark angesehen.

01:51:29 Und er ging halt da durch und war total begeistert von der Beleuchtung. Und ich habe gesagt, ja, stell dir mal vor, du siehst da jetzt nur Software-Lumen. Jetzt, wenn es noch Hardware beschleunigt wäre, wäre das nochmal viel besser. Und er ist eigentlich so ein Mensch, der immer sagt, ach ja, Raytracing, das brauchst du ja eigentlich gar nicht. Und tatsächlich, wenn du das einmal so erlebt hast, Indiana Jones ist auch ein verdammt gutes Beispiel dafür, wie das mit Pathtracing dann ausschaut, wenn du dann durch diese Gänge gehst und so weiter.

01:51:57 Die Reflexionen, die Lichtverhältnisse, also das ist schon, ja man gewöhnt sich dran, aber man zieht sich nicht daran satt. Ja, das ist ja auch, ich sage immer, also für mich ist das auch eben das, was PC-Gaming ausmacht, weil ich mag da auch diesen Status quo nicht haben. Ich muss sagen, ich bin kein Konsolenspieler, weil mich da auch immer stört, wenn die Konsolen rauskommen, das liegt dann so auf dem Level von einem Mittelklasse-PC.

01:52:22 Fasziniert, was die Entwickler da... Ach, da ist er. Da steigen wir jetzt mal aus. Was da die Entwickler rausholen dann teilweise. Aber das Schöne am PC ist, du kannst das halt hochjagen. Das war damals mit Crysis so. Da hat es drei Hardware-Generationen gedauert, bis man das gescheit spielen konnte mit allen Features an. Und auch Indiana Jones ist jetzt ähnlich. Da kommen jetzt neue Features rein in das Spiel, wo ich sage, das kann ich nur, wenn da 5090 spielen.

01:52:50 Weil mit allem anderen geht das gar nicht. Genau, hier sieht man jetzt wieder... Ich mache jetzt mal wieder alles aus, damit wir sehen, wie flach das dann im Vergleich wirkt. Also da siehst du den Unterschied mit Ray Reconstruction dann gleich, wenn sich die Farben ändern, wenn du dann so eine Wand anschaust, wo die Farbe auftritt, dass das dann einfach immer kurz dauert. Also ihr seht schon, das ist jetzt ohne Ray Tracing. Das heißt, oben blinken hier...

01:53:17 hübsch die bunten Lichter, wie bei uns im Studio. Und auf der Straße ist davon aber nichts zu sehen, weil die Lichtstrahlen von den Lichtern nicht fest in die Beleuchtung auf der Straße draufgebacken sind, sondern das eine ist hier eine Textur, die im Prinzip blinkt und hier unten auch, aber das eine hat auf den anderen keinen Einfluss. Und bei Raytracing schicken wir jetzt die Lichtstrahlen, das ist jetzt natürlich ein etwas plumper Vergleich, aber die schicken wir jetzt von der Regenbogenbrücke nach unten.

01:53:46 Hier nochmal alles aus. Ray Reconstruction lassen wir auch mal aus. Also normales Ray Tracing. Halt, Moment. Ach genau, da schaltet er alles ein. Pass Tracing ist aus. Alles andere ist an. Ray Reconstruction ist aus. So.

01:54:05 Ja, es klimmt ein bisschen mehr. Man sieht, dass es ein bisschen Blendeffekt hat. Ja, aber viel mehr nicht. Und damit waren wir lange happy, bis wir es dann mit Path Tracing gesehen haben. Was mich halt so fasziniert ist, also der Unterschied ist ja das eine, aber dass es eben jetzt über die KI-Technologien gar nicht mehr so einen nennenswerten Einfluss auf die Performance hat. Das finde ich halt so krass. Also, dass du sagen kannst, okay.

01:54:33 Warte mal. Wer übernimmt es, sobald ich auf Anwenden gehe, schalte das doch ein. Okay, jetzt passt es. Das ist jetzt ohne Ray Reconstruction. Okay, da sehen wir jetzt schon das Licht. Aber das Licht braucht halt immer ein paar Sekunden länger. Genau, man sieht, wenn du ein bisschen runterschaust, da siehst du jetzt, gut, jetzt sieht man nicht, was oben ist. Aber die Farbänderung, die braucht halt immer eine Sekunde. Genau. Vielleicht gehe ich mal an eine dunklere Stelle, vielleicht sieht man es da besser.

01:55:01 Ja, genau. Also da ist jetzt auch kein direkter Bezug da. Man sieht ein bisschen links an dem Treppenhausen, an dem Boden, dass es ein bisschen die Farbe annimmt. Ja, bläulicher, jetzt wird es ein bisschen gliblicher. So, jetzt machen wir mal die Railway Construction. Aber der Denosa rechnet halt viel weg von diesen Details. Und deshalb kann Railway Construction da einfach, ist einmal schneller und kann halt noch viel mehr rausholen dabei. Also ist eigentlich ein ziemlich cooles Feature. So, und jetzt, genau.

01:55:28 Man sieht es jetzt viel intensiver, weil der Neuser das nicht wegrechnet. Er weiß, das soll da hin. Das ist halt das Schöne mit AI, das Ganze trainieren. Und es ist halt alles nicht fixt. Und selbst wenn er es mal falsch macht, können wir es neu trainieren und sagen, es soll eigentlich so, okay. Also das ist der große Vorteil an AI. Genau, das ist ja auch der Punkt jetzt mit DLSS, dass die Modelle, mit denen die Grafik schöner und schneller wird,

01:55:57 besser werden, ohne dass ich mir jedes Mal einen neuen Chip kaufen muss. Klar gibt es jetzt Multiframe Generation nur in der 5. Generation zum Beispiel, aber DLSS4 kann ich jetzt ganz normal über den Treiber auch auf 40er Karten aktivieren. Und es ist echt ein krasser Unterschied. Ich konnte es nicht fassen daheim. Ich habe das dann gemacht und dann so, was ist denn jetzt los?

01:56:21 Hatte ich jetzt die letzten Monate auf meinem Rechner irgendwie immer so 40 Frames und immer nur die schlechteste Upscaling-Qualität installiert? Was ist denn da jetzt passiert? Weil es halt auf ausgeglichen irgendwie so gut aussieht wie früher mit Qualität und trotzdem irgendwie schneller läuft. Und das Schöne ist, dass es halt auf allen RTX-Karten bis runter zu 20er ist.

01:56:41 Jetzt da mit dem neuen Treiber drin, also das ist nicht limitiert auf die Fünftiger. Ich werde mir zwar nochmal anschauen, wie es denn ist mit der 2060 und so weiter, wie gut es da funktioniert, weil das die Rechenleistung natürlich schon ein bisschen begrenzt von den Tensor-Kernen auch. Aber es ist schon, das ist auch was, was glaube ich jetzt viele Leute langsam merken, aber lange Zeit ist es ein bisschen übersehen worden, dass es ja eigentlich wirklich...

01:57:09 Wie viele Leute profitieren von der Technik? Wir haben intern Daten, wie viele auch das nutzen, also DLSS. Und da kommst du auf über 90 Prozent von den Xbox-Gamern, die das einschalten, weil einmal die Spiele haben es. Und wenn du wirklich einen Bildqualitätsanspruch hast und sagst maximale Bildqualität, dann setzt das eben hoch auf Quality.

01:57:34 Ich habe auch mit CNN eigentlich immer Quality gespielt und jetzt mit Transformer teilweise auch auf Performance. Einfach je nachdem, weil es auch die Displays jetzt gibt. Also ich habe jetzt auch schon testen ein 4K 240 Hertz Display und das ist einfach fett. Und wenn ich dann mit Multiframe Generation und ich drehe mich mit der Maus und es ist einfach smooth, das ist einfach...

01:58:00 Genial. Und die Latenz, du liegst dann bei 40 Millisekunden. Bei dem Spiel, bei so einem RPG ist das eine richtig gute Latenz. Es gibt schon so Einzelfälle, habe ich gesehen, das wird Endway 2 zum Beispiel. Das ist langsamer. Obwohl das Spiel auch an sich wieder ein bisschen verschluckt und schiert. Das ist je nach Spiel sehr unterschiedlich.

01:58:27 Jetzt möchte ich noch eine Sache kurz mal schauen, müsste es fast ein bisschen heller sein. Lasst euch mal über die Straße, ihr Penner. Genau, man sieht es immer ganz gut bei laufenden Personen. Denn da war es tatsächlich jetzt im alten DLSS-Modell so, da hast du halt hier an den Füßen vor allem bei den schnellen Bewegungen, da hast du immer so einen Schleier gesehen, wie so ein Schmierfilm, der hinter den Füßen entlang ging. Und das ist jetzt auch.

01:58:53 Genau. Das war der Punkt, an den wir kamen mit dem CNN-Modell, als wir gestartet haben mit DLSS. Also alle aktuellen Bildgenerierungs-AI-Modelle basieren auf dem Transformer-Modell von JetGPT und anderen, weil die einfach von Frame-zu-Frame-Abhängigkeiten besser...

01:59:17 generieren können und berücksichtigen können, was mit CNN nicht geht. Bei CNN kommst du irgendwann an das Problem, entweder hast du dann mehr Unschärfe oder du hast mehr Ghosting. Das heißt, je nachdem, wie du das trainierst, das Modell, also wer das kennt, weiß, es gibt ja unheimlich viele Versionen, sind jetzt auch im Override auswählbar, welche ältere DLSS-Versionen. Ich muss nicht mehr DLS kopieren, ich kann dann Modell J und K und L.

01:59:45 Databases, was ist was und kann dann auch umprobieren, welches funktioniert in dem Spiel besser, in dem Spiel besser. Aber irgendwann komme ich immer bei dem CNN-Modell zu dem Punkt, entweder du hast da mehr Ghosting oder du hast da mehr Blurriness und du kannst es einfach nicht mehr lösen. Und das können wir mit dem Transformer-Modell, können wir das alles umgehen. Das Transformer-Modell, auch da haben wir noch Optimierungspotenzial, aber da sind die Limitierungen völlig anders.

02:00:13 als beim CNN-Modell. Und die können wir auch alle angehen und werden die auch weiter optimieren. Aber viele von den grundsätzlichen Problemen, die wir mit CNN auch mit mehr Training nicht mehr lösen könnten, das haben wir jetzt eigentlich. Mit dem Transformer-Modell können wir das alles angehen. Also das ist ziemlich cool. Das ist ziemlich nice. Ich meine, wenn man weiß, wo man hinschauen muss, sieht man schon. Beziehungsweise mir geht es dann so, wenn ich irgendwas aufnehmen spiele.

02:00:39 Und schauen wir dann die Aufnahme an, dann fallen wir vielleicht Sachen auf. Aber das muss ich auch sagen, mit dem Spielen selbst. Da fällt mir einfach nichts auf. Und darum geht es ja eigentlich. Wir wollen ja eine schöne Zeit haben mit den Games in maximaler Qualität und was erleben. Ich habe das so oft in Cyberpunk, aber auch in Alan Wake 2 oder auch in Indiana Jones.

02:01:03 Und auch da ist es jetzt mit Ray Reconstruction, will ich es nochmal spielen, weil es jetzt nochmal das Wasser jetzt viel besser aussieht, was in Indiana Jones mir nicht so gefallen hat. Das stimmt, ja, da hat man schon Besseres gesehen, was die Reflexion angeht. Genau, das war mehr so eine Prühe und jetzt ist es plötzlich, klar, dem einen ist Geschmackssache, vielleicht sagen manche, jetzt ist es zu shiny, aber gerade solche Szenen, du schaust ja in die Stadt darüber.

02:01:26 Und das Schöne ist, wenn du dann die Uhr stellst und dann auf Tageslicht hast, dann hast du plötzlich alles im großen Sonnenschein. Das können wir ja immer schnell machen. Ja, weil das ist das Beeindruckendste. Da gibt es eine Stelle in Doctown, aber müsste auch hier jetzt so Sonnenaufgang. Genau. Hier so sechs Uhr, sieben Uhr. Ja, ein bisschen. Probieren wir es mal. Machen wir sechs Uhr. Ich wusste nicht, dass es geht. Ich habe, glaube ich, schon 150 Stunden in Cyberpunk.

02:01:53 Und du wartest immer einen halben Tag. Jetzt hast du den Sonnenaufgang und das Licht passt, weil die Schatten passen. Jetzt hast du eine völlig andere Stimmung. Und das ist halt das Coole, was du mit Past Racing hast, mit dem Time of Day, mit dem Lichtmodell. Die Schatten passen. Die Fahrer sind auch noch nicht wach. Ich bin aber auch selber schuld, wenn ich hier auf der Straße rumlaufe. So bin ich jetzt, sonst wo.

02:02:29 Dann doch wieder in die Kasse rein.

02:02:33 Aber auch da sieht man, das Tageslicht kommt so ein bisschen jetzt von oben rein, je nachdem, dass es dann so ein bisschen blendet, je nachdem, wie man schaut und alles. Ja, das ist schon extrem. Kannst du denn einen Ausblick geben, wenn ihr, du hast gerade gesagt, das Transformer-Modell ist natürlich auch noch ausbaufähig, womit man da rechnen kann bei den nächsten Generationen der Transformer-Modelle, also DLSS 5, 6, was auch immer. Also was ist der nächste große Step, den ihr angehen wollt? Oh, jetzt werde ich auch noch attackiert.

02:03:03 Ach, kann ich leider wenig zu sagen. Das sind die schönen Dinge, die bei uns entwickelt werden. Die haben wir voll unter Kontrolle. Da gibt es auch keine Leaks und irgendwas. Aber die Forschung geht da natürlich immens weiter in allen möglichen Richtungen.

02:03:30 Also kann ich jetzt leider nicht aus dem Nähkästchen... Hätte mich jetzt auch überrascht. In diesem kleinen Gameplay-Stream. Ich meine, der nächste Punkt, der kommt, das haben wir schon gezeigt, sind dann praktisch die NPCs. Die Konversationen mit diesen NPC-Charactern. Und das wird dann auch die große Kunst sein von den Game-Designern, das interessant zu machen, dass es nicht in Laberei ausartet, aber auch die Story weiterbringt.

02:03:56 Und weil sonst habe ich ja, das ist das Einzige, wenn ich das jetzt nochmal durchspiele, ich habe immer genau dieselben Konversationen mit den NPCs in den Missionen. Ich probiere da mal die anderen Antworten aus, aber da fehlt mir so ein bisschen die Variation. Ist man zuversichtlich, dass das von den Game Designern, wenn das Modell erstmal steht, dann auch korrekt eingesetzt wird? Weil ich glaube, das ist ja was, was Spieler sofort brechen.

02:04:25 Ja, also ich glaube, das wird eine Zeit brauchen, bis auch die Designer da den richtigen Dreh haben zwischen vorgefertigt und zwischen Interaktivität. Vielleicht wird es auch nur eine... Ich meine, du kannst das natürlich auch forcieren über dem Gespräch, dass du gar keine anderen Gesprächsthemen machen kannst. Das hängt natürlich auch ein bisschen von der Intelligenz ab, wie es gemacht ist. Natürlich wirst du es brechen können.

02:04:52 Aber dann verdirbst du dir eigentlich selber den Spaß. Dann ist die Frage, spielst du das Spiel jetzt, um zu beweisen, willst du jetzt Spaß haben und lässt du dich darauf ein? Das ist ja genauso wie dann, es gibt natürlich auch Chatbots, wo du durch die Stadt fliegst und nicht mehr rumfahren musst oder mit unendlich viel Ammo. Und kann man natürlich spielen, wem das Spaß macht. Aber das stellt den Reiz aus, sich auf so ein Spiel einzulassen, auf die Atmosphäre einzulassen.

02:05:21 Und gerade in Cyberpunk ist das... So eine Frage mal zwischendurch, die hätte ich ja nicht vorstellen sollen oder so. Siehst du eigentlich die Gefahr, dass Entwickler unter Umständen oder Publisher vielleicht den einfachen Weg gehen, weil es gerade bei den FPS und so und sagen, okay, ja gut, schlecht optimiert, wir klatschen DLSS und Frame Generation drauf und gut ist? Kann natürlich passieren, aber die Quittung...

02:05:48 Von der Community kommt dann garantiert. Ich meine, das ist halt auch das Produkt.

02:05:55 Ich sage mal, es kann nicht jeder so enthusiastisch sein wie jetzt CD Projekt Red und so viel Herzblut reinstecken und sagen, schon dreimal zu sagen, es gibt keine Patches mehr und keine Updates mehr und dann machen sie doch mal wieder was und verstecken auch noch ein Kartenspiel im Spiel und andere Details oder Edge Runner und bringen dann die Edge Runner Geschichten rein und du läufst durch das Spiel und plötzlich kommt die Musik und denkst, was ist hier und kenne ich doch.

02:06:23 Wir zeigen hier nochmal kurz wegen den Reflexionen. Dann haben wir es nämlich auch nochmal gesehen. Also Path Tracing mache ich jetzt aus. Und ich glaube, dann schaltet er genau. Und jetzt mache ich hier mal die Raytracing-Reflexionen erstmal nur aus. Also Raytracing-Licht ist dann noch an, aber die Reflexionen nicht mehr.

02:06:46 So, und da sehen wir jetzt wieder Screenspace, oder Cubemap ist wahrscheinlich da auch noch mit drin. Genau. Da sieht man halt, dass Teile dann ausgeblendet werden, wie hier dieses Licht zum Beispiel. Ein bisschen ist noch drin, ich weiß nicht, ob es ganz aus ist. Ja, schauen wir nochmal rein. Der merkt sich scheinbar auch nicht alles. Also Reflektionen sind aus, aber jetzt mache ich es mal ganz aus.

02:07:09 Und dann müsste man eigentlich bei den... Ja genau, dann hast du... Da ist hier das Green Space. Also das ist was sichtbar ist oben am Bildschirm und das geht raus, sobald ich es nicht mehr sehe. Und dann, naja. Zu Morrowind-Zeiten wären wir mit sowas auch happy gewesen, aber mit DirectX 8. Aber die Zeiten sind lang vorbei. Und jetzt, so sieht es halt vorhin aus. Und jetzt...

02:07:36 nochmal alles an. Dann haben wir gleich Path Tracing an. Ja, man muss schauen, dass noch alles eingestellt hat. Ray Reconstruction ist auch an. Okay. Ja, und dann sieht das halt so aus.

02:07:57 Und wie gesagt, ihr seht hier oben rechts die Frames. Ich habe jetzt auf 60 gelockt wegen der Sendestandard bei Twitch, 60 Frames. Aber das würde jetzt auch, ja kannst du schätzen, weil wir sehen es jetzt natürlich nicht mit der Karte hier in der 5080 in 4K60 mit allen auf Anschlag, DLSS 4 in Qualität oder Balanced. Mit wie vielen Frames können wir da rechnen? Da muss ich jetzt mal überlegen.

02:08:25 Multiframe Generation bist du so bei 180, 180, 190. Und kommst du auch mit nur DLSS schon ziemlich weit. Das ist ja auch zum Beispiel so als 4K, was man immer vergisst, also mit einer 50, 90 kannst du halt in Full HD, du brauchst ja gar nichts mehr einschalten und dann hast du dein Path Tracing, was eigentlich verrückt ist, dass das funktioniert. Ich sag den Leuten immer, also

02:08:54 Es hängt vom Monitor ab. Wenn ich ein 4K 60-Hertz-Display habe, brauche ich eigentlich mit nicht viel mehr Spielen als 60-Hertz, weil dann bekomme ich irgendwo dann Dropped-Frames. Das heißt, es fängt an zu stottern. Oder ich habe halt diese Tearlines drin. Wenn ich dann V-Sync ausschalte, dann habe ich natürlich mehr Frames, aber dann sehe ich auch immer die Artefakte. Und gerade bei so einem Spiel mit Bildqualität...

02:09:19 Also ich passe mir das halt so an, dass es mir für mich auf den Bildschirm passt. Dass ich irgendwo auf den maximalen Refresh Rate von dem Bildschirm hinkomme, das geht natürlich mal ein bisschen mehr und weniger. Und auch mit VAA, Variable Refresh Rate, dann Spiele entsprechend.

02:09:38 Ist natürlich in so einem Spiel, in einem E-Sports-Titel, ist es eigentlich wurscht. Da willst du einem, ob ein paar Tierlein sind oder nicht. Du willst alles auf maximal haben. Das ist nochmal was anderes. Aber da gibt es ja auch jetzt Monitor mit 540 Hertz. Full HD, 45 Hertz. Das ist ja Wahnsinn.

02:09:55 Das vergisst man ja auch immer, dass halt gerade die Refresh Rate auch nochmal ein Riesenunterschied ist, weil viele sind ja immer noch dieses so, ja, spiele ich in 30 oder 60. Gut, die meisten werden wahrscheinlich in 60 spielen, außer Konsolenspieler, die dann vielleicht noch den Qualitätsmodus mit 30 Frames nutzen. Und eigentlich ist ja so ein bisschen in der Wahrnehmung, okay, mit 60 Frames, dann ist das Spiel flüssig. Man gewöhnt sich dann aber doch auch.

02:10:17 schnell an Frameraten jenseits der 60. Das trete ich mal ganz schnell im Kreis. Hier zittert so ein bisschen nach, was auch an der Verkabelung liegt. Und das, dann verschmiert es auch ein bisschen. Ich habe die Dings auf niedrig gestellt, den Motion Blur. Aber wenn man dann einmal jetzt was in der Qualität mit 120 Frames stabil gesehen hat oder auf einem G-Sync Display oder sogar noch drüber hinaus oder wenn man halt...

02:10:45 Je nachdem, was die Karte halt feuert, teilweise mit über 240 Frames und das Display, das dann auch gesüngt, dann schauen auf einmal die 60 Frames schon langsam und schmierig aus. Also ich habe jetzt seit einiger Zeit, seit einigen Wochen ein 4K 240 Hertz OLED daheim. Das ist völlig verrückt. Also wenn man so daneben so das andere Setup sieht, kommt es davor, als wären das zehn Jahre in der Zukunft oder so.

02:11:11 Ja, das ist auch noch was, das sieht man jetzt hier im Stream leider auch nicht so gut, was allein gut implementiertes HDR nochmal ausmacht. Also gerade bei Sonnenlicht, das macht nicht jedes Spiel gleich gut, muss man leider dazu sagen, so Avowed zum Beispiel macht es nicht gut. Da ist die Sonne trotzdem hellgrau, wenn man helle HDR-Sonnen gewohnt ist, aber Cyberpunk. Also wenn du auf dem OLED-Display nachts durch so eine Neonstraße gehst mit HDR, das ist einfach krass. Und da gewöhnt man sich auch nicht dran. Ich habe jetzt, wo das Setup soweit steht, und...

02:11:38 habe ich mir vorgenommen, jetzt nochmal ein Komplett von vorn anzufangen. Ich habe es noch nicht mal einmal durchgespielt. Ich möchte jetzt nochmal mit der jetzigen Qualität so einen Komplett ohne Hard wie jetzt hier so einen Full Immersion Run zu machen. Ja, das ist das Schwierige bei dem Spiel, das Durchspielen, weil du spielst es durch und hast aber dann eins von fünf verschiedenen Enden. Du hast allein mit Phantom Liberty, waren es jetzt drei oder vier verschiedene Enden? Allein Phantom Liberty kannst du auf vier Arten lösen.

02:12:06 Oder abschließen, lösen ist nicht spoilern, aber auch das komplette, den Hauptpfad. Und dann gibt es dann noch den Pfad, da bin ich zurückgegangen mit meinen ganzen Gameplays. Das ist da bei Johnny Silverhand, wo du sein Grab besuchst. Und wenn du den richtigen Dialog hast, dann kannst du später bei einer Schlüsselszene, wenn du die richtigen Dialoge wählst, dann plötzlich eine Wahl.

02:12:35 Ich will jetzt nicht spoilern, aber du hast noch eine weitere Möglichkeit, das ganz alleine hinzugehen. Das macht es dann noch mal viel, viel schwieriger, da durchzulaufen, je nach Schwierigkeitsgrad, den du eingestellt hast. Aber das sind halt so Sachen, das merkst du dann hinterher, hast du ja schon gespielt. Du hast dich da aber anders entschieden in dem Dialog. Also such die alten Savegames noch mal raus.

02:12:56 und gehst dahin. Da gibt es dann aber auch Mod-Tools, wo du dann deine Save-Games editieren kannst, dass du damals die Entscheidung anders getroffen hast. Dann ist es dann doch enabled und solche Tricks. Das Spiel ist einfach... Ich liebe dieses Game. Also ich werde es auch noch mal spielen. Das muss ich noch ergänzend sagen. Es sieht so aus, als wenn ich die Uhr nicht verstellen könnte.

02:13:19 Also 150 Stunden habe ich deswegen drin wahrscheinlich, weil... 140 Stunden nur gewartet, dass das eine neue Tageszeit ist. Das ist als mein Hauptbenchmark. Oder kannst du nochmal nach Doctown gehen und da, wo die Kneipe ist... Da musst du mich hinleiten, weil ich habe jetzt so lange nicht mehr gespielt, ich weiß nicht mehr genau, wo die Kneipe ist in Doctown. Die ist da oben rechts, da wo... Ach ja, da ist die Bar. Die Pyramide meinst du? Ja. Gut, dann fahre ich jetzt zur Golden Pacific.

02:13:47 und muss hier zur Schnellreise einfach rechts die Straße runter. Also das muss ich jetzt noch sagen, weil unbedingt wichtig. Ich nehme Cyberpunk zum Benchen her und drum habe ich so viele Stunden drauf, aber noch nie gespielt. Ja, okay. Genau, ich bin also völlig unschuldig, dass ich mich nicht auskenne. Ich spiele jetzt genau mein eine Savegame seit dem Launch Ende 2020.

02:14:08 Und jetzt bin ich erst richtig in Phantom Liberty reingekommen. Ich spiele immer tausend Sachen gleichzeitig und komme deswegen nicht recht voran. Aber jetzt seit ich das in der Qualität eben jetzt gesehen habe, sind alle anderen Spiele wieder so unwichtig geworden. Und jetzt gehe ich dann zu der Pyramide oder zu dem? Nee, unten links war es. Ich habe mich vertreten. Das ist die andere Bar, genau.

02:14:33 Wobei das diese eine Bar im Hauptspiel noch, das ist jetzt also noch ohne Raytracing und Pathtracing, das schaut jetzt schon echt flach aus. Schauen wir das mal an hier. Schreibt man es nochmal ein. Und das Neon leuchtet halt auch nicht. Diese erste Bar, wo man reingeht im Hauptspiel, diese grüne, mit so grünem Neondicht und so, das ist auch da die Spiegelungen und so weiter.

02:14:58 Ach der Wahnsinn, so hat man wieder alles an. Genau, aber wenn du noch einmal mit dem Schnellding gießt und... Achso, nochmal mit der Schnellreise.

02:15:08 Oder komme ich da unten? Ja, genau, da unten. Oder hier? Nee, unten links. Ich kann auch schnell runterlaufen, die Straße. Ja, oder so. Wo bin ich denn jetzt gerade? Bin ich nicht hier? Ja, genau, dort. Achso, und dann gehe ich jetzt nach wohin? Darunter, genau. Dort einfach geradeaus.

02:15:48 Weil dort ist so eine Szene, wo die ganzen Kerzen angezündet sind. Ah, an dem Baum? Ja, genau. Da, wo die Verstorbenen und was weiß ich. Und da kannst du die Tageszeit ändern. Das sieht dann so krass aus, wenn du die Nachtszene hast.

02:16:06 Genau, da geht es dann rein. Gut, dass du noch länger geblieben bist. Ich hätte mich nie so gut ausgekannt in Cyberpunk. Ich verlaufe mich auch immer noch. Aber stimmt, die ist hier unten irgendwo, die Bahn.

02:16:20 Da gab es die Stelle, da ist dann eine Mission vorbei, die in der Bar spielt und man kommt raus. Und bei mir war es da spät nachts und total neblig. Und dann bist du da so durch den Nebel geschlappt. Genau, da müssen wir rein. Und hast eigentlich nur die Lichter erst gesehen, wenn du neu herangekommen bist. Ein bisschen hier wie die Allianz Arena, wenn sie nachts leuchtet und du kommst mit dem Auto an die Autobahn, wo du dann auch erst nur so einen roten Schimmer siehst und dann irgendwann siehst, ah ja genau, hier ist es.

02:16:48 Genau, und da ist dieser Baum, wenn du dann irgendwo kannst du da rechts... Ja, die Kerzen brauchen ein bisschen, bis wir ins Bild kommen. Genau, wenn du irgendwo rechts hoch gehst, da kannst du da hinten vor die Bar, wenn du da die Treppe hochgehst... Hier auf. The Moth.

02:17:08 Genau. Und dann diesen Baum anschaust. Das ist so die Szene jetzt. Ich weiß jetzt nicht, wie viel Uhr es jetzt ist. So spät Nachmittag, 17.44. Genau. Und wenn du jetzt die Uhrzeit änderst auf jetzt Nacht. Ja, machen wir mit der Nacht. Ja.

02:17:23 Da sind dann die ganzen Lampions jetzt noch an. Ja, genau. Aber das ist so krass, der Unterschied. Das kann man einfach nur feiern.

02:17:45 Tage verbracht mit diesem Spiel, Wochen. So, man sieht also den Nebel sieht man schon noch ein bisschen? Ja, genau. Das spielen sie mit dem Effing. Und jetzt nochmal alles an und dann...

02:18:03 Haben wir, glaube ich, ausführlich gezeigt, was es denn bringt. Und was wir euch jetzt hier eben nicht so gut zeigen konnten, war, was es denn frameratenmäßig bringt. Weil, wie gesagt, hier Full HD und kein DLSS und so weiter notwendig.

02:18:18 Aber schaut euch das mal, wenn ihr könnt, irgendwo auf einem 4K-60 oder 4K-Display an. Idealerweise OLED und idealerweise mit hoher Herzzahl. Und die Grafikkarte wird dank der KI-Unterstützung damit keine Probleme haben. Ich kann nur sagen, ich spiele es gerade daheim nochmal. Ich habe keine 50er-Karte, aber eine 40er und habe alles auf Anschlag. Und es ist wie ein neues Spiel in einem Rechner, den es noch nicht gibt. So fühlt es sich zumindest an.

02:18:48 Ja, ist schön. Gut. Danke, Lars, für deinen Besuch bei uns. Danke, Alex, für deine Sachkenntnis. Wenn ihr mehr zum Thema Nvidia oder Grafik wissen wollt, besucht gerne die GameStar.de. Da ist unsere Tech-Redaktion immer dabei, euch mit den neuesten Infos und Hintergründen zu versorgen. Und wir sind gespannt, was die Zukunft bringt für euch und für uns. Wir arbeiten dran. Vielen Dank.

02:19:15 Danke fürs Zuhören. Danke für eure Zeit. Tschau.