Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano (edytowane)

Jak dla mnie to kiepsko to wygląda. Taka technologia do usuwania "magii" z gier.

 

Jeśli to się przyjmie to wygląd gry będzie zależał od tego jakiego producenta GPU mamy. No bo skoro to zamknięty model to każdy będzie miał inny.

Ciekawie też będą wyglądać testy kart.

 

Ale najbardziej mnie bawi to, że NV może sobie szykować na siebie gilotynę. Wejście na rynek GPU w obecnych czasach jest trudne co pokazuje przykład Intela. Ale jeśli przyszłość renderingu będzie się opierać na genAI to być może pojawi się więcej graczy na rynku GPU np. z Chin.

 

Edit: Tak nawiasem mówiąc cos mało ruchu na tych prezentacjach. Ciekawe czemu...:D

Edytowane przez elcaco
  • Odpowiedzi 1,9 tys.
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Top użytkownicy w tym temacie

Opublikowane grafiki

Opublikowano (edytowane)

Będąc realistą- nawet jak ten Neural Rendering już wyjdzie, to na początku dla większości i tak będzie tylko ciekawostką.

Żeby to było "dla ludu" to musiałoby względnie śmigać na karcie pokroju RTX5070.

Na razie chodzi na 2xRTX5090, bo jedna 5090-tka (która ma 3.5 raza mocniejszą speckę od 5070) nie wyrabia.

Zwykła optymalizacja raczej nie wystarczy by aż tak poprawić wydajność tej technologii do jesieni.

Edytowane przez Paw79
Opublikowano
2 godziny temu, Kadajo napisał(a):

Wiadomo już tez ze cala technologia będzie się opierała na jednym, uniwersalnym modelu.

Co tłumaczy, dlaczego wszytko po włączeniu DLSS 5 nagle wygląda podobnie i ma ten poziom "Doliny niesamowitości".

To jest zasadnicza wada tego rozwiązania bo każdy ma inną mimikę/ekspresje twarzy. Niby twarze inne, a jednak takie same ;)

Opublikowano (edytowane)
1 godzinę temu, elcaco napisał(a):

Edit: Tak nawiasem mówiąc cos mało ruchu na tych prezentacjach. Ciekawe czemu...:D

Przyjrzyj się dokładnie pomimo, że ruchu niewiele to jest kapota i do tego masz jedno ujęcie twarzy.

 

To teraz wyobraź sobie jak będzie festiwal śmiechu jak pokażą to w całej okazałości :E 

 

@znaFca

Nie ma i nie będzie ;)

 

Edytowane przez sideband
  • Upvote 1
Opublikowano
W dniu 17.03.2026 o 18:30, znaFca napisał(a):

Ogólnie dlss 5 vs rzeczywista aktorka, daje trochę inne spojrzenie na sytuację. 

 

20260317_182316.jpg.75e644fdc8cde9970f7cdb073dae8d5c.jpg

Zdecydowanie lepsza ta z prawej. Ta z lewej dała tylko twarz, aktorka z niej żadna.

 

a7374d65534880863432c051fa1d971cef96327b8758230bea64733385dc63cew800.webp.430d6a25d76caa123eb36c59fe819b41.webp

 

IMG_20260318_205353.png.3b67488325f3eec48f81eac68bad6bb1.png

 

IMG_20260318_205428.png.cd6916c2a3968ca316a4c9a6255e622f.png

  • Haha 7
Opublikowano

Zaraz superki od karty za 3k wjedą do grona 4090, 3090/ti i titan rtx titan v ceo edition:D

 

1 godzinę temu, Ryszawy napisał(a):

Przecież taki model będzie musiał siedzieć w pamięci VRAM cały czas, a będzie to pewnie kilka giga, a my aktualnie jesteśmy na etapie "16GB to wypas", bo Nvidia od trzech generacji właściwie nie dodaje do kart więcej pamięci, a te z rozsądną ilością VRAM, czyli 96GB sprzedaje w cenie samochodu. Plus kryzys w pamięciach, bo bańka AI. Z czym do ludzi?

 

Opublikowano
3 godziny temu, Paw79 napisał(a):

Będąc realistą- nawet jak ten Neural Rendering już wyjdzie, to na początku dla większości i tak będzie tylko ciekawostką.

To jest najtrudniejsze do przełknięcia dla ludków, pokazy tech są bez sensu bo nie pójdzie na 5050 albo jeszcze nie działa idealnie w jakiejś tam wczesnej wersji ;)

 

A to dopiero ledwo kropelka genAI, deszcz dopiero nadchodzi..  :D

  • Upvote 1
Opublikowano (edytowane)
1 godzinę temu, Wu70 napisał(a):

To jest najtrudniejsze do przełknięcia dla ludków, pokazy tech są bez sensu bo nie pójdzie na 5050 albo jeszcze nie działa idealnie w jakiejś tam wczesnej wersji ;)

Nie przesadzaj. Taki ton pasowałby do roku 2004, jakby ktoś pisał, że Shadery SM 2.0 są bez sensu bo przecież na Geforce MX 440 tego się nie da odpalić. Już dwa lata później najtańszy złom za 350zł w sklepie sobie z tym świetnie radził z palcem w wentylatorze.

Teraz jest zupełnie inaczej.

 

Rozpisałem się, to zwinę jak ktoś nie ma ochoty czytać:

Spoiler

Ale teraz mamy sytuację, gdy według niektórych (np. mnie) technologia ogłaszania jako wspaniały, wielki cudowny przełom, nie jest używalna na czymkolwiek poniżej karty za 17000zł, a i na niej tak nie do końca. Ja rozumiem, że są osoby, które odpalą path tracing na RTX 4060 i będą mówić, że bardzo ich to cieszy i tak wolą grać. Ale ogólnie chyba się zgodzimy, że opinie są różne i każdy ma prawo do swojej.

 

W przypadku AI możemy obserwować jeszcze większy falstart. Wady jakie niesie ta "Cudowana przyszłość" też mogą być nawet większe niż wady włączenia PT w grach. 

Nie wiadomo czy bez nieakceptowalnego regresu choćby w jakości obrazu w ruchu da się z tym pograć przed 2030tym. Nie wiadomo nawet czy przed 2040tym. 

A co jeśli to wymaga np. 10-20GB RAMu jak sugerował MLiD po rozmowach z ludźmi z branży? Co wtedy, skoro żyjemy w świecie, w którym Nvidia przy śmiesznych cenach RAMu skąpiła nawet 4GB do kart 60 i 70? A teraz ponoć do 2029-31 albo i dalej mają utrzymać się chore ceny.

 

Do tego jak słusznie zauważył HU, skąpienie RAMu oznacza niszczenie gier, bo lepsze tekstury mogą mocno poprawić grafikę w grze bez żadnego niemal spadku wydajności. A jak tu dodatkowo jeszcze będzie hamulcem wykrojenie na Ajaje, to tu też gry i gracze "ucierpią". 

 

 

Oceniamy krytycznie bo to ma debiutować w tym roku w jakiejś tam formie, ale nawet jeśli technologia otrząśnie się z wszystkich wad i przyniesie ogromne zalety, o których nam się dziś nie śniło nawet, ale za 20 lat, to i tak mamy prawo ziewać i pisać, że o kant dupy to potłuc ;)

Kwestia perspektywy, z jakiego punktu na to patrzysz, o czym konkretnie mówisz/piszesz.

 

BTW. W filmiku Digital Foundry (tym z dzisiaj) jest przykład "tone map corrected" bez tego przebłyszczenia i podbicia kontrastu. No i OK, nie ma tego "efektu Ajaja" tylko że... i różnicy też wtedy już prawie nie ma.

A przy okazji, zęby mnie rozboły jak słuchałem Łysego Ridża. No po prostu mam przed oczami sprzedawcę garnków albo PRowca, który przygotował sobie co ma mówić, aby wypaść dobrze. Sztuczność, kłamstwa, bzdury. Bleeeerrhh :miotacz:


Ja się zainteresuję tą technologią jak w szybkim ruchu będę widział obiekt w grze a nie gówno przelatujące przez wentylator i o ile nie zamieni to lokacji w grze w nudę jaką mam bez żadnego RTXa za oknem, bo mnie realizm nie interesi kompletnie.

Natomiast fajnie by było zobaczyć gry trenowane na grafice na silniku gry, ale z taką ilością detali że 7090Ti 96GB miałby 0,1fps np. skomplikowane szkło, dla którego przydaje się tyle promieni i obliczeń, że nawet 5090 z najlepszych denoiserem potrzebuje więcej niż sekundę na jeden tylko mały stolik z kilkoma dzbankami. 
Od nastu lat się zastanawiałem nad wykorzystaniem większej ilości pamięci do nakładania video do przykrycia braków np. na dalszym planie. AI może to robić ekhem.. inteligentniej. ;) 
jest ogromny potencjał w technologii. 

Widzę zastosowania dla Ajajów w grach, które mogą wyjść na plus. Ale ten DLSS5 coś mi wygląda (obym się mylił) na większy falstart i zły kierunek niż nawet RT w 2018r.  Idąc za Twoim przykładem - to nie ludzie z 5050tką mogą marudzić, a ludzie z 7070, a to już będzie problem, a nawet problem.
 

 

Edytowane przez VRman
Opublikowano
7 godzin temu, VRman napisał(a):

Teraz jest zupełnie inaczej.

Dokładnie tak samo. To samo widzą przy okazji zapowiedzi każdej większej premiery od NV ;)

 

Najlepiej żeby było jak było, no co prawda potem i tak narzekają że ciągle jest to samo :D

 

Od dawna pisałem że potrzebna jest rewolucja w metodologii tworzenia gier żeby przebić ścianę i marazm w jakim tkwimy. To jeszcze nie rewolucja ale krok dokładnie w tym kierunku.

 

Ja chcę jeszcze zobaczyć coś ciekawego a nie ciągle to samo. Człowiek dłubiący teksturki to jest zmarnowany potencjał tej istoty.

 

7 godzin temu, VRman napisał(a):

technologia ogłaszania jako wspaniały, wielki cudowny przełom, nie jest używalna na czymkolwiek poniżej karty za 17000zł

"Gdzie problem?" ;)

 

Niech się technologia rozwija, nie ma jeszcze ustawy na przymusowe wdrożenia.

 

To samo z tym ruchem, przecież to kompletne nieporozumienie. To jest topka graficzna, w zasadzie wczesne tech demo, tu nie liczy się nic poza grafiką. To nie ma żadnego znaczenia że na 4060 nie pójdzie w 120fps.

 

RT, PT też nie pójdzie a nadal można grać w szybkie gry.

 

Mam nadzieję że będzie zużywać właśnie bliżej 20GB niż 10GB Vramu bo to zmieni tylko tyle że wcześniej zobaczę pokaz możliwości. 

 

W praktyce zetną to w dół do dowolnych ilości, po prostu jakość spadnie i dłużej poczekasz na pełniejszy model.

 

Mogą też zdecydować się na model w kilku wersjach ale raczej wątpię chociaż byłby to fajny ruch jakby 6090 dostała 32-48GB Vramu i mogła załadować coś potężnego :D

  • Upvote 1
Opublikowano

Od czasu DLSS 3 Nvidia wrzuca pod jeden slogan nowe technologie.

Frame Generation tez masz nazywane DLSS a przecież z DLSS nie ma nic wspólnego.

 

W opcjach gry to się pewnie będzie nazywało Neural Rendering i w ten sposób będziesz to włączał, tak jak teraz (M)FG.

 

Opublikowano (edytowane)

Chciałem zauważyć, że to nie tylko "ulepszanie postaci", na czy się wszyscy skupili, to ma także zmieniać oświetlenie całej sceny, co było widać na tych materiałach.

Ja po prostu tego nie widzę, bo nie było ostatnio jakiegoś super przełomu, jeżeli chodzi o modele zajmujące się generowaniem grafiki. Mam ich trochę na dysku, do robienia tego lokalnie. Nowsze zajmują od 12 do 23 GB, starsze 6 GB, te najstarsze to 2 GB, ale ich właściwie już się nie używa.

No, ale Nvidia ma super rozwinięty dział nowych technologii, więc może coś tam upichcili.

Edytowane przez Ryszawy
Opublikowano

Odrózniajmy materiał marketingowy od procesu produkcji gry. Bo zrównujecie reklame i produkcję gry, która dlss5 nie ma, bo i samego dlss5 nie ma. A się rozwodzicie, że twórcy gier nie wiedzieli. Nie wiedzieli o czym? Że nVidia ich nie poinformowała, że w materiale promocyjnym uzyje ich gier? A musieli?

 

Co do samego dlss5, to moim zdaniem zapowiada się spora rewolucja graficzna. Nie już, ale za parę lat. Zreszta, od lat gracze narzekali na zastój w grafice gier. Fakt, że gry wyglądają coraz lepiej, ale brak takich dużych rewolucji jak z czasów Crysisa, czy Quake.  No to własnie doczekaliśmy się preludium takich zmian. Widać w tym ogromne możliwości.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...