Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano (edytowane)

No super, kolejna wymówka żeby nie dawać więcej VRAMu... 

 

W ogóle nie wiem co im się stało, że tak bardzo chcą wspierać stare i słabe karty? To zawsze była domena AMD, a teraz nagle NV dba o karty z małą ilością VRAM. Aż tak bardzo nie chcą rozwijać konsumenckich GPU? :E 

Edytowane przez galakty
Opublikowano
59 minut temu, galakty napisał(a):

o zawsze była domena AMD, a teraz nagle NV dba o karty z małą ilością VRAM.

Ale to tylko twoja nadinterpretacja i taka narracja tego arta ;) Nvidia po prostu optymalizuje swoj model i nie ma w tym nic nadzwyczajengo bo jak wiemy optymazliacja to cos co sluzy kazdemu. W dodtaku ta optymalizaja przeciez nie sprawi nagle, ze 8gb vram bedzie ok bo nie bedzie.

Opublikowano
W dniu 30.06.2025 o 08:54, galakty napisał(a):

No super, kolejna wymówka żeby nie dawać więcej VRAMu... 

OT

Spoiler

Poczekaj na tą kompresję tekstur AI to dopiero będą mieli wymówkę.

 

W 30fps spadek wydajności i jakości jest bardzo fajny. 

W 300fps zjada ponad 1/3 wydajności całego GPU. 

Co na to Digital Foundry? "can't wait, this is awesome tech" :E

 

 

Opublikowano

Co to za PCMR co daje coś niżej niż Quality :hihot:

 

Edit

Ciekawe czy dałoby się tak zaprogramować DLSS aby dynamicznie i płynnie co do piksela zmieniał rozdzielczość targetując wybrany FPS.

Np. Gramy w 4K i chcemy zachować 120FPS, włączamy DLSS i on dynamicznie zmienia naszą rozdzielczość wejścia w zależności czy jest w stanie utrzymać FPS, czy nie.

To byłoby całkiem spoko i nie trzeba by się już nigdy zastanawiać która opcje wybrać.

Wiem ze teraz jest coś takiego jak Auto DLSS, ale ta opcja po prostu za nas wybiera jeden z presetów i tyle.

  • Haha 1
Opublikowano

Widzę odklejka na poziomie Ronsona :E To chyba idzie z wiekiem :E

Ślepaki mogą grać nawet na Ultra Perfomance ;) Jak ktoś nie jest ślepy i wymagający nie akceptuje nic poniżej Quality niezależnie od rozdzielczości ekranu. Quality nadal zauważalnie odstaje od DLAA i tego się przeskoczy.

Dla tych co chcą mieć z automatu konkretny preset w każdej grze niezależnie od ustawień na poziomie gry to jaki problem wymusić to z Nvispectora ;) 

Opublikowano (edytowane)
2 godziny temu, Kadajo napisał(a):

Co to za PCMR co daje coś niżej niż Quality :hihot:

 

Edit

Ciekawe czy dałoby się tak zaprogramować DLSS aby dynamicznie i płynnie co do piksela zmieniał rozdzielczość targetując wybrany FPS.

Np. Gramy w 4K i chcemy zachować 120FPS, włączamy DLSS i on dynamicznie zmienia naszą rozdzielczość wejścia w zależności czy jest w stanie utrzymać FPS, czy nie.

To byłoby całkiem spoko i nie trzeba by się już nigdy zastanawiać która opcje wybrać.

Wiem ze teraz jest coś takiego jak Auto DLSS, ale ta opcja po prostu za nas wybiera jeden z presetów i tyle.

Nie da się, ale nie dlatego, że technicznie się nie da. 

Nie da się, ponieważ wymagałoby to pracy  w kierunku priorytetyzowania jakości obrazu w ruchu, responsywności i płynności. Czyli wszystkiego tego, co NV z uśmiechem na ustach ignoruje na rzecz ray tracingu. 

Poza tym dawałoby przekaz "ilość prawdziwych klatek się liczy!" 

 

 

Masz mało klatek to se dorób! MFG x2, x4, a jak będzie trzeba to i x10 też się znajdzie

Edytowane przez VRman
Opublikowano
4 godziny temu, sideband napisał(a):

 Jak ktoś nie jest ślepy i wymagający nie akceptuje nic poniżej Quality niezależnie od rozdzielczości ekranu. Quality nadal zauważalnie odstaje od DLAA i tego się przeskoczy.

Muszę się zgodzić. I też irytujące jest to że każdy reviewer porównuje np tryby FSR3 Performance vs FSR4 Performance. Podczas gdy nikt nigdy nie używał Performance, i takie porównanie nic mi nie mówi, bo już Quality było ciężko zaakceptować. Powinni pokazywać Quality vs Quality bo wtedy różnice w obrazie mogą być w innych miejscach widoczne, a jak ktoś używał Performance to nie potrzebuje takiego porównania bo ma w nosie jakość obrazu :E

  • Like 1
  • Upvote 1
Opublikowano

Zauważyłem że ostatnia wersja Optiscalera zmodyfikowana przez Nightly gdzie do samego optiscalera wprowadzono profile, aby sprawdzć każdy z nich jak sprawdza się w grze, poprawia szumy w Robocop wywołane przez Lumen, jest lepiej niż domyślnie mamy obraz w grze, chociaż nie w 100% wolny od szumów.

 

x7OwmXy.jpeg

W moim przypadku ostatni profil dziala najlepiej.

Opublikowano

W tym filmiku chodzi o to ze spadek wydajności bazowej po włączeniu (M)FG jest dosyć znaczny w niektórych grach.

 

Przykład:

 

obraz.thumb.png.8b59d1e6aeb4723f9fbc90bb9c52c9df.png

 

Bazowo masz 101 FPS, ale po włączeniu FGx4 ten FPS spada do 68 i to z nich jest tworzony FGx4

Wiec włączając FGx4 nie będziesz miał nagle 400FPS tylko jak widać wyżej nawet 250 nie ma.

Samo włączenie FG obniżyło wydajnosc GPU o 32%.

 

Dotyczy to każdej karty, nawet 5090

 

obraz.thumb.png.677ed1db009b5dc75f0d3d31b636a44f.png

Opublikowano

Czyli żeby mieć po włączeniu FG bazowy fps, z którego jest liczone, przynajmniej te 60 to przed musiałby być z 80+? To jakby podważa nieco sens używania FG w takiej sytuacji. A w grach gdzie byśmy chcieli więcej tych fpsów niż te powiedzmy 80-90 to też nie chcemy sobie laga dodawać.

 

Wiecie skąd on bierze te dane o Latency na Overlayu?

Opublikowano
Godzinę temu, Kadajo napisał(a):

Samo włączenie FG obniżyło wydajnosc GPU o 32%.

Dodatkowo latency, więc faktycznie nie jest to jakiś wybitny biznes. No, ale widzieliśmy już przed premierą, że to będzie zdrowo posypane marketingiem.

Opublikowano

Ja juz od dawna powtarzam, ze do FG bez 80fps-100fps nie podchodz :D 

Godzinę temu, Kadajo napisał(a):

Samo włączenie FG obniżyło wydajnosc GPU o 32%.

Ciekawe czy ktorys gen w koncu zniweluje ten spadek, kiedys pewnie tak :D 

@SebastianFMZ czego wynika ten spadek ?? Z jakis kolejek w liczeniu czy jak ?? To musi byc latane sprzetowo czy programowo, zeby np kiedys nie bylo strat po wlaczeniu ? :D 

Opublikowano (edytowane)

@Phoenix., aktualnie to jest nierealne, żeby nie było żadnego spadku bazowego FPS, przecież wygenerowanie klatki pośredniej zajmuje określoną ilość czasu. Musiałbyś mieć do tego osobny hardware/część GPU.

Edytowane przez SebastianFM
  • Upvote 2

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...