Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano (edytowane)
2 godziny temu, Sheenek napisał(a):

Jak to najprosciej ogarnac? Dziala ze wszystkimi grami ktore mialy dlss?

W katalogu gry podmienić pliki na te z Cyberpunk 2077 2.21. Biblioteka nvngx_dlss.dll odpowiada za DLSS i DLAA, nvngx_dlssd.dll za Ray Reconstruction a nvngx_dlssg.dll za Frame Generation. W przypadku DLSS i DLAA trzeba dodatkowo zmienić ustawienia tak, żeby gra korzystała z Preset J. Można wymusić stosowanie tego presetu za pomocą NVIDIA Profile Inspector, globalnie lub dla danej gry.

Godzinę temu, ryba napisał(a):

Dobra, z tego co ogladam testy i przegladam Wasze wyniki - nowszy DLSS na tej samej jakosci = spadek wydajnosci lekki, ale znacznie lepszy obraz (mniej baboli). Ale mozna obnizyc jakosc na nowym = lepszy FPS, ale obraz dalej lepszy?

Jeżeli chodzi o RTX 40x0 to niewielki wpływ na wydajność, dla RTX 4070 Ti to 0,5 ms na klatkę w rozdzielczości 1440p, dla RTX 4090 podobnie w rozdzielczości 4K. 

Edytowane przez SebastianFM
  • Thanks 1
  • Upvote 1
Opublikowano
2 godziny temu, ryba napisał(a):

Dobra, z tego co ogladam testy i przegladam Wasze wyniki - nowszy DLSS na tej samej jakosci = spadek wydajnosci lekki, ale znacznie lepszy obraz (mniej baboli). Ale mozna obnizyc jakosc na nowym = lepszy FPS, ale obraz dalej lepszy?

Mi na RTX 3090 wyszło ~12% spadku wydajności na transformerowym Ray Reconstruction. Samo skalowanie rozdzielczości jest tylko ~3.4% wolniejsze od starego modelu. W 1440p przynajmniej tak jest.

  • Thanks 1
Opublikowano
15 godzin temu, Kadajo napisał(a):

Lipa tylko ze w MFS ekrany w kokpicie nadal smużą, może trochę mniej, ale nadal przeszkadza.

Jak dla mnie to nie ma żadnej różnicy w 1440p, a szkoda bo w VR bez DLSS nie da się grać, nie ma FG, do tego rozmywa kokpit...

 

Swoją drogą czemu FG nie działa w VR? Ktoś wie?

Opublikowano (edytowane)

 

 

chyba nie tylko ja mam problemy :E a kij wie czemu, jazdy się znaczył od sterów 561.09 ostatnie które działy, w 571.96  np naprawili god of wara rangorank dying light itp z dlss 310 i smiga zaś teraz CP crashe latają, jedyny trop też mnie prowadzi do physicX w Thron and Liberity crashe odpowiadały za physics po zmianie 561.09 smigało jak trzeba

 

Edytowane przez z1k
  • Confused 1
Opublikowano (edytowane)
1 godzinę temu, z1k napisał(a):

 

 

chyba nie tylko ja mam problemy :E a kij wie czemu, jazdy się znaczył od sterów 561.09 ostatnie które działy, w 571.96  np naprawili god of wara rangorank dying light itp z dlss 310 i smiga zaś teraz CP crashe latają, jedyny trop też mnie prowadzi do physicX w Thron and Liberity crashe odpowiadały za physics po zmianie 561.09 smigało jak trzeba

 

U mnie po prostu pomogło zwiększenie napięcia. Karta jest teraz obciążona jak nigdy wcześniej z nowym modelem DLSS + PT

Edytowane przez senac
Opublikowano

Może ktoś, komu to zatrybiło opisać krok po kroku jak podmieniać dlss, i konfigurować profile inspectora ?

 

ja zrobiłem tak:

1. czyszczenie sterów ddu

2.instalacja 571.96

3. pobranie inspectora 2.4.0.8

4. dodanie pliku xml

5. dupa blada opcji dlss brak

 

próbowałem jeszcze niby tego fixa do inspectora pod nowe stery, ale tam to samo, mało tego pokazuje wersję inspectora 2.4.0.1

Opublikowano (edytowane)
13 minut temu, SylwesterI. napisał(a):

Może ktoś, komu to zatrybiło opisać krok po kroku jak podmieniać dlss, i konfigurować profile inspectora ?

 

ja zrobiłem tak:

1. czyszczenie sterów ddu

2.instalacja 571.96

3. pobranie inspectora 2.4.0.8

4. dodanie pliku xml

5. dupa blada opcji dlss brak

 

próbowałem jeszcze niby tego fixa do inspectora pod nowe stery, ale tam to samo, mało tego pokazuje wersję inspectora 2.4.0.1

https://github.com/Orbmu2k/nvidiaProfileInspector/releases/tag/2.4.0.8

+ xml z załacznika do głównego folderu (albo ten co @Phoenix. podesłał)

CustomSettingNames.xml

Edytowane przez senac
Opublikowano (edytowane)
4 minuty temu, SylwesterI. napisał(a):

to samo co robiłem i efekt ten sam :(

Coś robisz źle. Powinieneś mieć wersję 2.4.0.8 i możliwość wybrania presetu

 

 

Spoiler

obraz.png

 

Edytowane przez senac
  • Upvote 2

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...