Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano

Generalnie dawajcie ustawienia nie w profilu globalnym tylko w profilu gry, bo potem będzie niespodzianka z grami sieciowymi, jak u mnie ze bf2043 - nie chce się odpalić i wyrzuca błędy, odkręcenie w profilerze już nic nie dało, musiałem sprawdzić  poprawność plików.

Jak pozmieniałem w profilach do gier to z bf 2042 spokój

Opublikowano
5 godzin temu, SylwesterI. napisał(a):

No jak zawsze byłem na nie dla dlss, to teraz wydaje się, że kurteczka zrobił za friko super prezent, zamiast wydawać kasiorę na 5090, włączę dlss4 i poczekam na następną generację

 

5 godzin temu, galakty napisał(a):

To jest aż niemożliwe jak na NV... Wydają kiepską nową serię, ale dali starej coś super... 

 

AMD może gryźć piach i nie wychodzić z nory.

Szkoda tylko że MFG pożałowali i trzeba kombinować z https://store.steampowered.com/app/993090/Lossless_Scaling/

No chyba że AMD nam da za darmo MFG wydając FSR4 :E😉

Opublikowano

Pewnie nic nowego nie powiem, ale ten nowy DLSS nie lubi się z undervoltem. Nawet 0.9V powodowało spadki do ~32fps po zejściu ze schodów koło bloku w Cyberpunku, a bez udervoltu na ~1V było ~36-38, gdzie dużo częściej trzymało się 40fps. Wcześniej nawet nie spadało poniżej 40, ale ta scena jednak daje popalić.... Szczególnie gdy pamięć zacznie cieknąć :E 
Był to RTX3070, 1080p, PT, RR, DLSS4 balance, lock na 40fps, Vsync 60, stare sterowniki, wolumetryczne pierdoły na wysokich, bo rozdzielczość z DLSS jest niska. Ograłem cały początek nomada do spotkania się przy jedzeniu i drobne wady mi nie przeszkadzały, ale chmury są chyba nieco gorsze niż na starym DLSS, za to ruchome przedmioty, jak gazety na wietrze to przepaść na korzyść nowego. Bez problemu poprawią to w kolejnych wersjach, może nawet 30 stycznia, gdy będzie już oficjalnie. 

Opublikowano
7 godzin temu, SylwesterI. napisał(a):

Jak widzę materiały na yt i innych portalach to tego akurat nie żałuję

To jest tylko opcja i lepiej ją mieć niż nie mieć. Sam też staram się nie korzystać z FG jak nie ma takiej potrzeby 😉.

Opublikowano
9 godzin temu, azgan napisał(a):

Szkoda tylko że MFG pożałowali i trzeba kombinować z https://store.steampowered.com/app/993090/Lossless_Scaling/

Ja nawet mając MFG bym z niego nie korzystał, wystarczy mi tryb X2... X3/X4 za dużo artefaktów tworzy, a input lag zostaje bez zmian. Jaki w tym sens? 

3 godziny temu, Kadajo napisał(a):

Wrzuciłem nowego DLSS'a do NFS Unbound i gierka wygląda lepiej niż natywna jak dla mnie, o :wariat:

Ten który cisnął po DLSS latami, no nieeee xD 

 

Ale trzeba przyznać, że zrobili robotę. Do tego stopnia, że następnym monitorem będzie OLED 4K i nawet w trybie performance jakość będzie lepsza, niż mam pewnie teraz na 1440p Quality, a wydajność podobna ;) 

Opublikowano (edytowane)

Czyli podobnie ale z lepszą jakością... Heh, kto by pomyslał że aż taki postęp będzie.

 

Wystarczy wgrać nowe biblioteki, wymusić preset J, obniżyć skalowanie oczko w dół i mamy lepszy obraz za darmo.

Edytowane przez galakty
Opublikowano (edytowane)

Czyli co przybyło vramu przy obniżeniu dlss z balans na performance? 6585mb vs 7195mb, powinno być mniej jak się obniża rozdzielczość.

Tak patrzę, bo mając marne 8gb vram, to może ratować tyłek, a nie tylko dla fps.

Edytowane przez Reddzik
Opublikowano

Rozumiem, że może być spadek fps, tak jak z RR, RR w starej technice zjadało mi w Cyberpunku ok 10fps może lekko więcej, a teraz jak sprawdziłem to zjadło mi przy RT ok 25fps, tu rozumiem, że mam za słabą kartę, słabe jednostki itd, ale DLSS który obniża rozdzielczość powinno tak samo być z vramem, w takim razie, to praktycznie dobije kartę, będę bacznie się temu przyglądać, bo inaczej nie ma sensu korzystania z Transformersów jak może jeszcze sprawę pogorszyć niż polepszyć.:o

Opublikowano
2 godziny temu, galakty napisał(a):

Ja nawet mając MFG bym z niego nie korzystał, wystarczy mi tryb X2... X3/X4 za dużo artefaktów tworzy, a input lag zostaje bez zmian. Jaki w tym sens? 

Ten który cisnął po DLSS latami, no nieeee xD 

 

 

Może kiedyś ogarną te artefakty i będzie z tego można korzystać 😉

 

2 godziny temu, galakty napisał(a):

 

 

Ale trzeba przyznać, że zrobili robotę. Do tego stopnia, że następnym monitorem będzie OLED 4K i nawet w trybie performance jakość będzie lepsza, niż mam pewnie teraz na 1440p Quality, a wydajność podobna ;) 

Nawet jak masz TV OLED 55 cali+ i grasz na nim w 1440p z DLSS4-Q to z HDR wygląda to wystarczająco dobrze zwłaszcza że przed takim ekranem siedzi się i tak dalej 👍

  • Like 1
Opublikowano
23 minuty temu, Reddzik napisał(a):

powinno być mniej jak się obniża rozdzielczość.

To zalezy od konkretnej gry jak sie zachowuje uzycie vram.

17 minut temu, galakty napisał(a):

DLSS4 ma większe wymagania, może stąd ta różnica?

Dokladnie tak ;)

7 minut temu, galakty napisał(a):

Na serii 3000 to nie ma co tego włączać

Nie bez powodu 5070=4090  ;D

Ale male ziarenkoprawdy w tym jest.  Teraz bedziemy patrzec na moc AI wybierajac gpu.

Pewnie za rok Rubin ubije Ade swoimi ficzerami.

Opublikowano

Patrząc na to co zrobili przy DLSS4 to jestem skłonny stwierdzić, że nie będzie tak źle. Jeśli ogarną artefakty przy FG (a pewnie ogarną) to trzeba będzie zmienić podejście i nie porównywać kart pod kątem rasteryzacji, nowy etap w rozwoju. 

Opublikowano
Godzinę temu, galakty napisał(a):

Na serii 3000 to nie ma co tego włączać ;) 

 

Najgorzej jak domyślnie to będzie odpalone, ludziom zajedzie karty i nagle z Quality na Performance będą musieli schodzić :E 

Wez mnie nie strasz, licze ze i moja 3080 10GB dostanie lekkiego boosta :E

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...