Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

  • Odpowiedzi 1,9 tys.
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Top użytkownicy w tym temacie

Opublikowane grafiki

Opublikowano (edytowane)

Dumałem w temacie RTX5xxx, więc przenoszę się...
Zdziwiło mnie dlaczego nikt nie zrobi naprzemiennego renderowania 5 pikseli do 9 przez upscaler, gdzie byłby to krzyżyk oraz X, ze wspólnym środkiem, jako punkt odniesienia dla algorytmów...
Niestety, karty dalej pracują na 2x2, ewentualnie nowsze 4x4 z jakąś tam wariacją co mogą pominąć - VRS oraz wszystko jest oparte na potędze dwójki, więc nici z 3x3. :E  Muszę poczekać na pracę kart z pojedynczym pikselem.

 

Przy okazji wygrzebałem, że Sony w PS4 Pro próbowało sprzętowo usprawnić checkerboard rendering. Niestety stwierdzili że to dużo zachodu i lepiej po prostu bawić się w skalowanie TAA, AI itp.
Rainbow Six Siege ponoć połączyło checkerboard z TAA, kosztem ostrości krawędzi. Wad szybkich obrotów kamerą nie liczę, ponieważ DLSS też to ma. 

Może ktoś musi zrobić sprzętowe generowanie stabilnego punktu odniesienia dla algorytmów lub kto wie co. :E 
Oh, w sumie Sony chyba coś podobnego zrobiło poprzez ten "ID Buffer" w PS4 Pro, ale to raczej nie rozwiąże wszystkiego, więc nic dziwnego że porzucili, bo jeszcze wymaga pracy przy każdej grze.
Po prostu chcę zastąpić losowość jakąś stabilnością we wzorze. Niech AI dłubie z "geometrii próbkowania", zamiast szumu.

Edit. Oh, w sumie Mesh Shaders trochę pozwalają ominąć te ograniczenia, tylko że PS5 niby kulawo obsługiwało to, poprawiając w Pro... No to czekamy na nową generację. :boink:
Może coś na wzór "Micro-Mesh/Micro-Maps" również mogłoby pomóc, skoro idziemy w RT... AMD próbuje robić podobne rzeczy programowo na mesh shaders.

Cóż, z wydaniem więcej na kartę można czekać na nową generację konsol, bo wcześniej to wszystko lub coś podobnego nie będzie standardem. Sony i AMD mogą wypluć coś ciekawego w następnej generacji, bo wątpię by Mark Cerny poszedł po najmniejszej linii oporu.... Tylko to wszystko byłoby dla jakiś marnych, współczesnych gier.:Crash:

Edytowane przez musichunter1x
Opublikowano

 

1. Wychodzi na to że w niższych trybach FSR4 wciąż nie ma podjazdu nawet do DLSS3 (przynajmniej w KCD2).

2. DLSS 4.0 (Preset K) wymuszany przez apkę Nvidii wygląda zdecydowanie gorzej od tego samego DLSS 4.0 wbudowanego natywnie w grze (od 9m45s).

3. Przewaga jakości obrazu DLSS 4.5 nad 4.0 nie wszędzie jest bezwzględna i oczywista.

4. Niemniej w 4.5 (model L) tryby Balance, Performance i Ultra-performance (ten ostatni w 4K) w końcu wyglądają na użyteczne.

Oczywiście natywka z DLAA czy DLSS Q zawsze będą lepsze, ale... jak się nie ma co się lubi, to się lubi co się ma.
Jak już karta zacznie wydajnościowo niedomagać, to to jest potencjalnie całkiem niezłe rozwiązanie na przedłużenie jej żywota (zwłaszcza dla serii 4000 i 5000).

Opublikowano

@musichunter1x, jeszcze raz ci napiszę, że twoje pomysły nie mają sensu, ponieważ nie do końca wiesz jak działa DLSS. Proporcje obrazu wejściowego do wyjściowego nie muszą być idealne, to nie ma żadnego znaczenia. Jak zwiększysz domyślny współczynnik dla DLSS Performance z 0,5 na np. 0,593 to jakość obrazu nie będzie gorsza tylko na pewno lepsza.

Weź też pod uwagę, że podczas gry przez większość czasu obraz jest w ruchu, więc dane są próbkowane z poprzednich klatek z różnym pdzesunięciem.

Opublikowano

@SebastianFMTylko chodzi mi właśnie o coś innego niż DLSS, ale brakuje mi słowa.

Pomyślałem, że gdyby "AI" miało dość stały, naprzemienny wzór pikseli, gdzie wie których nie ma w obecnej klatce, ale pojawią się w następnej, mając stałe punkty odniesienia między klatkami to byłoby to szybsze w kalkulacji mogąc być nawet lepsze.

Wzór i punkty odniesienia wymagają pewniej liczby pikseli, stąd 50% + coś. 

 

Wiem że akumuluje piksele z poprzednich klatek po przesunięciu, od tego byłyby właśnie stałe punkty odniesienia, aby robić to trafniej. W obecnej drodze rozwoju skalowanie zacznie zajmować więcej czasu /zasobów niż renderowanie gry.  :E

Opublikowano
12 godzin temu, Paw79 napisał(a):

 

1. Wychodzi na to że w niższych trybach FSR4 wciąż nie ma podjazdu nawet do DLSS3 (przynajmniej w KCD2).

2. DLSS 4.0 (Preset K) wymuszany przez apkę Nvidii wygląda zdecydowanie gorzej od tego samego DLSS 4.0 wbudowanego natywnie w grze (od 9m45s).

3. Przewaga jakości obrazu DLSS 4.5 nad 4.0 nie wszędzie jest bezwzględna i oczywista.

4. Niemniej w 4.5 (model L) tryby Balance, Performance i Ultra-performance (ten ostatni w 4K) w końcu wyglądają na użyteczne.

Oczywiście natywka z DLAA czy DLSS Q zawsze będą lepsze, ale... jak się nie ma co się lubi, to się lubi co się ma.
Jak już karta zacznie wydajnościowo niedomagać, to to jest potencjalnie całkiem niezłe rozwiązanie na przedłużenie jej żywota (zwłaszcza dla serii 4000 i 5000).

Obejrzałem i po uzyskaniu tych bezcennych przemyśleń i oczywistości. Myślę, że gość jest dwoma rabinami :E 

rabin.jpg.e4366b0bf0a6e083d3e9d48bd97d6d88.jpg

Opublikowano

Dying Light The Beast. DLAA + MFG x4, wszystko na maks wraz z RT. Opóźnienie jakieś 60ms z groszami, niestety nakładki nvidii nie zarejestrował rzut wykonany na steamie. 

Artefakty są widocznie w postaci migających ikonek gdy np chcemy zlootować zombiaka, podnieść coś. Tak samo widoczne artefakty w około UI w lewym rogu. Ogólnie wydaje mi się, że jest chyba lepiej niż jeszcze jakiś czas temu jak testowałem stare mody z FG, czy starsze wersje lossless scaling na RTX 3060Ti.

20260205125756_1.thumb.jpg.4613263daffb4fbe4d40fb38d192c077.jpg

Opublikowano
19 minut temu, sideband napisał(a):

Nie wiem jak można używać Lossless Scaling to się nie nadaje do użytku.

Dlatego nie używałem za długo ale testowałem, w końcu RTX 30 nie ma FG, do tego użycie lossless FG x2 zajmowało grubo ponad 600MB+ na karcie co przy 8gb vram w 1440p bywało problematyczne, przejście z RTX 3060ti na RTX 4080S było lepszym wyborem w przypadku użycia samego FG x2, który nie posiada tych minusów co ma lossless i mody. 

Opublikowano

FG da się wrzucić od Turinga tylko NV wcale nie musi wspierać starego parcha ;)

MFG korzysta ze sprzętowego frame pacingu przy takiej implementacji nie ogarnie tego nawet ADA.

A gówno FG to ogarnie stary rumpel tylko kogo to interesuje i nikogo interesuje sprzęt, który jest już" legacy" i nie ma wsparcia już w sterownikach.

  • Upvote 3

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...