Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano (edytowane)

Dumałem w temacie RTX5xxx, więc przenoszę się...
Zdziwiło mnie dlaczego nikt nie zrobi naprzemiennego renderowania 5 pikseli do 9 przez upscaler, gdzie byłby to krzyżyk oraz X, ze wspólnym środkiem, jako punkt odniesienia dla algorytmów...
Niestety, karty dalej pracują na 2x2, ewentualnie nowsze 4x4 z jakąś tam wariacją co mogą pominąć - VRS oraz wszystko jest oparte na potędze dwójki, więc nici z 3x3. :E  Muszę poczekać na pracę kart z pojedynczym pikselem.

 

Przy okazji wygrzebałem, że Sony w PS4 Pro próbowało sprzętowo usprawnić checkerboard rendering. Niestety stwierdzili że to dużo zachodu i lepiej po prostu bawić się w skalowanie TAA, AI itp.
Rainbow Six Siege ponoć połączyło checkerboard z TAA, kosztem ostrości krawędzi. Wad szybkich obrotów kamerą nie liczę, ponieważ DLSS też to ma. 

Może ktoś musi zrobić sprzętowe generowanie stabilnego punktu odniesienia dla algorytmów lub kto wie co. :E 
Oh, w sumie Sony chyba coś podobnego zrobiło poprzez ten "ID Buffer" w PS4 Pro, ale to raczej nie rozwiąże wszystkiego, więc nic dziwnego że porzucili, bo jeszcze wymaga pracy przy każdej grze.
Po prostu chcę zastąpić losowość jakąś stabilnością we wzorze. Niech AI dłubie z "geometrii próbkowania", zamiast szumu.

Edit. Oh, w sumie Mesh Shaders trochę pozwalają ominąć te ograniczenia, tylko że PS5 niby kulawo obsługiwało to, poprawiając w Pro... No to czekamy na nową generację. :boink:
Może coś na wzór "Micro-Mesh/Micro-Maps" również mogłoby pomóc, skoro idziemy w RT... AMD próbuje robić podobne rzeczy programowo na mesh shaders.

Cóż, z wydaniem więcej na kartę można czekać na nową generację konsol, bo wcześniej to wszystko lub coś podobnego nie będzie standardem. Sony i AMD mogą wypluć coś ciekawego w następnej generacji, bo wątpię by Mark Cerny poszedł po najmniejszej linii oporu.... Tylko to wszystko byłoby dla jakiś marnych, współczesnych gier.:Crash:

Edytowane przez musichunter1x
Opublikowano

 

1. Wychodzi na to że w niższych trybach FSR4 wciąż nie ma podjazdu nawet do DLSS3 (przynajmniej w KCD2).

2. DLSS 4.0 (Preset K) wymuszany przez apkę Nvidii wygląda zdecydowanie gorzej od tego samego DLSS 4.0 wbudowanego natywnie w grze (od 9m45s).

3. Przewaga jakości obrazu DLSS 4.5 nad 4.0 nie wszędzie jest bezwzględna i oczywista.

4. Niemniej w 4.5 (model L) tryby Balance, Performance i Ultra-performance (ten ostatni w 4K) w końcu wyglądają na użyteczne.

Oczywiście natywka z DLAA czy DLSS Q zawsze będą lepsze, ale... jak się nie ma co się lubi, to się lubi co się ma.
Jak już karta zacznie wydajnościowo niedomagać, to to jest potencjalnie całkiem niezłe rozwiązanie na przedłużenie jej żywota (zwłaszcza dla serii 4000 i 5000).

Opublikowano

@musichunter1x, jeszcze raz ci napiszę, że twoje pomysły nie mają sensu, ponieważ nie do końca wiesz jak działa DLSS. Proporcje obrazu wejściowego do wyjściowego nie muszą być idealne, to nie ma żadnego znaczenia. Jak zwiększysz domyślny współczynnik dla DLSS Performance z 0,5 na np. 0,593 to jakość obrazu nie będzie gorsza tylko na pewno lepsza.

Weź też pod uwagę, że podczas gry przez większość czasu obraz jest w ruchu, więc dane są próbkowane z poprzednich klatek z różnym pdzesunięciem.

Opublikowano

@SebastianFMTylko chodzi mi właśnie o coś innego niż DLSS, ale brakuje mi słowa.

Pomyślałem, że gdyby "AI" miało dość stały, naprzemienny wzór pikseli, gdzie wie których nie ma w obecnej klatce, ale pojawią się w następnej, mając stałe punkty odniesienia między klatkami to byłoby to szybsze w kalkulacji mogąc być nawet lepsze.

Wzór i punkty odniesienia wymagają pewniej liczby pikseli, stąd 50% + coś. 

 

Wiem że akumuluje piksele z poprzednich klatek po przesunięciu, od tego byłyby właśnie stałe punkty odniesienia, aby robić to trafniej. W obecnej drodze rozwoju skalowanie zacznie zajmować więcej czasu /zasobów niż renderowanie gry.  :E

Opublikowano
12 godzin temu, Paw79 napisał(a):

 

1. Wychodzi na to że w niższych trybach FSR4 wciąż nie ma podjazdu nawet do DLSS3 (przynajmniej w KCD2).

2. DLSS 4.0 (Preset K) wymuszany przez apkę Nvidii wygląda zdecydowanie gorzej od tego samego DLSS 4.0 wbudowanego natywnie w grze (od 9m45s).

3. Przewaga jakości obrazu DLSS 4.5 nad 4.0 nie wszędzie jest bezwzględna i oczywista.

4. Niemniej w 4.5 (model L) tryby Balance, Performance i Ultra-performance (ten ostatni w 4K) w końcu wyglądają na użyteczne.

Oczywiście natywka z DLAA czy DLSS Q zawsze będą lepsze, ale... jak się nie ma co się lubi, to się lubi co się ma.
Jak już karta zacznie wydajnościowo niedomagać, to to jest potencjalnie całkiem niezłe rozwiązanie na przedłużenie jej żywota (zwłaszcza dla serii 4000 i 5000).

Obejrzałem i po uzyskaniu tych bezcennych przemyśleń i oczywistości. Myślę, że gość jest dwoma rabinami :E 

rabin.jpg.e4366b0bf0a6e083d3e9d48bd97d6d88.jpg

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...