Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano

To akurat nie jest argument. To, że nie ma nic lepszego, nie znaczy, że DLSS4 jest złotem bez wad. 

W niektórych grach jednak faktycznie wyłażą problemy. O ile dobrze pamiętam , na przykład GTA V Enchanced ma jakiś problem z DLSS 4.

 

Może bardziej pasujące określenie, to że jest to metal najmniej zardzewiały, o. ;)

Opublikowano

Inaczej, dlaczego DLSS4 to złoto ;)

Co go czyni zlotem :D

Bo złoto to coś wyjątkowego, czego nigdy nie da się zastąpić niczym innym.

 

Tez mam poważne obawy ze DLSS4 to nawet koło złota nie stało, ale ciekawy jestem jakie to argumenty ze DLSS4 to złoto :E

 

Prędzej złotem jest natywna rozdzielczość aniżeli DLSS ;)

Opublikowano

Jak dla mnie to sprawa wygląda tak że od kiedy pojawił się DLSS to skończyły się problemy z aliasingiem. Nie trzeba się już zastanawiać czy użyć FXAA czy SMAA czy innych cudów które i tak były brzydkie albo masakrowały wydajność. Teraz jest zarówno wydajnie i bez postrzępionych krawędzi. 

Opublikowano

Za to z gorszą jakością detali i drobnych elementów :E

 

To tak jakbyś wziął sobie dobrej jakości obrazek, zeskalował go w dół, potem upscalował, wyostrzył i udawał, że jest tak samo jak oryginał, a nawet lepiej.

 

Tak w skrócie działa właśnie DLSS :E

Opublikowano

Ciekawe co jakby dać wielkiemu GPU ogromną ilość cache'u ala X3D i połączyć z HBM. Dziś widziałem news, że wchodzi nowy HBM4 z 10Gb/pin. 

 

Pomijając to, że nie chcę grać zdalnie tylko na własnym sprzęcie, może w takim sprzęcie by się dało uzyskać złoto. DSR z 16K, patch aby nie było undersamplingu któremu i 32K nie pomoże, i wtedy byłoby czyste złoto :E

Opublikowano
12 minut temu, Kadajo napisał(a):

Za to z gorszą jakością detali i drobnych elementów :E

 

To tak jakbyś wziął sobie dobrej jakości obrazek, zeskalował go w dół, potem upscalował, wyostrzył i udawał, że jest tak samo jak oryginał, a nawet lepiej.

 

Tak w skrócie działa właśnie DLSS :E

Ale ale... Mam tu na myśli też DLAA którego można użyć jak wystarcza mocy GPU. Wrzucam to do jednego worka bo zawsze jest na jednym sliderze do wyboru :) 

Pamiętam te czasy kiedy jak brakło mocy to obniżyłem rozdzielczość np z 1080p na 900p. I to była masakra bo to wyglądało okropnie ale nie było wtedy innej opcji aby uzyskać dodatkowa wydajność. Teraz jest i w pakiecie jest antyaliasing za darmo.

Opublikowano
25 minut temu, Kadajo napisał(a):

Prędzej złotem jest natywna rozdzielczość aniżeli DLSS ;)

Liczy się stosunek jakości obrazu, do wymaganej mocy obliczeniowej. Natomiast natywna rozdzielczość też jest okraszona artefaktami. Jedyne do czego można dążyć, to do uzyskania możliwie najlepszych rezultatów, przy dostępnej mocy obliczeniowej. Na tą chwilę DLSS4 transformer (FSR4) jest najlepszym rozwiązaniem, pomimo, że nie idealnym.

Opublikowano
6 minut temu, HappyLittleGamer napisał(a):

Pamiętam te czasy kiedy jak brakło mocy to obniżyłem rozdzielczość np z 1080p na 900p. I to była masakra bo to wyglądało okropnie ale nie było wtedy innej opcji aby uzyskać dodatkowa wydajność. Teraz jest i w pakiecie jest antyaliasing za darmo.

Jak grać w 900p to na CRT i wtedy jest to "natywna" :D

Opublikowano
14 minut temu, HappyLittleGamer napisał(a):

Ale ale... Mam tu na myśli też DLAA którego można użyć jak wystarcza mocy GPU. Wrzucam to do jednego worka bo zawsze jest na jednym sliderze do wyboru :) 

Pamiętam te czasy kiedy jak brakło mocy to obniżyłem rozdzielczość np z 1080p na 900p. I to była masakra bo to wyglądało okropnie ale nie było wtedy innej opcji aby uzyskać dodatkowa wydajność. Teraz jest i w pakiecie jest antyaliasing za darmo.

No DLAA już lepiej, ale nadal nie jest tak dobry jak brute force AA. Ale w sumie co z tego jak DLAA działa a brute force AA może i ma jakość z kosmosu, ale wydajność lezy i kwiczy.

Można by rzecz ze brute force AA nadaje się do robienia SS a DLAA do grania :D

10 minut temu, Kyle napisał(a):

Liczy się stosunek jakości obrazu, do wymaganej mocy obliczeniowej. Natomiast natywna rozdzielczość też jest okraszona artefaktami. Jedyne do czego można dążyć, to do uzyskania możliwie najlepszych rezultatów, przy dostępnej mocy obliczeniowej. Na tą chwilę DLSS4 transformer (FSR4) jest najlepszym rozwiązaniem, pomimo, że nie idealnym.

Natywna wymaga wysokiej rozdzielczości, szczególnie dziś gdzie gry mają bardzo dużo detali w geometrii i teksturach.

Moim zdaniem nie DLSS a DLAA bardziej daje ten balans. Pamiętaj ze DLSS nie ma poprawiać jakość obrazu tylko wydajność.

Moim zdaniem dziś jeśli chodzi o jakość obrazu to najlepszym efekt uzyskujemy łącząc DSR+DLAA. Daje prawie taka jakość obrazu jak brute force AA, ale ma lepsza wydajność.

Opublikowano
27 minut temu, Kadajo napisał(a):

 

Moim zdaniem nie DLSS a DLAA bardziej daje ten balans. Pamiętaj ze DLSS nie ma poprawiać jakość obrazu tylko wydajność.

 

Mając do wyboru 2560x1440 DLAA vs 3840x2160 DLSS Quality/Balanced, to wolę to 4K DLSS - mniejsze zniekształcenie obrazu, przez mniejsze rozmycie i większa szczegółowość.

DLAA jest nieoptymalne.

Opublikowano
5 godzin temu, galakty napisał(a):

A co lepszego dziś mamy? Poza DLAA i MSAA 

DLSS v4 nadal generuje artefakty i powoduje smużenie na niektórych elementach. Ba w jednostkowych przypadkach radzi sobie gorzej od FSR4 ;)

DLSS v5 wleci to będzie już platyna nie złoto? :E

A przy v6 to co będzie? DLSS jest w ciągłym rozwoju i daleko do owego złota ;)

Poza tym rozmawiamy o metodach skalowania czy AA? ;)

MSAA to historia od momentu kiedy pojawiło się więcej cieniowania w grach to już po MSAA także już ponad 15lat to już był lipa. Dlatego miałeś w sterownikach możliwość wymuszania mi.n SSAA/SGSSAA/OGSSAA, które tez nie są doskonałe i zabijają sprzęt. Później zaczęto kombinować z post AA ;) Między czasie powstało parę różnych technik AA, ale nigdy w praktyce nie weszły do użytku ze względu na wady.

DLAA v4 spora poprawa na plus i przy ADA/Blackwell daje min spadek wydajności względem tego co oferuje tylko nadal jesteś ograniczony do określonych gier.

Opublikowano
32 minuty temu, Kadajo napisał(a):

najlepszym efekt uzyskujemy łącząc DSR+DLAA.

Nie opłaca się. Lepszy stosunek jakości do wymaganej mocy obliczeniowej da wyższa rozdzielczość natywna ekranu (31,5" 5K, albo 6K) i DLSS.

Opublikowano
16 minut temu, Kyle napisał(a):

Mając do wyboru 2560x1440 DLAA vs 3840x2160 DLSS Quality/Balanced, to wolę to 4K DLSS - mniejsze zniekształcenie obrazu, przez mniejsze rozmycie i większa szczegółowość.

DLAA jest nieoptymalne.

Ale czemu wybierasz 3840x2160 DLSS zamiast DLAA, jakieś dziwne porównanie.

16 minut temu, Kyle napisał(a):

Nie opłaca się. Lepszy stosunek jakości do wymaganej mocy obliczeniowej da wyższa rozdzielczość natywna ekranu (31,5" 5K, albo 6K) i DLSS.

Dla kogo ? Dla ciebie ?

Opublikowano (edytowane)
19 minut temu, Kadajo napisał(a):

Dla kogo ? Dla ciebie ?

Wyrenderuj sobie obraz w 8K natywnie (jak dasz radę to wyżej), najlepiej z SSAA itp., przeskaluj w dół do 4K filtrem Lanczos, by mieć obraz referencyjny i sobie porównaj do np. FHD DLAA (przeskalowane "najbliższy sąsiad" do 4K) vs 4K DLSS Performance.

19 minut temu, Kadajo napisał(a):

Ale czemu wybierasz 3840x2160 DLSS zamiast DLAA, jakieś dziwne porównanie.

Ma mam do dyspozycji określone możliwości obliczeniowe i w ich granicach dążę do uzyskania możliwie najlepszej jakości obrazu. Przecież nie o to chodzi by renderować do 32K SSAA i mówić: no patrz ... to jest lepszej jakości.

Edytowane przez Kyle
Opublikowano (edytowane)

Mi się dlaa w 1440p 27 cali mega podoba. Dawno nie było tak dobrze wyglądającego AA. Shimmering mocno zminimalizowany np. na kablach wysokiego napięcia albo ogrodzeniach z siatki. Choć nie doskonały. W tlou2 widać pewne artefakty w ruchu koło głowy postaci.

 

Mam tv 55cali 4k i monitor 27cali 1440p. Lepiej dla mnie wygląda 1440p z dlaa na monitorze niż 4k dlss quality, albo natywny z TAA na TV.

Edytowane przez babayaga
Opublikowano (edytowane)
49 minut temu, sideband napisał(a):

26.5" 1440p z DLAA będzie niezaprzeczalnie lepiej wyglądać od 2160p 31.5" DLSS B.

Za dużo zmiennych. Proponuję porównywać przy identycznej wielkości (26,5" 2560x1440 DLAA vs 26,5" 3840x2160 DLSS Balanced). Tutaj wolę 4K DLSS.

49 minut temu, sideband napisał(a):

Przy DLSS B na 31.5" 2160p aliasing nieźle już bije po oczach ;) 

... przy DLSS4 Balanced (transformer) na 3840x2160 31,5" aliasing bije po oczach? ... :smiech: Pomyliłeś z 31,5" 2560x1440 natywnie (bez AA).

Edytowane przez Kyle
  • Upvote 1
Opublikowano

Na temat aliasingu nie będę dyskutował masa ludzi jest ślepa dopiero jak się komuś paliczkiem pokaże to dopiero zaczyna widzieć. 

Co jakiś czas już na labie majster zaczynał widzieć aliasing w grach i myślał, że coś z kartą lub monitorem, ale to tylko nagle oświecenie.

Opublikowano

@Kyle

Ty cały czas porównujesz to co ci się podoba do tego co jest lepsze a twój argument ze to nie jest lepsze jest taki ze ty nie masz odpowiednio szybkiej karty graficznej lub/i wielkiego ekranu żeby to zauważyć.

Nie zmienia to faktu ze to co pisze daje lepsza jakość obrazu i koniec kropka.

Opublikowano

Nie rozumiem, czemu mam wolić 2,5K od 4K jeśli chodzi o jakość obrazu.

Nie wiem czemu ty ciągle mieszasz rozdzielczości.

Co cię obchodzi inna rozdzielczość od natywnej, no chyba, że mówimy o DSR i wyjściu powyżej natywnej w celu AA.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Jak kupiłeś 9800X3D za te 1700 ziko no to spoko opcja.   Pod 1440p nie warto dokładać do 5080 bo 5070 Ti radzi sobie tam bardzo dobrze. Pod 4K już bardziej, bo tam się bije o każde ~ 10 klatek, a tyle mniej wiecej wynosi różnica w tych najbardziej wymagajacych grach  Około 15% wydajniej.   Co do gwarancji i water blocka, to szczerze mówiąc nie wiem. Możesz podpytać support Gigabyte, ASrocka czy Asusa. MSI chyba z góry odpada bo tam jest na bank plomba na śrubce od chłodzenia.   Modele do rozważenia (nie patrzac na kwestie gwarancji):   9070 XT:   https://www.ceneo.pl/181537757 https://www.ceneo.pl/181537757 https://www.ceneo.pl/181670804 https://www.ceneo.pl/181461988 https://www.ceneo.pl/181517097 https://www.ceneo.pl/181516996 https://www.ceneo.pl/182098189 https://www.ceneo.pl/181517389   5070 Ti:   https://www.ceneo.pl/183156250 https://www.ceneo.pl/181517101 https://www.ceneo.pl/186686530 https://www.ceneo.pl/181847056 https://www.ceneo.pl/181019477 https://www.ceneo.pl/181537752 https://www.ceneo.pl/183582145 https://www.ceneo.pl/182059955 https://www.ceneo.pl/186253857   5080:   https://www.ceneo.pl/182059955 https://www.ceneo.pl/182098188 https://www.ceneo.pl/182419776 https://www.ceneo.pl/181008713 https://www.ceneo.pl/182345258 https://www.ceneo.pl/184744266 https://www.ceneo.pl/179994601 https://www.ceneo.pl/179994603   Wydajnosc 4K 5080 vs 5070 Ti:          
    • kilkanaście sekund i 96-99 stopni cpu.    To bardzo wysoka temp po kilkunastu sekundach, doraźnie ustaw sobie power limit PL1 = 125 i PL2 = 130 (spadek boost będzie i tak tu mały) lub niżej, jeśli temp nadal będą wysokie.    A przede wszystkim sprawdź zamontowanie coolera na CPU, czy nie wygięty cpu, płyta od spodu, a cooler równomiernie dokręcony.  bo za szybko coś Ci ta temperatura wzrasta zdecydowanie, jakby cooler nie przyjmował ciepła dobrze. 
    • Sprawdź czy Ci karta dobrze siedzi w slocie i czy wtyczki kabli dobrze siedzą w GPU i zasilaczu. Miałem niedawno podobne objawy na swojej RTX3070Ti. Po kilku minutach dowolnej w dowolnej grze ciemny ekran, choć w głośnikach było słychać że komp w tle nadal normalnie chodzi. Już byłem przekonany że GPU pada, kombinowałem z napięciami, zmniejszałem OC pamięci, reset do ustawień fabrycznych, itd. Nic nie pomagało. W końcu poprawiłem ułożenie karty na podpórce i podociskałem wtyczki (mimo że nie czułem by były źle dociśnięte). Wszystkie problemy jak ręką odjął.   Ostatnio zmieniłem też w końcu obudowę- z Fractala Design Nano S na Deepcool CH260. Efekt- średnio minus 10 stopni na hot-spocie i pamięciach, mimo że we Fractalu podczas grania miałem otwarty panel boczny, a Deepcool normalnie pozamykany, z dokładnie tymi samymi wentylatorami przełożonymi z Fractala (1x120mm tył, 1x140mm top). Także na pewno warto mieć budę w której karta ma "czym oddychać". Jest to szczególnie ważne przy konstrukcjach z TDP powyżej 250W. 
    • Witam mam pytanie czy jest ktoś w stanie mi ocenić czy wszystko współgra tutaj z częściami itp czy nic nie bedzie sie przegrzewać ani nie będą spadki przez złe dobranie komponentów poniżej podsyłam listę z góry dziękuję za pomoc 😁    https://www.x-kom.pl/lista/3tbb6mlbr
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...