Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano
27 minut temu, elfuegoxxx napisał(a):

Wszystko jasne , info pokazuje presety. siakaś tam róznica jest w ostrości .Dzięki,  bez odbioru.

Nowe presety czyli J i K najwoeksza poprawę przynoszą w ruchu. Tu roznica jest dużo bardziej zauważana

Opublikowano
Godzinę temu, leven napisał(a):

Apka nvidii w locie podmienia pliki DLSS, gdy uruchamiasz grę, po jej zakończeniu pliki wracają do oryginału.

Tego właśnie pewien nie byłem, super że tak się dzieje :thumbup:

Godzinę temu, leven napisał(a):

A u Ciebie to już w ogóle ciekawie jest :E

Lubię jak jest ciekawie i coś się dzieje :D

A tak serio, dzięki za wytłumaczenie :thumbup: 

Od jakiegoś czasu używam tej apki Nvidii, nawet do aktualizacji sterów :) O dziwo jeszcze nic się nie wysypało, a kilka tych sterów już było ;)

Generalnie NPI i DLSS Swapper już nie potrzebny :)

  • 2 tygodnie później...
  • 4 tygodnie później...
Opublikowano (edytowane)

 

 

Osoby, które powinny to obejrzeć, raczej nie obejrzą, bo zapewne rozpędzą się do krytyki autora i formy przekazu, i czegośtam jeszcze. Ale mimo wszystko podejmuję próbę namówienia: obejrzyjcie na spokojnie, bez z góry założonego "gada bzdury, ja wiem lepiej"

 

Szczególnie polecam osobom z opiniami "MSAA is dead" czy "Temporalne upsallery są super, to jedyna droga naprzód, nie da się bez tego mieć nowoczesnej grafiki" i tak dalej.

 

Sam widzę jedną czy dwie wady tego video, a do tego nie zgadzam się w 100% z podejściem tego młodziaka ogólnie, ale zgadzam się z nim w 100%, ze MSAA zostało zakopane o wiele za szybko i narosło wokół niego wiele mitów, w tym pomyłki typu używanie MSAA powyżej 4x i tam, gdzie ma ono niepotrzebnie zbyt wysoki koszt. Są też kwestie pośrednie - w budowie samych GPU, kosztów R&D, widzimisię Nvidii i AMD w konfigurowaniu kart (szyna, ROPy, przepustowość, cache) itp.

 

Dodam tylko od siebie, że Carmack mówił, że wielu developerów robi grę, a potem myśli o AA, a lepiej wychodzi jak myślisz o AA zanim zaczniesz robić grę. 

Bo potem wychodzi jak jest teraz, że bez TAA wszystko wygląda jak jakieś glitche i artefakty. Laicy (teraz nie piszę o osobach z tego forum) często biorą to za dowód na to, że MSAA się nie da używać, bo przecież wszystko i tak jest popsute. Chodzi o undersampling i robienie gry tak, że developer już z góry zakłada, że na to przyjdzie TAA pass.

 

Jeśliby zmienić priorytety mainstreamu branży na VR i HFR (300+fps lub 240fps + FG) to by się okazało, że MSAA wcale takie nieprzydatne nie jest.

 

Edytowane przez VRman
  • Upvote 2
  • 4 tygodnie później...
Opublikowano

Odpowiedzą na te problemy jest optymalizacja. Po prostu łatwiej wrzucić jeden model z milionami polygonów i zrzucić wszystko na lumen i nanite żeby mieć taniej i szybko fajrant. 

 

To że jak będziemy ręcznie dłubać i optymalizować modele pod względem specjalnej techniki układania polygonów (jak wspomniane na filmie max area czy jak to się zwało) to oczywiste że będzie szybciej. Tylko że dłużej i drożej. A księgowi rządzą światem więc zgody na to nie będzie :E

Opublikowano

Problem w tym że robią niby coraz droższe gry, które są coraz większą kupą. ;)

Przynajmniej z DLSS jest również wygodne dla użytkownika, bo zmienia się jeden suwak i jest git... Gdy nie zależy mi na grafice i chcę ograniczyć nagrzewanie pokoju to mogę walnąć DLSS oraz power limit i jest 100w ciepła mniej.

 

Niestety pewnie już nie wrócimy ma masową skalę do msaa, bo już nawet AMD "marnuje" krzem na AI... Czekam tylko na Valve oraz dokończony Source 2, bo tylko oni mogliby coś namieszać.

Opublikowano (edytowane)

To mówisz, że na 300mln kosztu gry, grafik i programista zjada 290mln?

 

Zasadę napisałeś trafnie. Jasne, że krawaciarze podejmą takie decyzje jakie im się wydaje umieją podejmować - "niższe koszty! fuck yeah!" 

 

Tylko że jak potem gra wygląda jak gry sprzed dekady = mniej osób to kupi

Jak gra wymaga kompa za 8000zł aby wyglądać jak gra sprzed dekady na kompie za 1800zł = mniej osób to kupi

Jak nie będzie ogólnie postępu, gry będą cięły,  nie będą pozwalać cieszyć się szybkim ruchem na ekranie ani graniem w HFR = mniej osób zostanie graczami, mniej wejdzie w to hobby i zostanie stałym nabywcą gier

 

A zaoszczędzona kasa i tak pójdzie na premie dla CEO, na kolejne wydatki marketingowe, na budowanie sklepów z pierdołami w grze. Nawet miejsc pracy to nie uratuje na zasadzie "oj, splajtowaliśmy bo za drogo zrobiliśmy kod do grafiki i wydaliśmy na grafika który pracował nad optymalizacją w grze".

 

Unreal Engine to rak. RT i PT przed rokiem 2035 to rak. AI uspcallery powodujące projetkowanie gry pod nie (czyli nie da się wyłączyć, bo cały obraz szlag trafia) to rak. (za tą linijkę dostałbym bana na reddit oraz 500 minusów w ciągu minuty :E) 

 

PS. Ten młodziak z filmiku wyżej wypuścił kolejne video. Znowu zachęcam do oglądania.

 

 

Edytowane przez VRman
Opublikowano

Może nie aż tak radykalnie - ale jest w tym sporo racji. Niestety, tej rzeki już nie zawrócimy, niedługo ustawienia graficzne + poziom DLS/FSR. Najgorsze, że czasem i to nie działa... dlatego czasem łapię się już sam na pisaniu, że "optymalizacja OK, bo z DLSS Balanced nie wyciska ostatnich potów z GPU". :( 

Opublikowano
6 godzin temu, VRman napisał(a):

Unreal Engine to rak. RT i PT przed rokiem 2035 to rak. AI uspcallery powodujące projetkowanie gry pod nie (czyli nie da się wyłączyć, bo cały obraz szlag trafia) to rak.

Żaden rak. Ewolucja.

  • Upvote 2
Opublikowano (edytowane)

Kwestia postrzegania i świetny temat do dysputy.
A może to Ty, patrzysz na to rakiem (od tyłu)?

Może dobiliśmy do ściany sprzetowej (?) - a wymagania i sapania graczy nieustannie i nadal rosną?
Co zrobić? Jak dać im lepiej, ładniej, w wyższej rozdziałce bez tricków, DLSSów i innych?
Kompromis, próby objechania tego trickowością. 

 

Można siedzieć grzecznie na dupie, pogodzić się z realiami / wydolnością sprzętu, przestać w końcu sapać / oczekiwać minimum 4K 120 fps, przestać oczekiwać lepszych efektów, itd. i mamy receptę na (?)... zastój - w efekcie regress = w efekcie Twój "rak" właśnie IMO.

 

Edytowane przez JeRRyF3D
Opublikowano

Chcesz dyskutować a przecież już próbowałem i się nie zgodziliśmy. 

Podejrzewam, że chcesz przyznania racji raczej, ale OK - spróbuję jeszcze raz przedstawić swoje argumenty.

 

PT = wymóg frame gen = pogorszenie obrazu i COFANIE SIĘ a nie ewolucja

Temporal upscallery = zabicie jakości obrazu w ruchu i potężne negatywne reperkusje dla całej branży a i też branży wyświetlaczy jak monitory i TV

AI = super, ale za te AI karzą nam płacić. 5060 mogłaby się nazywać 5060 a nie 5070ti i bez AI mieć więcej wydajności. Teoretycznie - bo chciwość Nvidii to osobny temat. W każdym razie to, że AI daje korzyści graczom, nawet gdy mowa o DLSS4, to moim zdaniem kompletna bzdura. 

Unreal Engine - o tym to odsyłam do filmików młodziaka wyżej. Właśnie dziś się dowiedziałem, że uwalili nawet forward renderer i teraz jest on w gorszej wersji niż w UE 4. O wadach UE można gadać i gadać.

 

Zabicie HFR - bo z bogatym RT lub PT czy z Unreal Engine z taką grafą, żeby się podobała, można zapomnieć o ponad 100fps w 1440p nawet na kartach za grubo ponad tysiąc dolarów. 

 

Prawdziwy HFR (500fps) pozwoliłby na piękny obraz w ruchu na OLEDach 500Hz. To też nam ta cudowna "ewolucja" zabiera.

 

Do tego pełno efektów pośrednich jak wysoki koszt kart -> oszczędzanie na RAMie i teraz na kartach z 8GB w grach masz już gorszy obraz niż na karcie z 4GB dekadę temu. 

Wysokie ceny GPU i moda na silniki marnujące moc to też ogromnie ważny czynnik w temacie upadku VRu. Czyli tego co jest największą rewolucją (nie ewolucją) i najbardziej pasuje do określenia "to jest przyszłość gamingu". Za 50 lat nikt nie będzie grał bez choćby stereoskopowego 3D, a z pomysłu grania na jakimś wielkim klocu w pokoju zamiast na większym ekranie w okularkach, z perfekcyjnym 3D, gracze będą się śmiali. 

 

Wróćmy do UE5, RT, PT, TAA itp.

Te cudowne technologie mi się nie podobały już od czasu zachwytu materiałami. OK, w niektórych grach realizm jest potrzebny. Ale nie w 99%. Nawet nie w 50% bym powiedział. A dobijamy powoli do 100%.

I potem jeden materiał ma 5 czy cholera wie ile wartsw. 10? 15 już? Przestałem śledzić lata temu jak było 6. Wszystko po to, aby materiał wyglądał jak w realu. I super jak ktoś chce grę silącą się na realizm, ale w reszcie niepotrzebnie marnuje się 2/3 pamięci. 

No i efekt uboczny - wszystkie gry zaczynają wyglądać tak samo, co nie miało miejsca gdy branża była jeszcze w erze przed tą całą "nowoczesnością". Czysty raster "starego typu" pozwalał na wysokie rozdzielczości natywne (dziś zapomnij) i na to, że każda gra wyglądała inaczej. Oczywiście, że było trudniej robić gry i trzeba było umieć. I takie beztalencia graficzne jak ja sobie nie poradzą. Jak 25 lat temu zacząłem się uczyć jak zrobić realistyczną scenę w 3D Studio MAX, to się poddałem. :D

Ale bądźmy poważni. Gry mają dziś budżety 50-400mln $. Stać wydawcę na fachowców. Przecież światło, efekty metalu i odbić były spoko w grach naście lat temu. Wystarczyło, żeby pracowali przy tym ludzie kompetentni a wydawca nie szukał oszczędności tam gdzie nie powinien. 

 

Do tego gry były "future friendly". Można było sobie po latach odaplić grę w 10x wyższej rozdziałce. To też utraciliśmy bo dzisiejszą grę możesz sobie w 2050 odpalić choćby i w 32K, ale gównianego TAA czy innego DLSSu kaszaniącego obraz w ruchu nie wyłączysz, bo się nagle cała gra "rozleci" (understambling np. na włosach, drzewach, cieniach)

 

No i stutter - ciężko to nazwać czymś innym niż krok wstecz. Tyle lat czekaliśmy

- w końcu mamy więcej RAMu! nie musi być przycinek przez doczytywanie!

- w końcu mamy SSDeki! Nie będzie problemu z doczytywaniem!

- W końcu mamy (tu wstaw nazwy dla technik jak w PS5 czy "direct storage") - i co? I dostajemy traversal stutter albo shader compilation stutter. 

No super postemp!

 

Co do postępu technologicznego to dam Ci  taki przykład:

AMD przez dekadę nie potrafiło nawiązać rywalizacji z Intelem w oczach wymagających graczy. W zasadzie od 2006r. do premiery Zena 3. Ja przez cały czas pisałem, że mogliby dać więcej cache'u. Na forum frazpc mnie wyśmiewali "jak taki mądry to idź do AMD niech cię zatrudnią, myślisz, że oni wpadli na taki pomysł?"

I co? 

I AMD całkowitym przypadkiem robi proca dla serwerów z dodatkową pamięcią (X3D V-cache) i nagle się okazuje, że to pięknie śpiewa w grach. I co robi AMD? Nie ogarnia tematu. Zostaje zaskoczone popularnością proców z X3D w serii 5xxx. Potem nadal nie rozumie  i zostaje zaskoczone sprzedażą 7xxx X3D. NADAL niczego nie rozumie i zostaje po raz trzeci zaskoczone dobrą sprzedażą X3D w serii 9xxx. Po drodze zwykłego cache'u robi się 32MB (a nie 16+16) i w grach mamy postępy w 2 lata jakich wcześniej nie było przez pół dekady.

Teraz nagle proce Intela zaliczyły regres, bo cel Intela został przesunięty na serwery.

 

To pokazuje, że "ściany" postępu często są pozorne. 

Z architekturą GPU też tak jest. Na pewno możnaby zaoszczędzić miejsca odchudzając shadery, wywalając segmenty dla RT i krojąc AI do ułamka tego co mają obecne karty (AI na poziomie rtx 3060 w kartach typu 7090) i za to dać tam np. mnóstwo cache'u. A przy okazji - dla mnie najważniejsza poza teksturami (a ten problem załatwia dużo pamięci na karcie, gdzie 4GB to dla mnie dużo, a 12GB kosztujące dziś producenta karty całe 20$ to już całkiem)  to ile można dać unikatowej geometrii. Niestety tutaj od dawna wisimy na czymś, co się łączy z czasem dostępu do pamięci. Także moim zdaniem bardzo prawdopodobne, że np. jakiś rtx 7060 ze 192MB cache'u mógłby zaoferować prawdziwą rewolucję i ewolucję, a nie wydano by miliardów na opracowywanie segmentów AI dla tego GPU, więc to nie tak, że taka karta musi kosztować 3000$. Szczególnie jakby nie była przydatna do żadnych profesjonalnych obliczeń czy AI. Tak jak proce 4 jajowe gdy już wymagający gracze poszli w 6 i 8 rdzeni mogą być tanie, bo nie są atrakcyjne dla wielu grub potencjalnych nabywców, a jednak i AMD i Intel świetnie na nich zarabiał. Teraz to samo robią z 6, gdzie 12400f czy 5600 to proce tanie jak barszcz, ale świetne dla graczy.

 

 

 

  • Upvote 1
Opublikowano (edytowane)
8 godzin temu, VRman napisał(a):

Unreal Engine to rak. RT i PT przed rokiem 2035 to rak. AI uspcallery powodujące projetkowanie gry pod nie (czyli nie da się wyłączyć, bo cały obraz szlag trafia) to rak. (za tą linijkę dostałbym bana na reddit oraz 500 minusów w ciągu minuty :E) 

W pełni zgoda, ale brakuje zasobów ludzkich, które by odwróciły ten trend, dlatego czekam na wypuszczenie kompletnych narzędzi od Source2, bo to jedyny, nowy silnik, który mógłby być użyty na szeroką skalę, będąc przemyślanym. Unity też utrzymuje "tradycyjne" narzędzia w dobrym stanie, ale niewielu tworzy na nich masywne projekty oraz firma robi niepokojące manewry z licencjonowaniem silnika. 

Natomiast wątpię czy Threat Interactive zbuduje taką presję wśród społeczności, że realnie coś się ruszy. Sam lubię jego filmy, ale niestety nie przebije się takim stylem działalność... Gdyby tylko miał więcej pozytywnych przykładów oraz szerszą grupę ludzi otwarcie z nim współpracujących...

Edytowane przez musichunter1x
Opublikowano
29 minut temu, VRman napisał(a):

Chcesz dyskutować a przecież już próbowałem i się nie zgodziliśmy. 

Doprawdy? Zapomniałem. :)
 

 

30 minut temu, VRman napisał(a):

Podejrzewam, że chcesz przyznania racji raczej, ale OK

Absolutnie nie. W ogóle uważam, ze dyskusja fajna jest sama w sobie.
To nie musi być zawsze "pojedynek". To wymiana zdań i wzajemna nauka.

 

Do tego jest turbo trudnym adwersarzem, bo piszesz z prędkością myśli. :)

Jak ja to widzę.
Po pierwsze. W pierwszej zaczepnej zaledwie odpowiedzi poruszasz WSZYSTKO & cały świat gamingu, technologii & GPU, AI, itd. aż nie wiadomo do czego się odnosić. Nie sposób.
Po drugie, mówisz to z perspektywy fachowca, a nie "szarego" usera. To forum dla IT zakreńceńców, a kładę głowę na tory, że nawet tu, wielu to czytających, 50% terminów, o których mówisz, nie kuma.
Po trzecie, mówisz to z perspektywy ortodoksa gamingu (!), 500fps, OLEDy 500Hz, coś jak debaty "audiofilskie". 

Twoje oczekiwania w/w są właśnie "audiofilskie", a to... musi kosztować - a jak nie musi (bo nie musi) - to dla zasady będzie drogie. Jak wszelkie wariactwa audiofilskie. Nie muszą być najlepsze - muszą być najdroższe, to się je tworzy. Rynek gamingu niestety celuje "w szarego odbiorcę", nie "audiofilskiego" (choć i dla niego jest kawałeczek tortu z gpu xx90 na końcu oznaczenia). Do tego dochodzi aspekt "peselu". Ty wiesz jak było, wiesz jak wyglądał obraz. Dzisiejszy 20 letni gracz już od 5 lat gra z DLSS i - w moim przekonaniu - baaaardzo by sapał, gdyby z jakiegokolwiek powodu i dla kosy obrazu mu go nagle zabrać. Za 5 lat to już w ogóle będzie kosmos. Takie małe gotowanko żaby. Ty je dostrzegasz. Młodzi nie. A to młodzi są rynkiem. Ani Ty, ani ja. Choćbyśmy się zapierdzieli z naszymi potrzebami i mądrościami.

 

Jak się bawię komputerami, tak co chwilę dotyka mnie jakiś kompresor, od statyków - gifów, jpgów, wideo - mpgów i innych, audi -mp3jek, softu - rarów i zipów, nawet na commodorkach chyba mieliśmy "turbo" vs atarowcy, którzy last ninja ładowali 45 min (cała strona 90tki) ;). KOMPRESJA towarzyszy nam od zawsze. Na wszystkich polach. soft, grafika, wideo, audio. Dlaczego teraz nagle (?) z tego powodu w gamingu jest taki rejwach (DLSS)? Nie ma go! To nasze pokolenie go generuje. Dzisiejszy konsument ma na to wywalone. A to on jest sakwą do obdarcia. Nie Ty ani ja. Do tego czas! Pierwsze mp3ki trzeszczały jak drzwi, dzisiejsze w zależności od kompresora i stopnia kompresji - można mieć naprawdę czyste. DLSS 9, będzie pewnie też niemal bezstratne IMO. ;)

PT do 2035 to porażka? Tak. Też tak uważam. I?
To proces. Musi trwać. Żeby ktoś zrobił dobry lek, ileś tam szympansów na zapleczach farmaceutycznych obozów traci życie w imię "wyższej potrzeby". Dziś trochę dostajemy po dupie, będąc takim szympansem, na którym szkoli się gaming, ale IMO - nie ma innej drogi. Można by to robić w laboratoriach i wyprowadzić na świat w 2035, jak będzie gotowe. Tak. Tylko skąd na takie badania wziąć kasę? Po prostu - wygenerowac w graczu w potrzebę posiadania tego - zaimplementować w gry kawałek, a sam gracz nam to sfinansuje kolejnymi zakupami gpu. Jeszcze dziękując. Klasyczny mechanizm marketingowy. Tak ponoć było z klimą w aucie. Duch czasu. Dziś młodzież nie docenia jakości (fabuły, jakości obrazu, artyzmu). Ma być szybko i dużo. To, co widzimy, boli tylko nas. To dla nas jest regress. Dla rynku to normalny postęp. 

 

 

 


 

  • Upvote 1
Opublikowano (edytowane)

No jeśli na serio piszesz, że nie pamiętasz, to sorry. Może niepotrzebnie generalizowałem, bo na labie i trochę też tutaj leciały raczej wypowiedzi typu "jesteś za głupi, ja wiem lepiej" i tyle. Jeśli nie byłeś wśród tych osób to fajnie i sorry że Cię do nich wrzuciłem.

 

No fakt, z tym stanem rynku to masz rację. Złożyłem kumplowi kompa, to w F1 2025 narzeka, że bolid nie wygląda realistycznie tylko nienaturalnie. Ja mu ustawiłem tak, że miał 90fps. On ustawił żeby bolid nie cyt. "wkurzał tym dziwnym wyglądem" i miał... 30fps. 

To kompletny laik w temacie gier, nigdy nie miał kompa, tylko konsolę.

Jego syn na tym kompie chce grać w Valorant, Fortnite'a i nie chcące się z jakiegoś powodu odpalić The Isle, a o graniu w gry nie online multiplayer nawet nie chce słyszeć.

 

Fakt, że ignorancja wśród mainstreamu graczy to poważny problem i ciężko się z tym co napisałeś choćby częściowo nie zgodzić (a w kilku miejscach całkiem się zgadzam)

 

 

@JeRRyF3D

 

35 minut temu, JeRRyF3D napisał(a):

nawet na commodorkach chyba mieliśmy "turbo" vs atarowcy, którzy last ninja ładowali 45 min (cała strona 90tki) ;)

Miałem Turbo 2000 na Atari i jakaś gra z ukłądaniem skrzynek ładowała się w 2-4 obroty. Już nie pamiętam, ale no superszybko.

I nie pisz mi o kasetach i Atari, bo jak się rozkręcę to ten post osiągnie rozmiary kwalifikujące go do wydania książki. 

ARJ też pamiętam :D

Nawet formatowanie dysku w 386tce przez całą noc pod Double Space'a pamiętam. 

(oho, już zaczyna mi się nostalgia włączać. A nie mówiłem?!)

 

Co ostastniego akapitu to się jednak kompletnie nie zgodzę poza tym o generowaniu potrzeb. To fakt. Nvidia ładnie wygenerowała potrzebę dla RT/PT i AI. Ale niepotrzeba tutaj graczy. W sumie to rozpisałbym się na ten temat ale już mnie oczy bolą od monitora i czas się przejść na spacer, więc może o tym czemu rozwój PT w grach nie wymaga wcale dekad męczenia graczy i R&D napiszę kiedy indziej. 

Co do pisania w tempie myśli - no fakt, mógłbym to przeredagować przed dodaniem, ale to forum a ja za wpis płacę zamiast zarabiać (płacę swoim czasem i potem kacem moralnym że o pierdołach pisałem zamiast coś zrobić albo w coś zagrać ;) ) więc już tak musi być.

 

Edytowane przez VRman
  • Like 1
  • Upvote 1
Opublikowano
3 godziny temu, musichunter1x napisał(a):

W pełni zgoda, ale brakuje zasobów ludzkich, które by odwróciły ten trend, dlatego czekam na wypuszczenie kompletnych narzędzi od Source2, bo to jedyny, nowy silnik, który mógłby być użyty na szeroką skalę, będąc przemyślanym. Unity też utrzymuje "tradycyjne" narzędzia w dobrym stanie, ale niewielu tworzy na nich masywne projekty oraz firma robi niepokojące manewry z licencjonowaniem silnika. 
 

Unity to jeszcze gorszy silnik jak UE nie wspominając o możliwościach. Dlatego nic poważnego nie powstaje na tym silniku.

Unity też cierpi na ciągły stutter tylko nikt o tym nie wspomina bo ten silnik w zasadzie się nie liczy ;)

Opublikowano (edytowane)

A to ciekawe.

Rozwiniesz?

 

Co prawda z 7 lat temu (edit: a nie, to już 8-9 minęło od premiery), ale grałem w kilka gier zrobionych w Unity, spod palca weteranów w branży i wydajność była spoko, stutteru żadnego nie było na 100% (nie ma opcji, że był ale nie zauważyłem)

 

To oni napisali tak istotną część sami czy stutter wynika z nowszej wersji Unity lub z użycia nowszych funkcji? A może z tego, że jest trudno i wymaga dobrych umiejętności i co gorsi programiści np. nie przestawiają jakiegoś ustawienia, bo nawet o nim nie wiedzą?

 

Edytowane przez VRman
Opublikowano

Nie interesowałem się tym tematem trzeba by poszukać mogą nawet filmy na YT.

O UE też tego sporo jak usunąć lub zminimalizować stutter. Poza tym nowsze wersje UE to i tak lepiej ogarnięte pod tym względem.

CarX Street samochodówka na Unity co chwilę łapie mikrościnki i wymagania także są dosyć patrząc na grafikę. Oczywiście nie jest to patologia jak Test Drive Solar Crown, który działa na marnym KT Racing.

Opublikowano

Niedawno Lossless Scaling dostał kolejną aktualizację, jeśli ktoś używa to:

 

LSFG 3.1
Ta aktualizacja wprowadza znaczące ulepszenia architektoniczne, ze szczególnym uwzględnieniem jakości obrazu i wzrostu wydajności.

 

Ulepszenia jakości

  • Poprawiono ogólną jakość obrazu w określonym zakresie znaczników czasu, z najbardziej zauważalnym wpływem w trybie adaptacyjnym i trybie stałym o wysokim mnożniku
  • Poprawiono jakość przy niższych skalach przepływu
  • Zmniejszono efekt ghostingu ruchomych obiektów
  • Zmniejszono migotanie obiektów
  • Ulepszono obsługę obramowań
  • Udoskonalono wykrywanie interfejsu użytkownika

Wprowadzono tryb wydajności

  • Nowy tryb zapewnia do 2-krotnej redukcji obciążenia GPU, w zależności od sprzętu i ustawień, przy niewielkim obniżeniu jakości obrazu. W niektórych przypadkach ten tryb może poprawić jakość obrazu, umożliwiając grze osiągnięcie wyższej podstawowej liczby klatek na sekundę.

Inne

  • Dodano lokalizacje w języku fińskim, gruzińskim, greckim, norweskim, słowackim i toki pona
  • Like 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...