SebastianFM
Użytkownik-
Postów
628 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez SebastianFM
-
Pierwsza wersja nowych sterowników była dołączona do CUDA Toolkit 12.8. Z tego co widzę, to nadal ten plik jest dostępny. https://developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_local W nazwie ma 571.96.
-
To nie będzie coś w rodzaju FG tylko marna imitacja. Zobaczysz jaką to będzie miało jakość obrazu i artefakty. 😁 FG jest implementowany w grze, ponieważ wymaga dodatkowych danych, wektorów ruchu i informacji w których miejscach na ekranie gra wyświetla UI.
-
Gry mają możliwość przekazywania dodatkowych danych do FG takich jak klatka obrazu bez nałożonego UI lub dodatkowa tekstura z informacją w których miejscach na ekranie znajdują się elementy UI. Ma to na celu właśnie minimalizowanie artefaktów. Ja nie mam Spider-Man 2, żeby porównać czy przekazuje inne dane do FG niż Cyberpunk 2077.
-
@sideband, to, że są jeszcze jakieś inne czynniki to nie znaczy od razu, że ja napisałem coś nieprawdziwego. 😁 Jeżeli chodzi o czas to napisałem około, żeby nie musieć zagłębiać się w szczegóły. A co mają sterowniki do wydajności DLSS? Prędzej nowe biblioteki DLSS będą miały lepiej zoptymalizowane kernele i dzięki temu wydajność wzrośnie.
-
Potwierdza się to co napisałem, że czym wyższy FPS tym zmiana z CNN na Transformer będzie miała większy wpływ na wydajność. Sprawdziłem profilerem, że na RTX 4070 Ti samo skalowanie jednej klatki obrazu przez DLSS P do 4K przy użyciu modelu Transformer zajmuje około 2,1 ms więc przy takiej ilości FPS to przez ponad 30% czasu na karcie graficznej działa DLSS. 😁
-
Tak, ale to nie będzie stała wartość %. Użycie Transformer zamiast CNN wydłuża czas renderowania klatki o stałą wartość więc inny będzie wpływ na % wydajność przy 60 FPS a zupełnie inny przy 200 FPS.
-
@Kadajo, to tylko 0,1% Low FPS. Pytaj autora testu jak testował. Może coś nowego się pojawiło na ekranie i gra musiała doczytać.
-
Transformer nie powoduje 15% spadku wydajności. To są bzdury, błędnie wyciągniete wnioski. Dziwię się, że tyle osób to podłapało. Jak nie wierzysz to sam sprawdź u siebie.
-
Sterowniki GeForce & NVIDIA App - temat zbiorczy
SebastianFM odpowiedział(a) na daerragh temat w Karty graficzne
To nie jest błąd, że ta nakładka akurat tak wygląda w Cyberpunk 2077. W innych grach też jest zniekształcona. Wynika to po prostu z tego, że ten tekst jest nakładany na wyjściowy obraz DLSS a ten obraz jest dalej przetwarzany przez grę, post-processing, głównie masakruje go efekt aberracji chromatycznej. -
Dobre pytanie. Gdybym tylko miał np. RTX 5080 to mógłbym ci na nie odpowiedzieć. Według mnie wszystko można sprawdzić za pomocą profilera, analizując np. poszczególne etapy renderowania czy obliczania, etapy DLSS czy FG, testowe shadery. Na pewno ktoś prędzej czy później zrobi takie porównanie np. RTX 4080 vs RTX 5080. Jeżeli chodzi o RT to w grach podczas etapów śledzenia promieni nie są używane tylko rdzenie RT. Rdzenie RT są odpowiedzialne za znalezienie miejsca przecięcia puszczanego promienia z geometrią. Przy obliczaniu oświetlenia po ustaleniu miejsca przecięcia wykonywane jest bardzo dużo obliczeń i odczytów z pamięci i z tekstur. Promienie są puszczane w losowych kierunkach więc trafiają w różne miejsca i różne materiały. Powoduje to, że odczyty są losowe a nie sekwencyjne. Szybsze rdzenie RT nic nie zmienią w takim przypadku jeżeli wąskim gardłem jest wydajność w obliczeniach lub dostęp do pamięci. W bibliotekach DLSS są różne wersje kerneli CUDA dla różnych architektur. Może te dla Blackwell nie są jeszcze w 100% zoptymalizowane.
-
Sterowniki GeForce & NVIDIA App - temat zbiorczy
SebastianFM odpowiedział(a) na daerragh temat w Karty graficzne
Małe sprostowanie. Po pierwsze to nawet nie trzeba najnowszych sterowników, nowy DLSS i FG bez problemu działa na np. 566.36. Po drugie to po skopiowaniu do katalogu gry nowej biblioteki DLSS w większości przypadków nie będzie używany automatycznie Preset J cz K ponieważ gry nie korzystają z domyślnych ustawień tylko ręcznie ustawiają np. Preset A lub Preset E. -
To akurat zależy od gry i ustawień grafiki. Im bardziej sama gra obciąża GPU tym większa różnica w wydajności będzie pomiędzy DLSS P i DLSS Q a automatycznie mniejsza pomiędzy CNN i Transformer. Na tym filmie właśnie bardzo dobrze to widać. Np. w Alan Wake 2 przy DLSS Q CNN jest 52 FPS, przy DLSS P CNN jest 67 FPS a przy DLSS P Transformer jest 66 FPS. @galakty, to nie jest żaden fejk, zerknij na moje wyniki na RTX 4070 Ti, jak w zależności od gry na wydajność może mieć wpływ przełączenie pomiędzy trybami P i Q lub modelami CNN i Transformer.
-
Zainteresowało mnie to zamieszczone przez ciebie zdjęcie jednak zupełnie nie rozumiem czemu tak to oceniasz. Obok obudowy stoi potężny MO-RA co sugeruje, że procesor i karta graficzne będą zwodowane. Nie będzie żadnego problemu z ciepłem w obudowie. Do małych to ona nie należy a poza tym tam jest miejsce nawet na 8 wentylatorów, w tym 2 z tyłu.
-
@wallec, ja mam i9-13900KF, częstotliwości domyślne, oczywiście ustawione UV i dodatkowo wyłączyłem HT.
-
@PiPoLiNiO, ty się może zdecyduj czy będziesz grać w 4K czy 1080p na tym RTX 5090. W jakiej grze tak naprawdę i9-14900K by ci ograniczał FPS?
-
Tak, jeżeli wszystko dobrze zrobiłeś. Tak, w grze ustawiasz DLSS, zostanie zastąpiony przez DLAA jeżeli w NVIDIA Profile Inspektor masz włączoną taką opcję. Jak chcesz sprawdzić, czy działa tak jak ustawiłeś to możesz włączyć nakładkę wyświetlającą informacje na ekranie. Tutaj pisałem jak to zrobić. Tak to wygląda przy wymuszonym DLAA, rozdzielczość renderowania i wyświetlania są takie same.
-
Nie popieprzyli tylko jak ty sprawdzasz na innych ustawieniach to nie dziwne, że ci wychodzą inne wyniki.
-
A nie przyszło ci do głowy, że to przez to, że Ampere ma jednak znacznie niższą wydajność rdzeni Tensor?
-
W katalogu gry podmienić pliki na te z Cyberpunk 2077 2.21. Biblioteka nvngx_dlss.dll odpowiada za DLSS i DLAA, nvngx_dlssd.dll za Ray Reconstruction a nvngx_dlssg.dll za Frame Generation. W przypadku DLSS i DLAA trzeba dodatkowo zmienić ustawienia tak, żeby gra korzystała z Preset J. Można wymusić stosowanie tego presetu za pomocą NVIDIA Profile Inspector, globalnie lub dla danej gry. Jeżeli chodzi o RTX 40x0 to niewielki wpływ na wydajność, dla RTX 4070 Ti to 0,5 ms na klatkę w rozdzielczości 1440p, dla RTX 4090 podobnie w rozdzielczości 4K.
-
@cichy45, na RTX 4090 to FG do tej pory generował klatkę pośrednią w około 2,5 ms. Nowy FG potrzebuje około 40% czasu mniej tylko zastanów się, że to jest w tym przypadku zysk tylko 1 ms na 2 klatki.
-
Jaki spadek? 😁 Jest wzrost wydajności a nie spadek, ponieważ nowy FG jest znacznie wydajniejszy. Porównałem wydajność biblioteki FG nvngx_dlssg.dll w wersji 3.5.10.0 z najnowszą 310.1.0.0. Horizon Forbidden West, 4K, DLAA, włączony FG. 82 FPS vs 92 FPS. Cyberpunk 2077 2.21, ustawienia Ultra, 4K, włączony FG. 66 FPS vs 72 FPS. Na mojej karcie graficznej, w rozdzielczości 4K, przy użyciu najnowszej biblioteki generowanie klatki pośredniej trwa teraz około 3 ms zamiast 5,5 ms czyli o ponad 40% krócej. Jeżeli chodzi o DLSS SR lub RR to użycie nowego modelu Transformer z kolei obniża wydajność, w rozdzielczości 4K w jednym i drugim przypadku trwa około 1 ms dłużej.
-
Aktualnie dostępna wersja DLSS Swapper v1.0.5.0 w katalogu gry podmienia tylko bibliotekę nvngx_dlss.dll odpowiedzialną za DLSS SR. W przypadku DLSS SR trzeba jeszcze ustawić Preset J, żeby był używany nowy model Transformer. Z tego co przeczytałem na Reddit, to można to zrobić za pomocą Nvidia Profile Inspector. Dodając odpowiednie wpisy w rejestrze Windows można włączyć nakładkę wyświetlającą informacje o DLSS i FG. ShowDlssIndicator ustawiony na 0x400 wyświetla informacje o DLSS w lewym dolnym rogu a DLSSG_IndicatorText ustawiony na 2 wyświetla informacje o FG w lewym górnym rogu. Przykład.
