Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
3 minuty temu, Kadajo napisał(a):

DLAA ze nie wspomne o tym ze dla mnie to praktycznie wygalda lepiej niz natywna :E

A na pewno niż TAA i inne badziewia :E Tylko MFS 2024 lepiej wygląda na TAA niż DLAA ale pewnie też to ogarną (tu coś czuję że wina siedzi po stronie Asobo...)

Opublikowano (edytowane)
W dniu 2.02.2025 o 15:22, tomn2o napisał(a):

Tak, czy inaczej spadek wydajności jest zauważalny. W bf2042 grałem bez problemu na dlss performance w 4k (ustawienia kompetetywne, żeby nie było) w 165hz. Na dlss4 jest to 140-150fps obecnie (te same ustawienia graficzne gry, oczywiście). Wcześniej z dlss:180-190W, z dlss 4: 230W. Także taki urok nowej technologi..

zgadza się, tryb performance jest ładniejszy, ale ma wydajność tego "starego" balanced. A poniżej performance już nie zejdę, bo ultraperformance jest już taki sobie (aczkolwiek nadal zaskakująco dobry, jak na skalowanie z 720p...)

Potwierdza się to co napisałem, że czym wyższy FPS tym zmiana z CNN na Transformer będzie miała większy wpływ na wydajność.

 

Sprawdziłem profilerem, że na RTX 4070 Ti samo skalowanie jednej klatki obrazu przez DLSS P do 4K przy użyciu modelu Transformer zajmuje około 2,1 ms więc przy takiej ilości FPS to przez ponad 30% czasu na karcie graficznej działa DLSS. 😁

Edytowane przez SebastianFM
Opublikowano
3 minuty temu, SebastianFM napisał(a):

Potwierdza się to co napisałem, że czym wyższy FPS tym zmiana z CNN na Transformer będzie miała większy wpływ na wydajność.

 

Sprawdziłem profilerem, że na RTX 4070 Ti samo skalowanie DLSS P do 4K przy użyciu modelu Transformer zajmuje około 3,5 ms więc wychodzi na to, że u ciebie przy takiej ilości FPS to przez około połowę czasu na karcie graficznej renderuje gra a przez drugą połowę działa DLSS. 😁

Na relatywnie niskim (40-70 fps), również zmiana jest wyraźnie widoczna i odczuwalna. Nic tutaj za darmo nie jest.

  • Upvote 1
Opublikowano
5 minut temu, Raider napisał(a):

U mnie to samo było jak się bawiłem OC, przeinstalowałem DDU stery pierwej boost się odblokował ale daj karcie skończyć to jeśli odpalałeś: image.thumb.png.ad167e90286799549a8c4bf336e617b3.png

Nie odpalałem, pierwszy raz widzę na oczy, że tam coś takiego jest :E

Opublikowano
4 minuty temu, SebastianFM napisał(a):

Potwierdza się to co napisałem, że czym wyższy FPS tym zmiana z CNN na Transformer będzie miała większy wpływ na wydajność.

 

Sprawdziłem profilerem, że na RTX 4070 Ti samo skalowanie DLSS P do 4K przy użyciu modelu Transformer zajmuje około 3,5 ms więc wychodzi na to, że u ciebie przy takiej ilości FPS to przez około połowę czasu na karcie graficznej renderuje gra a przez drugą połowę działa DLSS. 😁

Nie do końca to prawda ;) W zależności od miejsca wpływ się zmienia pomimo podobnej ilości klatek ;)

Spokojnie bym czekał jak kolejne stery będą to zmieniać z czasem.

Opublikowano

Z czasem sterowniki będa powodowały coraz większe różnice między 4000 a 5000 (mam nadzieje nie kosztem spowalniania sztucznego 4000) a także będą na bank pracować nad DLSS4, za chwilę będzie DLS 4.1 itd. 

Opublikowano (edytowane)

@sideband, to, że są jeszcze jakieś inne czynniki to nie znaczy od razu, że ja napisałem coś nieprawdziwego. 😁 Jeżeli chodzi o czas to napisałem około, żeby nie musieć zagłębiać się w szczegóły. A co mają sterowniki do wydajności DLSS? Prędzej nowe biblioteki DLSS będą miały lepiej zoptymalizowane kernele i dzięki temu wydajność wzrośnie.

Edytowane przez SebastianFM
Opublikowano
14 minut temu, SebastianFM napisał(a):

Potwierdza się to co napisałem, że czym wyższy FPS tym zmiana z CNN na Transformer będzie miała większy wpływ na wydajność.

 

Sprawdziłem profilerem, że na RTX 4070 Ti samo skalowanie DLSS P do 4K przy użyciu modelu Transformer zajmuje około 3,5 ms więc wychodzi na to, że u ciebie przy takiej ilości FPS to przez około połowę czasu na karcie graficznej renderuje gra a przez drugą połowę działa DLSS. 😁

A na nowym genie tez jest spadek wydajnosci, ze wlaczasz performance a wydajnosc masz balanced?? Czy w kazdym trybie jest taki jak powinien po staremu ??

Opublikowano
12 minut temu, Kadajo napisał(a):

Ja wam powiem ze przez lockowanie FPS na 60 albo 82 nie zauważam tych spadków.

No wiadomo, przy locku masz zapas mocy... zrób porównanie bez locka, to się zdziwisz.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...