Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)

Faktycznie - zbyt pobieżnie sprawdziłem temat. DLSS4 nie korzysta już ze sprzętowego OFA, tylko używa modelu AI (transformera) do wyliczania ruchu między klatkami.

 

https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ai-innovations/

 

"We have also sped up the generation of the optical flow field by replacing hardware optical flow with a very efficient AI model. Together, the AI models significantly reduce the computational cost of generating additional frames."

 

Blackwell ma nowsze Tensory z większą przepustowością i niższym opóźnieniem, więc szybciej liczy model AI od FG. Przy niższym FPS Blackwell trzyma frame pacing, a Ada zaczyna się rozjeżdżać.

Edytowane przez DżonyBi
Opublikowano

Raczej ma dlatego możliwość generowania x3 i x4, generator klatek działa na ADA i Blackwelll identycznie. Różnica jest tylko w mnożniku.

Dzięki OFA FG powinno też działać na starszych kartach tylko obciążać je trochę bardziej, oczywiście Nvidia nic z tym do dziś nie zrobiła.

Opublikowano (edytowane)

Niekoniecznie, dlatego dostał MFG, ale zyskał też poprawiony FG. To wydaje się całkiem logiczne. Mówimy o frame pacing, a on dotyczy FG i MFG.

 

MFG to tylko mnożnik x3/x4. Różnica między Ada a Blackwell'em wynika z tego, jak szybko i stabilnie AI liczy klatkę. Blackwell robi to szybciej, więc miało sens dopiero na nim wprowadzić MFG.

 

Różnice robią się bardziej zauważalne przy niższym FPS.

 

Po drugie EH pisał o różnicy w FG, bo Ada nie ma MFG.

Edytowane przez DżonyBi
Opublikowano

Według Nvidii frame pacing staje się większym problemem przy x3 i x4, dlatego trzeba było stworzyć Flip Metering natomiast nie wyjaśnili, dlaczego jest on znowu na poziomie sprzętowym, tzn. my wiemy dlaczego, ale nie potrafili tego sensownie wyjaśnić.

Tak jak przy ADA nie potrafili sensownie wyjaśnić OFA, a potem się okazało ze on w sumie nie jest już potrzebny co tylko pokazuje ze oni po prostu lecą w uja.

Myślę ze ADA bez problemu mogłaby ogarnąć MFG tylko pewnie z większym narzutem na bazową wydajność.

Tak samo jak na bank Ampere mógłby ogarnąć x2.

Nie zdziwiłbym sie gdyby nawet Turing był w stanie użyć x2.

 

Myślę, że od Rubina zacznie się kombinowanie z blokowaniem MFG do konkretnych tire GPU.

Tym razem wymyślą bajkę ze niższe modele są "za słabe" do powiedzmy MFGx8 dlatego dostana tylko x6.

Dodatkowo będą musieli znowu wymyślić jakąś "magiczna" technologie na poziomie sprzetowym aby zablokować dostępność wyższego MFG dla starszej generacji.

  • Upvote 1
Opublikowano (edytowane)

Dobrze, że poprzednie generacje dostały cokolwiek z DLSS4, bo w przypadku nvidii nie jest to takie oczywiste. Może to ostatni taki prezent.

 

Z generacji na generację będzie coraz drożej i trudniej dołożyć natywną moc, a jak nie będzie już z czego karmić to dopiero zaczną się fikołki.

Edytowane przez DżonyBi
Opublikowano (edytowane)

Przecież mówił ten z pomalowanymi paznokciami na czarno chyba drugi po Jensenie w nVidii, że przy modelu transformer dla 2000 i 3000 rtxow FG zwykły jest możliwy. Ale, że musieli by robic do tego sterowniki, patrzac jak duzo zasobów przerzucili na A.I. watpie zeby to wyszlo. Byc moze przy DLSS 5 i MFGx8 nvidia zdecydowalaby sie na taki krok. Polki co zasoby przeznaczaja na co innego. 

Nie musisz uzywac OFA, ale mozesz, nvidia nie kazde Ci na jakich ustawieniach masz grac przeciez. Masz do wyboru tak potezna ilosc ustawien na kartach nv szczegolnie rtx 5000, ze naprawde idzie sie pogubic jak grac. Masz w CP TAA, ustawienia od low do ultra, do tego mozesz jak chesz zmienic na CNN lub transformer od DLAA po Ultra quality, po czym mozesz dla TAA i DLSS wlaczyc MFG od x2 do x4, potem mozesz to samo wszystko zrobic tylko ze z ray tracingiem, czesciowym albo calkowitym (tez jest duzo opcji) potem ostatecznie mozesz wlaczyc path tracing, i w opcjach jak powyzej od TAA do DLSS, z ray reconstrucion od DLAA do ULtra quality od FGx2 do MFGx4. Opcji jest cala masa, nie ma co narzekac, na konsoli masz tylko quality albo performance do wyboru czyli nie masz zadnego wyboru. I tam quality na tym FSR czy PSSR, wyglada jak ultra quality DLSS 310.4 .... z minimalnym RT i 60fps zamiast x razy wiecej na PC. 

A jezeli chodzi o to, czy FGx4 działałoby na RTX 4000, to nie. Juz teraz przy nizszym FPS jest problem, da sie grac nawet przy 40fps na 160, i jak sie nie macha jak zwariowany to obraz jest bardzo dobry, problemem jest jak sie macha przerzuca kamra bardzo szybko, wtedy lepiej miec te 60fps bazowe. Natomiast flip metering wlasnie działa najlepiej z gsync i idealnie wkraja framy w czas. Po to został wymyslony. nVidia i tak sie dobrze zachowala, bo RTX 2000 3000 i 4000 dostał upgread geanilny do DLSS 4 i najnowszych wersji DLL 310.4 dlatego chocby cena 4090 tak dobrze sie trzyma. Wiec mowienie, ze oni cos tam ukrywaja albo nie dowoża. Sorry zobacz na AMD i FSR 4 

Edytowane przez maxmaster027
Opublikowano

 

@maxmaster027

Widzę, że trzeba sobie odświeżyć trochę pamięć :D

8 minut temu, SebastianFM napisał(a):

To już się robi absurd, dyskutowanie czy MFG działałby wystarczająco dobrze na RTX 4000. Działa na RTX 5080? Działa. O ile niższą wydajność ma RTX 4080? :)

 

A sprzętowy Flip Metering to jest tylko wymówka.

Przy ADA jeszcze to ich OFA "kupiłem", ale po tym jak wyszedł Blackwell i oni stwierdzili ze sprzętowy OFA nagle już nie ma znaczenia i teraz liczy się Flip Metering zrozumiałem co się dzieje.

Dlatego dziś nie wierzę już w ani jedno slowo jakie wypluwa Nvidia bo ich pitolenie to w coraz większej mierze marketingowy bełkot.

Mało tego kombinują jak moga aby nie dało się tego wszystkiego poprawnie przetestować i zmierzyć.

  • Like 1
Opublikowano
Godzinę temu, Kadajo napisał(a):

Raczej ma dlatego możliwość generowania x3 i x4, generator klatek działa na ADA i Blackwelll identycznie. Różnica jest tylko w mnożniku.

Dzięki OFA FG powinno też działać na starszych kartach tylko obciążać je trochę bardziej, oczywiście Nvidia nic z tym do dziś nie zrobiła.

Nie działa tak samo skoro nie wykorzystuje OFA w Blackwellu i dlatego majster pisał o możliwym FG na starszych generacjach.

Mnie tam wcale nie zdziwiło, że nowy model DLSS jest dostępny dla starszych generacji. W żaden w sposób to nie przedłużyło żywotności tych kart. Na transformerze ADA/Blackwell jeszcze bardziej odjechał o Ampere i Turinga. Dlatego też również nie blokowali Mega Geometry bo i tak braknie wydajności nawet sztucznego blokowania nowych funkcjonalności.

Opublikowano
59 minut temu, DżonyBi napisał(a):

Dobrze, że poprzednie generacje dostały cokolwiek z DLSS4, bo w przypadku nvidii nie jest to takie oczywiste. Może to ostatni taki prezent.

Własnie przez DLSS4 nie wymieniłem 4070Ti, tak bym się złamał xD 

  • Haha 3
Opublikowano
3 minuty temu, Kadajo napisał(a):

Ale działa tak samo skoro nie wykorzystuje OFA w ADA ;)

Ma dokładnie taka sama jakość obrazu.

Zasada działania taka sama tylko inaczej jest wykonane na poziomie sprzętu i softu.

Poza tym jak sprawdzałem FG na Blackwellu to wydawało mi się, że działa nieco lepiej niż na ADA.

Opublikowano (edytowane)

Ada nie wspiera też obliczeń FP4. Nie wiem czy to ma wpływ..

 

Generalnie też uważam, że jak powstaje nowa karta to można ją lepiej zoptymalizować sprzętowo pod nowe technologie. Pewnie MFG dałoby się zaimplementować do Ady, ale wymagałoby to dużo optymalizacji i kompromisów, a finalny efekt i tak byłby niezadowalający. Z resztą większość i tak twierdzi, że to całe MFG to kupa, więc strata nie duża:E

Edytowane przez DżonyBi
Opublikowano (edytowane)
3 minuty temu, Kadajo napisał(a):

Jeśli był szybszy to czy to nie wynikało z samego faktu ze Blackwell jest po prostu szybszy od Ady ?

Jeżeli startujemy z tej samej liczby FPS to co za różnica?

A szybszy jest w obliczeniach AI, które są wykorzystywane do FG.

Edytowane przez DżonyBi
Opublikowano
Teraz, DżonyBi napisał(a):

Z resztą większość i tak twierdzi, że to MFG to kupa, więc strata nie duża:E

To kupa. Jak jeszcze będziesz zaraz miał zgadnięte 7 klatek przy 35fps by nie wyjść poza odświeżanie 500hz monitora to pewnie wtedy zobaczysz.

Nawet jak nie ruszasz myszką a obliczenia z silnika na 360° robione tego nie przepchną...

Opublikowano
12 minut temu, DżonyBi napisał(a):

Jeżeli startujemy z tej samej liczby FPS to co za różnica?

A szybszy jest w obliczeniach AI, które są wykorzystywane do FG.

No chyba na tym polega testowanie, aby sprawdzić ile z tego to faktycznie poprawione działanie FG, a nie tylko czysta wydajność AI, zresztą jak słusznie zauważył @SebastianFM ile tak naprawdę szybszy od 4080 jest 5080 wiec, dlaczego MFG ma na nim nie działać, bo wymyślili sobie Flip Metering i wymyślili sobie ze będzie sprzętowy, tak jak wcześniej OFA.

  • Upvote 1
Opublikowano (edytowane)

Screenshot_20251109-120412.thumb.png.37a8b90b318af93fac8675aa94883dfa.png

7 minut temu, Kadajo napisał(a):

ile tak naprawdę szybszy od 4080 jest 5080 wiec, dlaczego MFG ma na nim nie działać, bo wymyślili sobie Flip Metering i wymyślili sobie ze będzie sprzętowy, tak jak wcześniej OFA.

Nigdy się nie dowiemy, jak to będzie działać na ADA, ale EH napisał o różnicy w FG między Ada i Blackwell, i nie mam żadnych logicznych dowodów, żeby mu nie wierzyć. Patrząc ile tego ostatnio testuje, to mógł to zauważyć.

Edytowane przez DżonyBi
Opublikowano

@DżonyBi, nigdzie nie ma potwierdzenia, że MFG korzysta z FP4.

 

NVidia przy wprowadzaniu MFG zmieniła sposób ładowania kerneli CUDA i nie mam już możliwości ich przechwycenia jednak sprawdzałem wcześniejsze wersje FG i one korzystały tylko z instrukcji FP16, nie używały nawet FP8.

Opublikowano
Godzinę temu, SebastianFM napisał(a):

To już się robi absurd, dyskutowanie czy MFG działałby wystarczająco dobrze na RTX 4000. Działa na RTX 5080? Działa. O ile niższą wydajność ma RTX 4080? :)

 

A sprzętowy Flip Metering to jest tylko wymówka.

VSVS.thumb.jpg.ef598299845d9019cb35b03d43bf7605.jpg

Zależy od gry. Dla SOTTR wyglada tak. W innych grach to jest roznie. Tez zalezy czy porownujesz karty OC vs OC czy def vs def. Jak def vs def to roznice sa mniejsze, jak po OC jak widac to blackwell odjezdza

Opublikowano
10 minut temu, DżonyBi napisał(a):

ale EH napisał o różnicy w FG między Ada i Blackwell

Ale jakiej różnicy ? Konrad nie przeprowadza żadnych dogłębnych testów przecież.

3 minuty temu, maxmaster027 napisał(a):


leży od gry. Dla SOTTR wyglada tak. W innych grach to jest roznie. Tez zalezy czy porownujesz karty OC vs OC czy def vs def. Jak def vs def to roznice sa mniejsze, jak po OC jak widac to blackwell odjezdza

Bo Blackwell lepiej się kreci wiec oczywistym jest ze będzie wydajniejszy.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Być ładnym i się tak oszpecić... nie wiem czym to jest spowodowane, czy faktycznie strzępkiem mózgu czy ogólnym stereotypom że kobieta bez "lifitingu" jest brzydka.
    • Zacznij od formata i zainstalowania podstawowych rzeczy, msi center i tam tylko sterowniki do chpisetu i nic więcej, stery do grafy trochę starsze i testuj. Żadnych light, razerów i co przyjdzie Ci jeszcze do głowy, tym bardziej programów monitorujących, bo to też potrafi działać negatywnie na gry jak i na psychikę  .W obecnym stanie możesz jeszcze wrzucić ss z latencymoon. Czy w ww grach różnicę robią ustawienia graficzne? Tzn. czy jak dasz wszystko na low to jest taki sam efekt jak na Twoich ustawieniach? Czy jak ograniczysz liczę klatek do 60fps, to też jest problem? Ja wiem że w grach online trzeba mieć więcej, ale z ciekawości możesz zobaczyć. Oczywiście blokujesz klatki o te 3 mniej, niż masz odświeżanie monitora? A tak na marginesie możesz poczytać  https://forum.ithardware.pl/topic/8975-stuttering-latencymon/ https://forum.ithardware.pl/topic/8444-stuttering-w-grach/#comments tylko tutaj są procki od AMD czy ludzie sobie z tym poradzili to nie wiem, trzeba się zagłębić, aaa jeszcze mamy jednego kolegę którego stuttery już długo męczą i sobie z tym nie poradził, też na AMD.      
    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...