Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
7 minut temu, some1 napisał(a):

Ba, w większości testów na IThardware różnica pomiędzy FGx2 a MFGx4 jest poniżej 5 ms input laga. 5 milisekund to jedna klatka @200 fps

Co racja to racja, nagle 5ms-10ms wiecej i myszka plywa komus, niegrywalne! :hihot:

Opublikowano
8 minut temu, sideband napisał(a):

Porównują FG+Reflex vs bez FG+Reflex co nie jest uczciwe zwłaszcza, że część nowych gier bez Reflexa sama w sobie ma spory lag nawet bez FG.

Porównywanie do Vsync to abstrakcja poza tym przy wysokim poziomie klatek Vsync dodaje odpowiednio mniej opóżnienia, a więc FG i tak przegra :hihot:

Poza tym FG+Reflex nie ma stałego opóżnienia i potrafi mieć sporę skoki do góry tego też nie pokazują ;)

Nie wiem co oni porownuja. W sumie co mnie to. Natomiast jezeli chodzi o porownanie z reflexem. To bez fg jest nizszy inputlag tylko co z tego skoro po wylaczeniu fg x3 wyglada to przez dosc dlugi okres czasu jak pokaz slajdow dopolki sie nie przyzwyczaisz. 

DLSS Q 3440
Screenshot(70).thumb.png.7ac8f3952d2ac258775125dfae16e72b.png
Reflex, bez FG, 69FPS, ~30ms, tak samo skacze od 29 do 32ms.
Screenshot(24).thumb.png.cee5056e39fbd90a1257efbbe0fd7472.png
FGx2 38ms, skacze od 37 do 40ms
Screenshot(66).thumb.png.5e3e763b821a6b11d9f6328aeb3624d3.png
FGx3 39ms, skacze od 38 do 42ms. 

 

I tu jeszcze 4k DLSS P
Screenshot(46).thumb.png.c3a253951ec61255bedb8559dad8a430.png
FGx3, zachowuje sie identycznie jak 3440x1440 DLSS Q. Ten sam FPS ten sam inputlag. 

Gsync włączone. 



Mówie, kwestia indywidualna. Masz monitor 240-300Hz mozna uzywac FGx4.

 

 

Opublikowano
22 godziny temu, Kadajo napisał(a):

Mogą mieć źle skonfigurowane RTSS

A co tam jest do konfigurowania oprócz ustwienia limitu i ewentualnej zmiany z async na reflex? Pytam, bo może czegoś nie ustawiam, co powinienem ustawiać.

Opublikowano

No jak ktoś nie odczuwa różnicy pomiędzy 70FPS/30ms, a 170fps/40ms to niech gra na zdrowie, więcej fps mu pokaże w rogu i super, a kto by się tam przejmował, że wraz ze wzrostem fps, lag nie spada tylko rośnie o 30% %-)

ważne, że 4k( + dlss'y i fura fps )

  • Upvote 1
Opublikowano
1 godzinę temu, some1 napisał(a):

Niezależni recenzenci jak @tomcug porównują FG właśnie do reflexa. Pomiędzy najlepszym przypadkiem z FG off+reflex, a MFGx4 masz w jego testach od kilku do kilkunastu ms różnicy. Ba, w większości testów na IThardware różnica pomiędzy FGx2 a MFGx4 jest poniżej 5 ms input laga. 5 milisekund to jedna klatka @200 fps. 

 

A tutaj przeczytasz, że jak włączysz wyższy mnożnik, to nie da się grać bo lag. Jakieś voodoo się z tego robi.

 

 Dobrze, że o tym nie wiem i CP2077 przechodzę sobie z MFGx3. :E Obraz mi nie pływa, jedyne co przeszkadza to artefakty na elementach HUDa 2D. Ale z FGx2 też są.

 

Twoje odczucia maja znaczenie tylko dla ciebie. To ze ty nie jesteś w stanie wyczuć zmiany IL nie zmienia faktu ze jest nienaturalnie wysoki jak na ilość FPS jaka generujesz.

  • Thanks 1
Opublikowano

Nasze zmysły to będą kompensować i po chwili się przyzwyczaisz. To jest podobna sytuacja jak z graniem w niższym FPS. Jak gra wymusi to na tobie to będziesz grał i nie będzie ci przeszkadzać bo się przyzwyczaisz. 

Ale to nie zmienia faktu że il powinien maleć wraz ze wzrostem FPS a nie stać w miejscu albo nie daj boże rosnąć.

Opublikowano
11 minut temu, SylwesterI. napisał(a):

No jak ktoś nie odczuwa różnicy pomiędzy 70FPS/30ms, a 170fps/40ms to niech gra na zdrowie, więcej fps mu pokaże w rogu i super, a kto by się tam przejmował, że wraz ze wzrostem fps, lag nie spada tylko rośnie o 30% %-)

ważne, że 4k( + dlss'y i fura fps )

% akurat w tym przypadku nie maja znaczenia. 

Bo jak bys mial 10ms vs 15ms, to bys powiedział 50% zamiast 30%. Jednakże inputlag byłby i tak niski. 

Generalnie wiele gier nie ma 30ms przy 70fps. Wiele zalezy od implementacji silnika itp. Alan Wake2 bedzie mial przy 70fps okolo 40ms. 

Prawda jest taka, że do inputlaga sie przyzwyczaisz. O ile nie jest to nie wiadomo jak wysoka wartosc. 

Kiedys ludzie grali na PS3 i PS4 w 30fps i tam to byl inputlag. + BT na pad + stare TV 100ms. 

Teraz kurde 8ms wiecej i panie nie daje rady.

Opublikowano
7 minut temu, Kartofel napisał(a):

RTX ON, DLSS, 5090, pathtracing,

 

A tutaj NFS z 2003 roku: 

 

źródło obrazka: https://www.techpowerup.com/347245/nvidia-announces-rtx-mega-geometry-implementation-in-witcher-4-path-tracing-for-007-first-light

Kiepskie jakościowo odbicia na cube mapach są nawet w nowych grach, np. God of War z 2022 roku. Ale co to ma wspólnego z RT/PT? Nic.

Opublikowano
13 minut temu, maxmaster027 napisał(a):

% akurat w tym przypadku nie maja znaczenia. 

Bo jak bys mial 10ms vs 15ms, to bys powiedział 50% zamiast 30%. Jednakże inputlag byłby i tak niski. 

Generalnie wiele gier nie ma 30ms przy 70fps. Wiele zalezy od implementacji silnika itp. Alan Wake2 bedzie mial przy 70fps okolo 40ms. 

Prawda jest taka, że do inputlaga sie przyzwyczaisz. O ile nie jest to nie wiadomo jak wysoka wartosc. 

Kiedys ludzie grali na PS3 i PS4 w 30fps i tam to byl inputlag. + BT na pad + stare TV 100ms. 

Teraz kurde 8ms wiecej i panie nie daje rady.

Paradoksalnie im masz wyższy FPS i jesteś bardziej przyzwyczajony do szybkiej responsywności. Tym bardziej możesz odczuwać mniejsze nawet skoki.

Esportowcy są na to bardzo wyczuleni.

  • Upvote 1
Opublikowano
14 minut temu, maxmaster027 napisał(a):

Generalnie wiele gier nie ma 30ms przy 70fps. Wiele zalezy od implementacji silnika itp. Alan Wake2 bedzie mial przy 70fps okolo 40ms. 
 

Po pierwsze Reflex nie zawsze mocno obniża laga, po drugie są używane funkcjonalności na poziomie silnika, które poprawiają płynność i wydajność, ale efektem ubocznym jest zauważalny wzrost input laga ;)

 

 

Opublikowano
12 minut temu, Kadajo napisał(a):

Paradoksalnie im masz wyższy FPS i jesteś bardziej przyzwyczajony do szybkiej responsywności. Tym bardziej możesz odczuwać mniejsze nawet skoki.

Esportowcy są na to bardzo wyczuleni.

Nie trzeba być "esportowcem" by to wyczuwać natychmiast, jak  człowiek przeskakuje z łupania w bf'a przy 200-240fps, do spokojniejszej gry, dla relaksu, zaraz wyczuje, że te fejkowe 150-200FPS z x3 to nie to samo, nawet w symulatorze wędkarza 

Opublikowano
25 minut temu, Kartofel napisał(a):

Nie tyle wspólnego, ale wpychanie na siłę technologii wymagających nie wiadomo jak drogich GPU, kiedy jak widać pewne efekty można zrealizować innymi, mniej wymagającymi technikami to absurd. 

Nie wiem, gdzie widzisz ten absurd. Lepsze odbicia realizowane tradycyjnie (odbicia planarne) też są dość kosztowne. Poza tym nikt nie zmusza do włączania RT/PT.

Opublikowano
7 minut temu, SylwesterI. napisał(a):

Nie trzeba być "esportowcem" by to wyczuwać natychmiast, jak  człowiek przeskakuje z łupania w bf'a przy 200-240fps, do spokojniejszej gry, dla relaksu, zaraz wyczuje, że te fejkowe 150-200FPS z x3 to nie to samo, nawet w symulatorze wędkarza 

Oczywiście ze tak.

Wystarczy pograć w jakiś leciwy tytuł, np. UT3 gdzie bez problemu możemy zrobić bardzo wysoki FPS i responsywność jest ultra wysoka.

Pograjta tak z tydzień a potem odplata sobie FG w jakimś FPS. Nawet bez FG z niższym FPS będzie nam się już gorzej grało. :D

No ale do wszystkiego można się przyzwyczaić. Nawet do Cinematic 30 FPS LOL

Opublikowano
31 minut temu, Kadajo napisał(a):

Twoje odczucia maja znaczenie tylko dla ciebie. To ze ty nie jesteś w stanie wyczuć zmiany IL nie zmienia faktu ze jest nienaturalnie wysoki jak na ilość FPS jaka generujesz.

Oho, a jaki input lag bez FG jest "naturalny", ten z włączonym Reflex, czy bez, a może z Vsync? Będzie i 100% różnicy w lagu przy tym samym FPS, bez włączania generatora. Masz jakiś wzór kiedy przekraczamy granicę nienaturalności?

Może to właśnie z Vsync jest naturalnie wysoki lag a z Reflex jest nienaturalnie niski, hmm? :lol2: 

 

Toż przecież dlatego cytuję testy z Ithardware żebyś miał pomiar czarno na białym a nie czyjeś odczucia mało/dużo. Jeden napisze tak, drugi siak. Pisałeś, że nvidia manipuluje testami, to przejrzyj sobie testy niezależne. 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • 595.79  https://www.nvidia.com/pl-pl/drivers/details/265572/
    • Jesteś pewien tego pogrubionego? Bardzo trudno jest to wyłapać i w zasadzie można to tylko usłyszeć. Dawno nie jechałem elektrycznym Mercedesem, więc teraz nie będę mówił na pewniaka, ale Tesla nie używa rekuperacji do końca (nikt tego nie robi, bo się nie da). Zatrzymywanie odbywa się na innej zasadzie.
    • @nozownikzberlina, powiem Ci tak. W dużej firmie technologicznej, gdzie robię za tech leada, mamy do dyspozycji tuzin narzędzi AI. Różne IDE, mnogie agenty, w tym te CLI, tryby YOLO itd., itp. Kod od AI jest tak dobry jak dobry jest prompt. Do tego każdy model ma swoje wady i zalety, jak wszystko. Przykładowo, jednego używasz do wygenerowania opisu systemu na podstawie dokumentacji. Drugiego zaś do wygenerowania prompta dla modelu trzeciego, który ma kontekst całego projektu wraz z readme typowo pod AI, w którym jest opis, jak ma robić, na czym się skupiać i dlaczego. Taki jeden wygenerowany prompt, poza tymi readme, to jest często kilka albo i kilkanaście stron A4 tekstu. Tam nie jest opisane, co chcesz zrobić, tylko jak i dlaczego. Wraz z wyszczególnieniem architektury, podziału modułów, klas, podejściem do problemów współbieżności, wymaganiami pod kątem wzorców projektowych, SOLID i wszystkim innym, o czym myślałby dobry programista. W ten sposób można mieć bardzo dobre wyniki. AI stworzy cały feature i 90% takiego kodu jest dobre. Trochę szlifów, poprawek i jest. Da się dostać bardzo dużo. Problem korzystania z AI często znajduje się między kresłem a monitorem. Czyli nadal potrzeba programisty, który ma wiedzę. Po prostu nie musi on już tego wszystkiego od zera klepać. Koszty takiego jednego prompta? Czasem roczny zapas tokenów z jakiegoś taniego planu.  W przypadku planów enterprise, które mamy, i tak czasem słyszę od backendowca, który akurat robi front, że dzisiaj bierze się za coś innego, bo skończyły mu się tokeny.  I ten front potem i tak wymaga review kogoś, kto faktycznie się na nim zna. Tak więc @Wu70 ma rację w tym, co pisze. AI to nie jest "zrób za mnie, bo ja nie umiem". To jest "zrób za mnie, bo mi się nie chce klikać po klawiaturze, ale powiem ci, jak i dlaczego".   W ten sposób praca w IT się zmienia. Już od dawna dobry programista nie jest tylko od klepania kodu, ale także od wielu innych rzeczy. Zaoszczędzony czas można spędzić na ogarnianiu wymagań biznesowych, optymalizacji, infra as a code, CI/CD, komunikacji sieciowej, observability i wielu innych. Czyli zamiast pięciu ról coraz popularniejsza robi się ta pod tytułem software engineer. Natomiast nie jest to spowodowane bezpośrednio rozwojem AI. Big techy już od dawna do tego tak podchodzą. Teraz się to po prostu popularyzuje w mniejszych firmach. Czy ta praca dzięki temu staje się łatwiejsza? Nie, wręcz przeciwnie. Żeby te rzeczy dobrze robić z pomocą AI, trzeba je znać i rozumieć, tak samo jak opisałem to z programowaniem jako takim. Trzeba wiedzieć jeszcze więcej o wszystkim wokół. Czy AI zastąpi programistów? Bezpośrednio pewnie nie, ale ci z szeroką wiedzą o całym ekosystemie IT, korzystający z AI, zastąpią tych, co stoją w miejscu i dalej chcą po prostu pisać kod. Potrafię sobie wyobrazić mniejszy zespół ogarniaczy z narzędziami AI w miejscu większego zespołu średniaków. Czy jest marchewka dla tych ogarniaczy? Chyba jest... Revolut dla seniora daje jakieś 600k netto rocznie dla seniora na B2B zdalnie, Netflix w Wawie 1M rocznie brutto na UoP, a Elastic 380k USD netto rocznie na B2B zdalnie. Do  tego budżety na obiadki, szkolenia, prywatną opiekę medyczną, plany emerytalne i pakiet akcji. Jasne, to są topowe oferty, nie dla każdego, ale na takiego staffa za te 40-50k netto miesięcznie da się załapać w niejednym miejscu, jak ktoś ma już dobrego expa i skilla.   Zahaczając jeszcze o Vibe-Coding, owszem, da się wygenerować różne programy, nie będąc programistą, ale to po prostu będzie jakoś tam działać i tyle. Nie powstanie w ten sposób kod, który w prawdziwym systemie mógłby pójść na produkcję z powodu lipnego security, problemów ze skalowalnością, braku testów, braku sensownej architektury i wielu innych.   Czy za dekadę albo dwie AI faktycznie sama będzie umieć postawić cały system wraz z infrastrukturą i otoczką? Ja wątpię, ale jedyna słuszna obecnie odpowiedź to IMHO "uj wi".  Na razie te firmy od AI nie są nawet rentowne. Równie dobrze może się to skończyć jakimś kryzysem i ostudzeniem podniety na kolejne dekady. Wszak algorytmy AI istniały już w latach sześćdziesiątych ubiegłego wieku, a ich popularyzacja nastąpiła dzięki rosnącej mocy obliczeniowej sprzętu. A tego obecnie brakuje, podobnie jak energii.
    • No i git trzeba sprzedawać bo zaraz będą się kłócić .😊 A może dadzą 3 koła nie wiadomo?
    • W Golfie 3 był na środku "tyłu", pod obciążeniem się włączał. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...