Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano

@P.Wiśnia te statystyki z pokazu wygladaja na marketingowy bełkot. Zakładam, że w testach okaże się, że 5080 będzie co najwyżej porównywalny z 4090 jak nie słabszy. Na to wskazuje specyfikacja sprzętowa. Ta wydajność 5070 na poziomie 4090 to ewidentna bzdura.

  • Upvote 2
Opublikowano
Teraz, Sidr napisał(a):

@P.Wiśnia te statystyki z pokazu wygladaja na marketingowy bełkot. Zakładam, że w testach okaże się, że 5080 będzie co najwyżej porównywalny z 4090 jak nie słabszy. Na to wskazuje specyfikacja sprzętowa. Ta wydajność 5070 na poziomie 4090 to ewidentna bzdura.

Ja tylko opisałem co widziałem.

Ale przy użyciu DLSS 4 + MFG to 5070 może okazać się lepsze od 4090.

W czystej wydajności na pewno nie.

Opublikowano
20 minut temu, P.Wiśnia napisał(a):

Wyniki w cyberpunku z RT przy użyciu DLSS 3.

 

Po lewej 5090 z 277FPS, PCL 37.25ms.

Po prawej 4090 z 126FPS, PCL 36.11ms.

Niemal identyczne opóźnienie to niezbity dowód, że dodatkowa wydajność jest z większej liczby generowanych klatek. Przy tych samych ustawieniach nie ma prawa być brak spadku latencji przy takim kopie FPS.

  • Upvote 1
Opublikowano (edytowane)
5 minut temu, tomcug napisał(a):

Niemal identyczne opóźnienie to niezbity dowód, że dodatkowa wydajność jest z większej liczby generowanych klatek. Przy tych samych ustawieniach nie ma prawa być brak spadku latencji przy takim kopie FPS.

To dobrze czy źle? bo się pogubiłem  ;) 

Edytowane przez P.Wiśnia
Opublikowano
1 minutę temu, tomcug napisał(a):

Niemal identyczne opóźnienie to niezbity dowód, że dodatkowa wydajność jest z większej liczby generowanych klatek. Przy tych samych ustawieniach nie ma prawa być brak spadku latencji przy takim kopie FPS.

Jak podzielimy 277 na 4 (bo x4 FG) to mamy 69.25 realnych klatek.

Dla 4090 - 126 / 2 = 63 fps.

 

Ok, można powiedzieć że AI w 5090 robi wrażenie, bo generuje w podobnym czasie 3 fake klatki zamiast 1. No i chyba taki był zamysł tej generacji, że ten tak zwany "heavy lifting" we wzroście "wydajności" robi AI.

Opublikowano
4 minuty temu, Radio Tirana napisał(a):

NVIDIA już się przyznała, że w samym Path Tracingu jak wyłączymy wszystkie rozmydlacze to 5090 jest lepsza o 33% od 4090. 

To w takim razie wydajność na wat to totalna lipa albo te 575W to wartości z kosmosu ;)

Opublikowano (edytowane)

@tomcug jak były wybory i cisza wyborcza to niektórzy opisywali sytuacje w sadach owocowych...

Np że

1. Pistacje 34%

2. Pomarańcze 28%

3. Gruszki konferencje 12%

 

Nie chcesz może przedstawić sytuacji Grażynek na wiosce?

Np gruba Grażynka ma o 30% wiecej suchej masy tłuszczowej od niższej Grażynki itp... %-)

Edytowane przez Umpero
  • Haha 1
Opublikowano
16 minut temu, DITMD napisał(a):

Oni chyba chcą nas wszystkich zmusić do przejścia na GeForce Now.

W następnej generacji nvidia zrobi tak, jak oficjalnie planuje zrobic samsung z opcjami AI w telefonach czyli prawdopodobnie będą one płatne. U Nvidii DLSS, FG itd też będą w płatnym abonamencie. W cenie zakupu nowej karty bedzie abo na dwa lata, a później 3 opcje do wyboru:

1. Nowa karta z nowej generacji za pełna cenę.

2. Dokupienie abo na AI za mało opłacalna kwotę.

3. Karta działa bez AI czyli z 6090 robi się 3090.

 

Przy okazji wykończą rynek używanych kart.

Opublikowano
28 minut temu, areczek1987 napisał(a):

Jak nie przegoni jak 5070 to zrobi?

Patrząc nawet na slajdy Nvidii to może RTX 5080 dogoni RTX 4090, może. W bajki o wydajności RTX 4090 w RTX 5070 to chyba tylko nieźli naiwniacy wierzą.

Opublikowano (edytowane)

  

2 minuty temu, Umpero napisał(a):

@tomcug jak były wybory i cisza wyborcza to niektórzy opisywali sytuacje w sadach owocowych...

 

 

Jedna grażynka była smukła i piła 540 litrów wody na godzinę grając w cymbergaja. Druga była tłusta jak świnia, ale piła tylko 450 litrów wody na godzinę.

Edytowane przez cichy45
  • Haha 1
Opublikowano
2 minuty temu, mortir napisał(a):

W następnej generacji nvidia zrobi tak, jak oficjalnie planuje zrobic samsung z opcjami AI w telefonach czyli prawdopodobnie będą one płatne. U Nvidii DLSS, FG itd też będą w płatnym abonamencie. W cenie zakupu nowej karty bedzie abo na dwa lata, a później 3 opcje do wyboru:

1. Nowa karta z nowej generacji za pełna cenę.

2. Dokupienie abo na AI za mało opłacalna kwotę.

3. Karta działa bez AI czyli z 6090 robi się 3090.

 

Przy okazji wykończą rynek używanych kart.

skasuj ten post 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Ok jak ktoś ogarnie jakąś fajną promkę na większy tv to niech cytuje i mnie wzywa. A jak jest naprawdę zdolny to ddr5 też mogą być 
    • Mam jeszcze jeden temat założony na swoim profilu który dodałem wczoraj opisujący naprawdę obszernie moje spadki/micro stuttering, może z tego jesteś wstanie wywnioskować gdzie mam szukać winowajcy. W tym przypadku po prostu postanowiłem najpierw w 100% wyeliminować winę tego problemu z strony jakiś moich złych ustawień lub jego braku gdzie procek się przegrzewa.  Odpowiadając do twojego komentarza:  W panelu sterowania od samego początku testowałem wysoka wydajność oraz najwyższa wydajność, nie było sytuacji żeby było oszczędzanie energii itd, tak samo w sterowniku Nvidia. Jeżeli chodzi o spadki z winy ustawień graficznych to grając w gry esportowe pokroju CS2/VALORANT/LOL/FORTNITE/OVERWATCH2/RAINBOW SIX SIEGE mam tutaj ustawienia na niskie i dalej te dziwne spadki bez żadnego obciążenia/dużej akcji na ekranie występują regularnie. E-cores wyłączyłem teraz na próbę i posprawdzam czy jest jakaś różnica. Okej czyli patrząc na screen tam gdzie są 2 strzałki w tych 2 tabelkach mam zmieniać tak? Kompletnie nie ogarniam tego i nawet oglądając przykładowo poradnik do UV tych procków od TechLipton czułem się jakbym oglądał czarną magię. Jakieś konkretne ustawienia pod ten procek? Bawić się swoją drogą ustawieniami Cpu Lite Load? Na zagranicznych forach czy Reddicie wiele osób poleca tam potestować i ciekaw jestem co lepsze czy kompletnie tego nie ruszać.  Edit: dopiero po mojej wiadomości zobaczyłem te 2 linki, co do pierwszego jest to identyczna wersja biosu oraz ta sama płyta którą posiadam, robiłem ustawienia z tego poradnika 1:1 i ten irytujący micro stutter dalej się pojawiał ( mówię o tym CPU LITE LOAD na MODE 15 itd, tylko nie wiem dlaczego w poradniku zostawił włączony CEP skoro ta funkcja jako pierwsza powinna być wyłączana podczas UV z tego co czytałem na forach MSI )
    • ale nie ma zadnego bledu. gra sie wylacza i  mam pulpit. po prostu
    • Cześć! Poszukuję sensownych monitorów do triple 32" 2560x1440. Muszą być płaskie i najlepiej na matrycy IPS. Odświeżanie minimum 120-144Hz, gsync/freesync. VA jest sporo, ale opinie już różne choć oczywiście nie wykluczam całkowicie tylko ciężko znów o płaskie na tej matrycy.  Budżet około 1000 zł sztuka.  Z góry dzięki za pomoc 🙂   
    • Zarzynasz sobie wydajność. Możesz wszystko dać na ultra ale nie zasięg widzenia oraz LOD - to są dwie najbardziej obciążające CPU opcje w grze.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...