Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
26 minut temu, Godlike napisał(a):

Moze Asus wyciągnął wnioski i w tej generacji bedzie lepiej ;)

Może dla tego też wprowadzają nowy brand dla topowych GPU. Strix ostatnimi czasy właśnie przez duże ryzyko głośnych cewek zaczął popadać w niełaskę.
Zobaczymy co wyjdzie w praniu.

  • Like 1
Opublikowano (edytowane)
40 minut temu, Fenrir_14 napisał(a):

@Zachy Bierzesz wersję powietrzna czy AiO ? 

Przy prawie 600W TDP to brałbym AIO. Drogo będzie, ale jak się daje 13 kzł za kartę, to się nie liczy +1 kzł :P

Ma być cicho, i względnie chłodno. AIO ma tę przewagę nad powietrzem, że wyrzuca ciepło poza budę :)

Te kloce powietrzem chłodzone, to zrobią z budy piekarnik i na dodatek 2.5 kg ciężar :P

 

EDIT: Gigabyt wygląda zacnie: https://www.gigabyte.com/Graphics-Card/GV-N5090AORUSX-W-32GD#kf

Edytowane przez leven
Opublikowano
18 minut temu, tomcug napisał(a):

Bez względu na to, czy to ściema, czy nie, czas solidnych zysków z generacji na generację minął i Jensen to wie, dlatego teraz każda kolejna generacja będzie miała jakiś "booster" na wyłączność.

po jednej generacji to wnioskujesz i to na tym samym procesie?

Opublikowano

Według NVIDIA to RTX 5080 ma być o 33% wydajniejszy od RTX 4080 w Far Cry 6 z włączonym RT. Sprawdziłem profilerem, że ta gra tylko w niewielkim stopniu korzysta z rdzeni RT do obliczania cieni i odbić, więc ten wzrost wydajności nie wynika z wydajniejszego RT.

 

FC6RT.thumb.png.67cedace8ef7e7a7e53498efc6ea3132.png

  • Upvote 4
Opublikowano
8 minut temu, SebastianFM napisał(a):

Według NVIDIA to RTX 5080 ma być o 33% wydajniejszy od RTX 4080 w Far Cry 6 z włączonym RT. Sprawdziłem profilerem, że ta gra tylko w niewielkim stopniu korzysta z rdzeni RT do obliczania cieni i odbić, więc ten wzrost wydajności nie wynika z wydajniejszego RT.

 

FC6RT.thumb.png.67cedace8ef7e7a7e53498efc6ea3132.png

Pasujesz zabawę nim jeszcze się zaczeła...

  • Haha 1
Opublikowano (edytowane)

@sideband

@SebastianFM

Sry, coś się źle kliknelo :D

 

To jest właśnie największa zagadka na wykresach kurteczki. Z jednej strony biedna specyfikacja względem 4080 z drugiej strony gra w której obliczenia RT są mało istotne. Zatem jakie usprawnienia tam są ze taki przyrost... :hmm:

Edytowane przez Totek
  • Upvote 1
Opublikowano (edytowane)
9 minut temu, Ogider napisał(a):

A tak wygląda w 4xxx w FC6 różnica

 

 

image.png.a59b3e697a803c5f20e970683bc00128.png

 

+33% wydajności dla RTX 4080 = 140 fps na RTX 5080

 

Dla RTX 5090 wychodzi +27% czyli 164 fps ? :hmm:

Edytowane przez Doamdor
Opublikowano (edytowane)
14 minut temu, Voodoo2 napisał(a):

Pomiędzy 4090/4080 jest nawet mniej niż 30%. Na ttm przykładzie to akurat wychodzi ze 5080>4090

Dlatego nie bez powodu znalazl sie wlasnie Far Cry 6 na wykresie Nvidii. Tak samo jak Marvel Rivals w pokazaniu wyzszosci 5070 MFG vs 4090. Manipulacja pelna gębą.

 

Techpowerup zmienilo platforme na 2025 - bedzie 9800X3D, ale nie bedzie tam juz Far Cry 6.

 

"Nasze testy gier obejmują Alan Wake 2, Assassin's Creed Mirage, Baldur's Gate 3, Black Myth Wukong, Counter-Strike 2, Cyberpunk 2077, DOOM Eternal, Dragon Age Veilguard, Elden Ring, F1 24, Ghost of Tsushima, God of War: Ragnarök, Hogwarts Legacy, Horizon: Forbidden West, Like a Dragon 8, No Rest for the Wicked, Ratchet & Clank: Rift Apart, Resident Evil 4, Silent Hill 2, Warhammer 40,000: Space Marine 2, STALKER 2: Heart of Chornobyl, Starfield, Star Wars Outlaws i The Last of Us Part One. W ciągu 2025 roku dodamy więcej testów gier i zastąpimy starsze, jeśli uznamy to za stosowne."

Edytowane przez DżonyBi
  • Upvote 1
Opublikowano
4 minuty temu, ODIN85 napisał(a):

W której sekundzie o tym mówi?

To był tzw. dowcip sytuacyjny. Natomiast jego jakość pozostawiam indywidualnej ocenie. 

 

Będąc na powierzchni nie usłyszysz dzięków, które rozchodzą się wodzie. 

 

Innymi słowy - komputer w akwarium z oleju mineralnego pracuje bezgłośnie. 

Opublikowano (edytowane)

Sprzętowy frame pacing? :lol2:

Co to niby jest sprzętowy frame pacing?

 

Co znowu marketingowcy Nvidii nawymyślali? 

Poniżej jest trochę nie na temat. Kilka myśli o przyszłości GPU w kwestii rasteryzacji.

Spoiler

 

BTW. Spodziewam się, że dopiero za 3-5 lat będzie następna generacja, gdy process 2nm GAA się znajdzie w GPU do gier.

Chyba jedyna nadzieja w jakiejś ogromnej ilości cache'u L2 albo L3 ala 3D stacking z 9800x3D.

 

Tak sobie myślę, że jakby tej pamięci było np. 256 czy 384MB, to możnaby myśleć o wyeliminowaniu CPU. W końcu po co CPU jest do gier potrzebne? 

- bo ma wyższy zegar

- bo ma znacznie lepsze czasy dostępu do pamięci

 

A czy wyseparowanie segmentu GPU boostującego do np. 4.5GHz i wrzucenie całego silnika gry do np. 150MB na pokładzie karty graficznej nie pomogłoby jakoś drastycznie?

Albo zrobić np. oddzielne systemy (zastępujące to co dziś wymaga całego CPU+GPU+RAM itd.) i zrobić ich z np. 20, z każdym CPU mającym np, 1MB cache'u L2 + dostęp do L3.

Może pozwoliłoby to stworzyć nową metodę generowania obrazu w grach, np, takiej polegającej na wydzieleniu sektorów w przestrzeni 3D i niech każdy wirtualny komputer liczy osobno a potem to niech jest łączone np. jeden by liczył obiekty w oddali, inny fizykę tu, inny fizykę tam, w razie kolizji byłby jakiś wysoki boost zegarów, żeby sobie chwilowo pomóc. 

Albo może jak będą karty z np. 64GB RAMu to możnaby ray-tracing przeliczyć dla statycznych obiektów i wyrenderować całe oświetlenie (nie wiem jak to się po naszemu nazywa, ale chodzi o "baked shadows" itp. 

 

Moim zdaniem bez problemu możnaby zrobić jakiś potężny postęp w rasterze gdy wejdzie 2nm GAA od TSMC. Tylko pytanie czy ktoś zechce, bo jak widać po procesorach AMD, oni tam są jak dzieci we mgle jeśli chodzi o rozumienie potrzeb graczy.  Pięć lat im zajęło zanim ich Ryzneny przestały być kupą śmiecia w grach, bo olali problem długich czastów dostępu do pamięci. Mogli to naprawić znacznie wcześniej, ale projektowali Ryzeny pod zastosowania pozagrowe i taki był efekt. A że są nieogarnięci świadczy fakt, że ich zaskoczył suckes procesorów Ryzen z pamięcią v-cache (X3D). Zaskoczyła ich sprzedaż 5800X3D, zaskoczyła sprzedaż 7800x3d i zaskoczyła 9800x3d. Do tego byli tak ślepi, że na slajdach pierwszego X3D pokazywali wzrosty wydajności poniżej tych realnych, kompetnie nie rozumiejąc jaki skarb mają w rękach.

 

Teraz w wywiadach było, że najpierw w grudniu mają być większe dostawy procesorów. Potem że w styczniu, a potem w lutym. Teraz w wywiadzie jakaś szycha z AMD mówi, że planują rozwiązać problemy z dostępnością 9800x3d w... pierwszej połowie roku 2025. Aha. No to super. A czemu? Popyt ich zaskoczył. No kto by pomyślał, że procesor z wysokim zegarem i największą na rynku ilością pamięci cache, będzie popularny wśród ludzi wiedzących cokolwiek o sprzęcie do gier.

 

To pokazuje, że oni mogą nie mieć pojęcia co robią. I dlatego nie mam pewności, że pomysły typu "dorzuć tu 250MB cache'u do tego GPU" są niemożliwe lub niemożliwe z punktu widzenia biznesowego. Może po prostu oni nie rozumieją. Tak jak nie rozumieli niczego anulując wersje RDNA 3 z dodatkowym chipem pamięci bo... za drogo. A potem Nvidia wyskoczyła ze świetnie się sprzedającą kartą za 2000€. Wcześniej nie mieli pojęcia, że warto by było trzaskać dużo RX 480 i RX 580 gdy karty były rozchwytywane przez graczy, ale uznali, że to niemożliwe, żeby gracze chcieli ich karty i ten popyt na pewno zaraz wygaśnie. Już za miesiąc. No to dwa. Ale za następny to już na pewno. No to może w następnym. Minął prawie rok zanim zaczęli zwiększać dostawy, ale wtedy już było po zawodach. AMD przegapiło kolejną wielką szansę marnując ciężką i owocną pracę swoich inżynierów, którym udało się zrobić naprawdę fajne GPU. 

 

Dlatego myślę, że oni (AMD lub NVidia) kiedyś dodadzą dużo cache dla GPU i będzie zdziwko, że gracze chętnie kupują takie karty.

Coś mi mówi, że pęd za AI u Nvidii i anulowanie MCMów w RDNA 3 i 4 wynika z tego, że sobie jakiś jajogłowy porobił testy, ograniczyło mu CPU i uznał "e,, za małe słupki, to się nie sprzeda". Ale potem wyszedł 7800x3d i 9800x3d i się problem bottlenecku mocno poprawił, a monitory staniały o jedną półkę, przynosząc 1440p biedniejszym graczom i 4K tym nieco majętniejszym, ale nie obrzydliwie bogatym. Nadzieja zostaje, że się kiedyś ogarną i dostaniemy wielki postęp "ten ostatni raz". 

Chyba, że wtedy już wszystkie gry będą w RT a nie w rasterze.

HDMI 2.2, dużo więcej cache'u i  2nm GAA. Na to liczę w następnej generacji za 2.5-5 lat. Jakaś nadzieja na 200% wydajności 4090tki jest, choć TSMC mówi o +15-20% wydajności czy gęstości komórek SRAM (względem 3nm, nie 4nm/5nm)

 

Edytowane przez VRman
Opublikowano
15 minut temu, DżonyBi napisał(a):

Dlatego nie bez powodu znalazl sie wlasnie Far Cry 6 na wykresie Nvidii. Tak samo jak Marvel Rivals w pokazaniu wyzszosci 5070 MFG vs 4090. Manipulacja pelna gębą.

Kto by się tego po Kurtasie spodziewał 

 

16 minut temu, DżonyBi napisał(a):

Techpowerup zmienilo platforme na 2025 - bedzie 9800X3D, ale nie bedzie tam juz Far Cry 6.

I nie ma co się dziwić, bo kto jeszcze gra w tego kotleta z taśmy.

mAIk2FLPtDGgDgfFHprHvgYnDOYzDa0F.jpg

  • Like 2
Opublikowano
11 minut temu, Radio Tirana napisał(a):

To był tzw. dowcip sytuacyjny. Natomiast jego jakość pozostawiam indywidualnej ocenie. 

 

Będąc na powierzchni nie usłyszysz dzięków, które rozchodzą się wodzie. 

 

Innymi słowy - komputer w akwarium z oleju mineralnego pracuje bezgłośnie. 

No dobra ale były już gdzieś tego typu cewki wcześniej?

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...