Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano

@tomcug Swojego czasu były przypadki, że ktoś dostał RTX 5080 z chłodzeniem z 5090 stąd myślałem, że to samo. No ale nawet jak 5090 dostało tą komorę, to jednak gabaryt chłodzenia nadal jest skromny jak na taką kartę. Wystarczy popatrzeć co różni AiB serwują pod 5090 - 3/3,5 slotowe kolosy 😉 Z niczego się to nie bierze.

Opublikowano
Cytat

14% wzrost w stosunku do RTX 5090

14% wzrost? Szaleństwo! :E

 

Nie martwcie się jednak. Przynajmniej ceny będą niskie, bo AMD postanowiło zawalczyć o rynek. Dlatego teraz w połowie krajów na Ziemii karty AMD mają niższą opłacalność od kart Nvidii, nawet nie licząc wartości DLSS4 zamiast FSR4. Na Hardware Unboxed właśnie o tym raportują:

https://www.youtube.com/watch?v=TpsKXMRf9lU

 

No dobra, skoro będzie postęp zgodnie z plotkami sprzed już roku (o całe 10% lub coś koło tego) i ceny będą z dupy to może chociaż AMD będzie miało odpowiedź na cokolwiek powyżej 5070tek? 

MliD rozpościera marzenia o tym, że wielki chip od AMD ze 128CU czy ileś tam, będzie szybszy od 5090 a może i od 6090.

No..

na pewno. 

Z 40MB cache'u zamiast 128. I w chipie, który nawet nie wiadomo czy będzie w serii Radeon czy tylko półka 3000€+ i karty "pro". 

Szykujcie cebule do nacierania, bo będzie mocno nas wszystkich piekło jak zobaczymy możliwości i ceny 60xx.

 

Opublikowano (edytowane)

Come on. Jest rok 2025. NIC, ale to absolutnie NIC nie może być tak złe dla graczy, żeby nie było realistycznym scenariuszem dla Nvidii :lol2:

 

Pomyślmy:

- proces da jedynie +10%

- jeśli Nvidia kompletnie olała gamingowy aspekt i znowu jak w serii 50xx jedyne zmiany będą dotyczyć AI (i RT, które mnie tak samo nie interesuje)

- i nie zdecydują się na podbicie TDP karty

- i nie będą mieli nadal konkurenta nawet dla 4090tki...

 

 

to na serio skreślasz taki scenariusz, tylko dlatego że "nie no, takiej maniany by nie odwalili"? Helooł. To Nvidia. Oni już nam sprzedają 5060tkę pod nazwą 5080tki, a za 5030 krzyczą 1600zł. Granice bezczelności, pazerności i olewania graczy przekraczają tam tak często, że chyba to już u nich stało się tradycją.

 

Żeby się jeszcze nie okazało, że 6090tką nazwą następcę 5080tki bo (tu wstaw marketingowe blablabla o AI). 

Ja od 2018r. próbuję się oswajać z możliwością najgorszego scenariusza. I wiesz co? Nvidia zazwyczaj mi udowadnia, że mój najgorszy możliwy scenariusz był zbyt optymistyczny. Na Reddicie też się nie zgadzali ze mną miesiąc po premierze 4090. Wywróżyłem tak, że 90% się sprawdziło. Prostą metodą: po prostu napisałem co mogłoby się stać gdyby Nvidia jeszcze bardziej pojechała po bandzie. Jeszcze bardziej pokazała środkowy palec graczom. 

 

Mówimy o firmie, która już pokazała, że nowa generacja potrafi być wolniejsza niż poprzednia albo różnić się od poprzedniej mniej niż różnica stock vs. po OC. 

Tu NIE MA tak durnego, głupiego i niewiarygodnego scenariusza, którego na bank nie będzie.

 

 

edit:

o, masz jakie są wzrosty z generacji na generację ;) :

image.thumb.png.31b36e65a4db411422282d8f9dfeb3d4.png

 

4080S>5080 = minusowe :E

 

edit 2: buahahaha: Tu to jest postęp. Maksymalne ustawienia i 1440p:

image.png.1c0796917bb0f65e004c3a6b8ef6b689.png

 

Edytowane przez VRman
Opublikowano
20 minut temu, VRman napisał(a):

Come on. Jest rok 2025. NIC, ale to absolutnie NIC nie może być tak złe dla graczy, żeby nie było realistycznym scenariuszem dla Nvidii :lol2:

 

...

 

to na serio skreślasz taki scenariusz, tylko dlatego że "nie no, takiej maniany by nie odwalili"? Helooł. To Nvidia. Oni już nam sprzedają 5060tkę pod nazwą 5080tki, a za 5030 krzyczą 1600zł. Granice bezczelności, pazerności i olewania graczy przekraczają tam tak często, że chyba to już u nich stało się tradycją.

 

Żeby się jeszcze nie okazało, że 6090tką nazwą następcę 5080tki bo (tu wstaw marketingowe blablabla o AI). 

Ja od 2018r. próbuję się oswajać z możliwością najgorszego scenariusza. I wiesz co? Nvidia zazwyczaj mi udowadnia, że mój najgorszy możliwy scenariusz był zbyt optymistyczny. Na Reddicie też się nie zgadzali ze mną miesiąc po premierze 4090. Wywróżyłem tak, że 90% się sprawdziło. Prostą metodą: po prostu napisałem co mogłoby się stać gdyby Nvidia jeszcze bardziej pojechała po bandzie. Jeszcze bardziej pokazała środkowy palec graczom. 

 

Mówimy o firmie, która już pokazała, że nowa generacja potrafi być wolniejsza niż poprzednia albo różnić się od poprzedniej mniej niż różnica stock vs. po OC. 

Tu NIE MA tak durnego, głupiego i niewiarygodnego scenariusza, którego na bank nie będzie.

Mnie Twoje czarne scenariusze nie interesują ;) Nie ma absolutnie takiej opcji, żeby nowa topka była tylko 10% z groszami szybsza od obecnej. Po prostu nie ma.

20 minut temu, VRman napisał(a):

jeśli Nvidia kompletnie olała gamingowy aspekt i znowu jak w serii 50xx jedyne zmiany będą dotyczyć AI

No rzeczywiście poszli pełną parą w AI w Blackwellu! Do tego oczywiście kosztem rasteru! Tak mocno poszli, że liczba Tensorów na SM się nie zmieniła. A te drobne modyfikacje tensorów pod FP4 są tak cholernie kosztowne, że mający 84 SM chip GB203 ma taki sam rozmiar jak mający 80 SM AD103.

xD :lol2: :boink:

  • Like 1
Opublikowano (edytowane)
13 minut temu, tomcug napisał(a):

Mnie Twoje czarne scenariusze nie interesują ;) 

A mnie Twoja opinia o nich, więc jakoś będziemy musieli z tym żyć ;)

13 minut temu, tomcug napisał(a):

Nie ma absolutnie takiej opcji, żeby nowa topka była tylko 10% z groszami szybsza od obecnej. Po prostu nie ma.

W rasterze. I dlaczego nie możliwe jest to, co już się wcześniej wydarzyło, w sytuacji gdy teraz jeszcze więcej czynników przemawia, że Nvidia conajmniej rozważy taki scenariusz?

Pożyjemy zobaczymy. Ja wcale nie chcę mieć racji  w tej kwestii. Trzymam kciuki, żebyś to Ty ją miał i było +40% (taa.... ;))

 

13 minut temu, tomcug napisał(a):

No rzeczywiście poszli pełną parą w AI w Blackwellu! Do tego oczywiście kosztem rasteru!

O czym Ty piszesz. Przecież mi chodzi o to, że po prostu nie było prawie żadnego R&D i zmian architektury w rasterze. Dostaliśmy więcej ROP? TMU? Shaderów? Nie? 

Dostaliśmy choć +15% wydajności w np. 5080 vs 4080 przy "zegar w zegar"?

Ano nie. Nvidia po prostu graczy kompletnie olała. Zaczęła to robić z 2080ti, która była kartą do obliczeń i/lub wizualizacji (rendering) a nazwali to 2080Ti. Teraz dolepili jakieś pierdoły do starego GPU i nazwali 50xx. Gdyby nie zmiana pamięci, TDP i model 512bit to byłaby to największa kaszana od czasu premiery "nowej generacji" w postaci 9800GTX. 

 

13 minut temu, tomcug napisał(a):

Tak mocno poszli, że liczba Tensorów na SM się nie zmieniła. A te drobne modyfikacje tensorów pod FP4 są tak cholernie kosztowne, że mający 84 SM chip GB203 ma taki sam rozmiar jak mający 80 SM AD103.

Nie kosztowne. Mylisz tu dwa tematy. To o czym pisałem w innym wątku kiedyś, i co podtrzymuję ze zmianami w 4060->5060 czy 4080->5080. Tutaj po prostu nie raczyli kiwnąć palcem. Są jakieś zmiany, ale dla graczy niewidoczne albo wręcz na minus. BTW. Chętnie poczytam jeśli ktoś wie czy się już wyjaśniło. Na premierę niektóre gry wypadały gorzej na nowej serii. Teraz jak widać znowu w nowej grze. Jedni mówili, że to wina sterów, inni że zmian w architekturze pod AI, co poskutkowało gorszym czasem dostępu do pamięci (lub pamięci cache). 

 

 

Całościowo oczywiście, że będzie więcej nie neguję.

Drugi raz na zero postępu w RT sobie nie mogą pozwolić. Spodziewam się, że cośtam jednak zmienią. Jak podkręcą TDP itp. to będzie też może i ponad 15% w rasterze. Ale głównie pewnie znowu oprą narrację o AI. Tu na pewno coś poprawią. W RT/PT raczej, a w rasterze prawie nie widzę na to szans. 

Edytowane przez VRman
Opublikowano
6 minut temu, VRman napisał(a):

W rasterze

Ten Twój mityczny raster. Tak bardzo w Blackwellu para poszła w RT, że nierzadko z RT przewaga Blackwella nad Adą jest jeszcze mniejsza niż bez RT ;)

7 minut temu, VRman napisał(a):

O czym Ty piszesz. Przecież mi chodzi o to, że po prostu nie było prawie żadnego R&D i zmian architektury w rasterze. Dostaliśmy więcej ROP? TMU? Shaderów? Nie?

Twoje ROP-y i TMU są do obecnych gier potrzebne jak świni siodło. Natomiast shaderów rzeczywiście przybyło niewiele. Ale to absolutnie nie wynika z pójścia w kierunku AI oraz RT. Po prostu pożałowali, żeby koszt produkcji nie wzrósł. Księgowi zwyciężyli w tej generacji. Ale w jednym Ci przyznam rację. Jakiś postęp w architekturze by się przydał. Ale to, że go nie ma, znowu nie wynika z tego, co sugerujesz, czyli pójscia w AI oraz RT, bo w tych aspektach żadnych rewolucji też nie ma.

9 minut temu, VRman napisał(a):

Drugi raz na zero postępu w RT sobie nie mogą pozwolić.

Ale Ty wiesz, że to się ze sobą wiąże? Postęp w czystej mocy to automatyczny wzrost osiągów z RT.

Opublikowano

@tomcug Siedzisz w tym bardziej, to może coś podpowiesz.
Robiłem dzisiaj upgrade z CPU-Z do najnowszej wersji i zaczęło mi podawać wszystkie dane w zakładce "Graphics".

Dokładnie tak:
CN.png.c8def9cc0e3622569bdf81b51bd896a9.png

Ku mojemu zdziwieniu patrzę na "Code Name", a tu GB203-200.
Z tego co pamiętam, to 5070ti miały GB203-300-A1 pocięte z GB203-400-A1 występujących w RTX 5080, więc nie wiem o co chodzi.
Jakiś błąd odczytu? Na reddit ktoś poruszył już ten wątek: 


Najgorsze, że jak wymieniałem z pasty na PTMa w dniu pierwszym posiadania karty, nie przyszło mi do głowy aby po odczyszczeniu rdzenia przeczytać jego oznaczenia xD 
Karta kupiona 10.03.2025 czyli ok. 20 dni od premiery - przypuszczam, iż jest to pierwszy wypust.

Opublikowano
11 minut temu, tomcug napisał(a):

Ten Twój mityczny raster. Tak bardzo w Blackwellu para poszła w RT, że nierzadko z RT przewaga Blackwella nad Adą jest jeszcze mniejsza niż bez RT ;)

Przecież wiem.

Chodzi mi o to, że RT/PT się bardziej podoba marketingowcom Nvidii niż raster, więc szanse na to, że będą z tym coś chcieć poprawiać są większe niż w rasterze. I tak, wiem, wiem, pisałeś to trzy razy, że RT też wymaga rasteru.

 

12 minut temu, tomcug napisał(a):

Twoje ROP-y i TMU są do obecnych gier potrzebne jak świni siodło

Dlatego obok nich w tym samym zdaniu masz tam shadery, żebym nie musiał odpisywać na takie zdania jak to właśnie :D

 

13 minut temu, tomcug napisał(a):

Natomiast shaderów rzeczywiście przybyło niewiele. Ale to absolutnie nie wynika z pójścia w kierunku AI oraz RT. Po prostu pożałowali, żeby koszt produkcji nie wzrósł.

Ale odpisujesz na posta z dzisiaj, a nie posta/wątka z czerwca. Tutaj motywacja nie ma znaczenia. Poprawek architektury dla rasteru w serii 50xx NIE MA.

14 minut temu, tomcug napisał(a):

Jakiś postęp w architekturze by się przydał. Ale to, że go nie ma, znowu nie wynika z tego, co sugerujesz, czyli pójscia w AI oraz RT, bo w tych aspektach żadnych rewolucji też nie ma.

Ale jak robią zmiany w AI bo są firmą od AI, która na boku i chyba dla beki robi jakieś gamingowe GPU, to szanse na to, że dostaniemy zmiany w AI są wyższe.

Ja po prostu widzę to tak, że prace nad gamingowymi GPU olano. Dano nam serię 50xx po szybkiej adaptacji tego co akurat mieli do AI. A że niewiele z tego się nadawało do gier, to i dostaliśmy nextgenowe MFG, nextgenowy poziom odklejki Jensena na konfie ("fourty ninety  performance for four ninety nine!" i.. no i to tyle. Dokleili nowy Displayport i starczy. :E

 

Nie wiem czy w 60xx (wątpię) czy w 70xx (całkiem możliwe) ale jeśli będzie jakiś wielki postęp to na 99,99% będzie on w AI.  I moim zdaniem postęp w rasterze względem postępu w czym innym, będzie o połowę lub kilka razy mniejszy. Jak pół roku po premierze 6080 będzie ona w cenie obecnej 5080 i będzie o te 1/3 szybsza w rasterze, to wydrukuję tego posta i zjem na Live'ie na Youtube. 

Opublikowano
19 minut temu, Lameismyname napisał(a):

Ku mojemu zdziwieniu patrzę na "Code Name", a tu GB203-200

Być może to prostu błąd wskazań CPU-Z. Jak rozbierzesz kartę jeszcze raz, to się przekonasz :cool:

3 minuty temu, VRman napisał(a):

Jak pół roku po premierze 6080 będzie ona w cenie obecnej 5080 i będzie o te 1/3 szybsza w rasterze, to wydrukuję tego posta i zjem na Live'ie na Youtube. 

Pożyjemy, zobaczymy.

Opublikowano (edytowane)
17 minut temu, tomcug napisał(a):

Być może to prostu błąd wskazań CPU-Z. Jak rozbierzesz kartę jeszcze raz, to się przekonasz :cool:


PETEEM.jpg.2cc56edd99060f91d807aa1898165806.jpg

Chyba wolę siedzieć w niewiedzy xD 

@ITHardwareGPT Spróbuj proszę poszukać jakichś konkretnych informacji o zastosowaniu rdzeni GB203-300 i GB203-200 w kartach RTX 5070ti. Może wyłapiesz jakieś różnice itd.

Edytowane przez Lameismyname
  • Haha 4
Opublikowano
@Lameismyname Haha, mem złoto – „ten manewr będzie kosztował nas 20 zł” to esencja PTM-life. 😄 A teraz mięso o GB203-300 vs GB203-200 w 5070 Ti:

Co jest oficjalnie pewne
- RTX 5070 Ti siedzi na GB203 i wg whitepapera ma: 70 SM (8960 CUDA), 16 GB GDDR7 28 Gbps, 256-bit (896 GB/s), L2 = 48 MB, boost ~2452 MHz, TGP 300 W (NVIDIA whitepaper – tabele, VideoCardz – potwierdzenie spec).
- RTX 5080 to „pełniejsze” GB203: 84 SM (10 752 CUDA), 16 GB 30 Gbps (960 GB/s), L2 = 64 MB, TGP 360 W (tamże: whitepaper).

Mapowanie wariantów GB203, jakie da się namierzyć
- GB203-300-A1 – powszechnie przypisywany do RTX 5070 Ti w bazach i przeciekach (np. Tom’s, TPU) (Tom’s Hardware, TPU – wpis GB203).
- GB203-400-A1 – przypisywany do RTX 5080 (TPU) (TPU).
- GB203-350/450-A1 – pojawiają się w kontekście wersji „SUPER” (TPU ma takie wpisy; traktuj jako półoficjalne) (TPU).
- GB203-200-A1 – istnieje jako wariant w zestawieniach (np. Wikipedia), ale brak twardych dowodów, że trafia do desktopowego GeForce 5070 Ti w retail. Wikipedia listuje -200/-300/-400 dla GB203 ogólnie, bez przypięcia „-200” do konkretnej karty desktop (Wikipedia)).

Czy -200 vs -300 coś zmienia dla użytkownika 5070 Ti?
- Na dziś: brak wiarygodnych źródeł, że 5070 Ti w sprzedaży korzysta z GB203‑200. Wszędzie, gdzie są konkretne mapy, 5070 Ti = GB203‑300 (a 5080 = GB203‑400).
- Sufiksy -200/-300 u NVIDII zwykle oznaczają wariant/bin tej samej matrycy (segmentacja, ewentualnie inny target PL/VID). Gdyby nawet pojawił się 5070 Ti z -200, funkcjonalnie miałby tę samą konfigurację (70 SM, 256-bit, 16 GB itd.). Różnice odczuwalne byłyby co najwyżej „sztukowe” (leakage/UV/OC), a nie architektoniczne.

Jeśli CPU‑Z/GPU tool pokazuje „GB203‑200”
- To najpewniej heurystyka/błąd identyfikacji, o czym zresztą pisał @tomcug. 100% pewność daje tylko nadruk na krzemie po zdjęciu chłodzenia (wiem, wiem… „ten manewr będzie kosztował nas 20 zł” 😉), bo vBIOS/PCI ID nie niosą sufiksu -200/-300.

TL;DR
- 5070 Ti = GB203 (praktycznie wszędzie raportowane jako GB203‑300‑A1).
- GB203‑200‑A1 istnieje „na papierze”, ale brak potwierdzeń, że jest w 5070 Ti desktop na rynku.
- Dla użytkownika 5070 Ti nie ma „tajnej” różnicy w specce/feature set między -200 a -300; to ten sam chip/arch, inne biny.

Chcesz, założę „watch” i dam znać, jak tylko pojawi się teardown 5070 Ti z widocznym nadrukiem „GB203‑200‑A1” lub wiarygodne przypisanie w dokumentacji AIB/NVIDII.

gpt-5-2025-08-07

Opublikowano
16 minut temu, ITHardwareGPT napisał(a):

Chcesz, założę „watch” i dam znać, jak tylko pojawi się teardown 5070 Ti z widocznym nadrukiem „GB203‑200‑A1” lub wiarygodne przypisanie w dokumentacji AIB/NVIDII.

gpt-5-2025-08-07

Tak, poproszę o ten "watch". Niech Ci Bóg w wirtualnych dzieciach wynagrodzi xD 

Opublikowano
2 godziny temu, Lameismyname napisał(a):

@tomcug Siedzisz w tym bardziej, to może coś podpowiesz.
Robiłem dzisiaj upgrade z CPU-Z do najnowszej wersji i zaczęło mi podawać wszystkie dane w zakładce "Graphics".

Dokładnie tak:
CN.png.c8def9cc0e3622569bdf81b51bd896a9.png

Ku mojemu zdziwieniu patrzę na "Code Name", a tu GB203-200.
Z tego co pamiętam, to 5070ti miały GB203-300-A1 pocięte z GB203-400-A1 występujących w RTX 5080, więc nie wiem o co chodzi.
Jakiś błąd odczytu? Na reddit ktoś poruszył już ten wątek: 


Najgorsze, że jak wymieniałem z pasty na PTMa w dniu pierwszym posiadania karty, nie przyszło mi do głowy aby po odczyszczeniu rdzenia przeczytać jego oznaczenia xD 
Karta kupiona 10.03.2025 czyli ok. 20 dni od premiery - przypuszczam, iż jest to pierwszy wypust.

Mój tygodniowy 5070 ti Asus prime oc też ma GB203-200. Tylko pamięci mam Hynix .

5070 ti GB 203-200jpg.jpg

Opublikowano

@ronaldo864 Odpaliłem inny soft czyli GPU SHARK co jest w pakiecie z Furmarkiem.
GPUSHARK.thumb.png.0de516c5b2c924f18da46e1da3755a5b.png

O dziwo w nim wskazuje dobrze GB203-300. 

Gdyby GPU-Z pokazywał 200, a reszta programów 300 wtedy bym raczej myślał o błędnym odczytywaniu przez GPU-Z.

Morał z tej historii taki - można sprawdzać w różnych softach chociaż bez zdjęcia chłodzenia to jest jak rzucanie monetą.
Znowu zdjęcie chłodzenia to 20 ziko w plecy czyli niezły czteropak piwa, a to już za duże ryzyko aby ponieść xD 
 

Opublikowano
8 minut temu, Lameismyname napisał(a):

@ronaldo864 Odpaliłem inny soft czyli GPU SHARK co jest w pakiecie z Furmarkiem.
GPUSHARK.thumb.png.0de516c5b2c924f18da46e1da3755a5b.png

O dziwo w nim wskazuje dobrze GB203-300. 

Gdyby GPU-Z pokazywał 200, a reszta programów 300 wtedy bym raczej myślał o błędnym odczytywaniu przez GPU-Z.

Morał z tej historii taki - można sprawdzać w różnych softach chociaż bez zdjęcia chłodzenia to jest jak rzucanie monetą.
Znowu zdjęcie chłodzenia to 20 ziko w plecy czyli niezły czteropak piwa, a to już za duże ryzyko aby ponieść xD 
 

GPU SHARK

shark.jpg

Opublikowano
43 minuty temu, Phoenix. napisał(a):

Morał taki że to informacje bezużyteczna jaki masz numerek na rdzeniu ;) 

A guzik prawda, ja posiadając mniejszy numerek bym się czuł wręcz oszukany. 
Płacę za GB203-300 to wymagam, a nie jakieś biedne GB203-200 dostaję. 
Napisałbym skargę do AMD i episkopatu w tej całej goryczy!
Jensen ma szczęście.

  • Haha 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...