Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)
38 minut temu, VRman napisał(a):

Ja się boję tej pamięci.

24GB to jeszcze nic. Ale jak wejdą karty 36GB, 48GB i za kilka lat 32GB w miejsce obecnych 16B, to ceny na rynek AI będzie psuł jeszcze gorzej niż teraz.

 

Za 5 lat pewnie i tak już nie będę się nadawał za bardzo do grania, a jeśli nawet to już różnicy pomiędzy 720p a 8K nie zobaczę, więc czysto teoretycznie i z ciekawości:

Co dalej?

 

W sensie, jak to jest z tymi modelami? Po 40GB jest spadek zainteresowania czy nowsze modele będą miały więcej parametrów (czy czego tam) i nadal AI będzie graczom psuło rynek nawet jak karty do gier będą miały 128GB?

W sensie, załóżmy że np. modele tekstowe "kończą" wymagania przy 30-40GB, a modele graficzne?

 

Siedzisz w tym AI trochę to może napisz jak prognozujesz. Może po 48GB sytuacja się wystudzi i wróci normalność, bo już lowend za 200$ będzie miał wystarczająco pamięci do modeli tekstowych, obrazki będą dostępne za bezcen prze apki/strony, a do video to i 500GB VRAMu to za mało?

Na dzisiaj AI pożre każdą ilość, modele open source w dużych wersjach to są setki GB vramu, ludzie często łączą minimum 2x 3090 żeby odpalić przyzwoite ale i tak małe modele a nawet te największe (300-400 open source) są znacznie mniejsze niż te zamknięte jak GPT4.

W bliskiej przyszłości nie ma perspektyw, modele będą dalej rosnąć i to pewnie szybciej niż dokładanie vramu do kart dla graczy.

Text/video nic tu nie pomaga, i text i video możesz robić na małych i dużych modelach.

Tu by trzeba było jakiegoś innego czynnika, może jakby się branża trochę zawiodła na tym AI i uspokoiła albo ktoś zaczął produkować tanie karty z dużymi ilościami vramu, ludzie składają nawet zestawy ze starymi amd instinct bo tanio wychodzi a chińczycy też zaczynają być aktywni ( https://wccftech.com/chinese-gpu-manufacturers-push-out-support-for-running-deepseek-ai-models-on-local-systems/ ).

 

Najważniejsze żeby branża przeszła z etapu szalonych inwestycji do szukania zwrotów

 

  

33 minuty temu, Pentium D napisał(a):

Kup dolary teraz :hmm:

Przecież kupiłem :D

Edytowane przez Wu70
Opublikowano
5 minut temu, galakty napisał(a):

Pożyjemy zobaczymy :P 

 

Ale pewnie tak się skończy że wymienię na 6070Ti / 6080. 

To są oficjalne dane i jak pisałem dotyczą tylko tensorów - AI/ML ;)

3 minuty temu, DżonyBi napisał(a):

A cena zapewne spadnie 2.5x

 

W przypadku kart dla graczy nie będzie żadnych drastycznych podwyżek jeżeli miałyby być w N3, który kosztuje w zasadzie tyle samo co N4 ;) Poza tym N4 między czasie i tak podrożał ;)

Dopiero przy 2nm i 1.6nm ceny polecą konkretnie do góry jeżeli chodzi koszty produkcji. N4~20k, N2~30k, A16~45K

Opublikowano
4 minuty temu, DżonyBi napisał(a):

Jaki technologia by nie byla to prezentów od Nvidii nie bedzie.

Przecież RTX 4000 i cała reszta dostały prezent w postaci DLSS transformer. Nie rozumiem czasem negatywnego podejscia do wszystkiego co nowe, i tez 2.5x lepsza efektywnosc na rubinie vs blackwell to pobozne życzenie i wróżenie z fusów

Opublikowano (edytowane)

Mi chodzi o to, ze nawet jak technologia pozwoli na 200% wiecej wydajnosci wzgledem poprzedniej generacji to Nvidia Ci jej nie da w tej samej cenie. Juz nie. Sciezka technologiczna robi sie coraz wezsza i Nvidia juz tak pokroi salami, ze za grubszy kawalek zaplacisz grubszym plikiem pieniedzy. To ze dali cos dla serii 40x0 to chyba tylko po to, zeby kusilo mniej na przejscie do czerwonych.

Edytowane przez DżonyBi
Opublikowano
4 minuty temu, maxmaster027 napisał(a):

Przecież RTX 4000 i cała reszta dostały prezent w postaci DLSS transformer. Nie rozumiem czasem negatywnego podejscia do wszystkiego co nowe, i tez 2.5x lepsza efektywnosc na rubinie vs blackwell to pobozne życzenie i wróżenie z fusów

Nie ma żadnego wróżenia tylko jak się nie rozumie do czego to się odnosi to się p... głupoty.

Zaraz wkleje tabelkę.

Opublikowano (edytowane)
24 minuty temu, sideband napisał(a):

Dopiero przy 2nm i 1.6nm ceny polecą konkretnie do góry jeżeli chodzi koszty produkcji. N4~20k, N2~30k, A16~45K

Warianty N2 to wielki postęp, a dalej to już tylko lekkie poprawy, także na te A16 nie ma się co za bardzo fiksować. Nawet w AI.

Zresztą koszt chipu to i tak jest ułamek. Większość to chora marża Nvidii, koszty R&D AI i tak dalej. Sam chip, szczególnie w segmencie wydajnych ale mainstreamowych kart (obecnie do 5080, a nie 5090) to też nie jest jakiś kolos. No w układach typu full Blackwell lub większych to tak, szczególnie wliczając niski uzysk w nowym procesie przy tak dużych chipach. Ale i tu idą mocno w MCMy, stacking itp.


@Wu70

Dzięki bardzo za info. W 100% zaspokoiło moją ciekawość :piwko:

A co do VRAMu, to nie lepiej po prostu użyć RAMu? Zwykłe taniutkie płyty potrafią akceptować 256GB w 4 kościach, które nawet nie są jakoś specjalnie drogie porównując z kosztem kart z 32GB RAMu. Oczywiście rozumiem,  że wydajność, ale czy czasem jakieś APU + 384GB RAMu nie przeliczy szybciej niż 5090 z 32GB jeśli model waży np. 300GB? A jeśli taka 5090 swapowała by nie do SSD a do RAMu, to też nie wiem jak wyglądałaby wtedy różnica w wydajności, jeśli 5090 musiałaby tak często "czekać" aż dane sobie polecą do RAMu i z powrotem.

 

Edytowane przez VRman
Opublikowano
7 minut temu, sideband napisał(a):

Nie ma żadnego wróżenia tylko jak się nie rozumie do czego to się odnosi to się p... głupoty.

Zaraz wkleje tabelkę.

Rozumie rozumie. Grok to mi napisal ze nawet 3x lepsza efektywnosc. Nie mniej jednak, nie było takiego i nawet przeskok z ampere na ade nie dało takiego wzrostu efektywnosci

Tymbardziej, że GDDR7 lub GDDR7X to najpewnie pamiec jaka bedzie w Rubinie

Opublikowano (edytowane)
18 minut temu, maxmaster027 napisał(a):

Nie rozumiem czasem negatywnego podejscia

Moze w dolnej polce cos sie zadzieje. W sensie takim, ze 6070 bedzie mialo wydajnosc 4090 za 5-6k, ale 6090 bedzie kur.. drogi.

Edytowane przez DżonyBi
  • Like 1
Opublikowano
10 minut temu, maxmaster027 napisał(a):

Rozumie rozumie. Grok to mi napisal ze nawet 3x lepsza efektywnosc. Nie mniej jednak, nie było takiego i nawet przeskok z ampere na ade nie dało takiego wzrostu efektywnosci

Tymbardziej, że GDDR7 lub GDDR7X to najpewnie pamiec jaka bedzie w Rubinie

Dalej używaj AI to na pewno będziesz mądrzejszy ;) Ludzie niedługo będą pytać ile to jest 2x2 ;)

Dobra nie jest tak różowo te 2.5x wydajność na wat dotyczy tylko FP4, a przy FP8 totalna stagnacja ;)

 

Opublikowano

Używam, bo jestem ciekawy ich "opini". To Ty napisales o 2.5x :) a mowi Ci grok napisal 3x. Tak oczywiscie zależnie od tego czy to FP4, FP8, FP16, BF16, i wlasnie FP 32 które jest dosc istotnym przełożeniem na gry. Oczywiscie fajnie gdyby było najwiecej, najlepiej, najszybciej, najtaniej. Jak bedzie zobaczymy.

Opublikowano (edytowane)
Godzinę temu, VRman napisał(a):

A co do VRAMu, to nie lepiej po prostu użyć RAMu?

W domowych warunkach tak się robi. Jak masz za mało vramu to część przerzucasz na ram.

2x3090 + 128GB ram to fajny setup.

Tylko oczywiście wydajność leci na łeb więc tego ramu się używa żeby dopchnąć brakującą końcówkę. 

 

  

Godzinę temu, VRman napisał(a):

że wydajność, ale czy czasem jakieś APU + 384GB RAMu nie przeliczy szybciej niż 5090 z 32GB jeśli model waży np. 300GB?

Ano tu jest szansa z socami i zunifikowanym ramem, gdyby poszli w tym kierunku to by odciążyło klasyczne karty, zobaczymy się przyjmie ten segment

https://www.purepc.pl/nvidia-dgx-spark-czyli-kompaktowy-superkomputer-ai-na-biurko-dla-programistow-badaczy-i-naukowcow

Edytowane przez Wu70
Opublikowano (edytowane)

Karta potrzebna tylko Nvidii,żeby blokować spadki cen 5060tek.

 

 

Jednak trzeba uczciwie zauważyć, że to nie jest typowa x50tka (ta powinna mieć wyraźnie węższą szynę od 60tki, choć tu jest już i tak źle nazwana 5060tka bo ma szynę 128bit) i lepsze to niż debiutująca za komiczne 1400zł 3050tka. 

Myślałem pół roku temu że walną 64 czy 96bit ;)

 

Więc porównując do sytuacji sprzed 3 lat, która była chora przez szał na kopanie, to postęp jest :D

 

gdyby karta a takich możliwościach kosztowała 200$ i pobierała 75W, to byłaby nawet spoko. 

 

PS. Zaraz na pewno zobaczymy recenzję DF, gdzie ją porównają do już nie tylko 2060 i 1060tki, ale pewnie i do 1050, 1030 i 750Ti bo czemu nie :E

 

Edytowane przez VRman
Opublikowano
2 godziny temu, DżonyBi napisał(a):

Jak wyjdze 5080 24GB to na pewno nie pomoze dla 4090, a potem prawdopodonie juz 6070 / ti dogoni 4090, ktora juz dawno po gwarancji bedzie. Nie ma litosci dla podzespolow PC, a w szczegolnosci GPU. Skonczy jak 3090. Zawsze tak bylo i tak bedzie.

No Co ty -  tutejsza sekta 4090 stwierdzi, że te GPU są niezniszczalne :E

 

Opublikowano

ponad 1100zł za nowe 5050, które prawie dogania 4060, które można było kupic w promkach za 1000zł w zeszłym roku. 

MFG fajnie, że jest pytanie jak to dziala przy 8GB. Jakby byla cena 199$ 3.6*199*1.23 880zł w promce za 700zł takie gpu jak najbardziej

Opublikowano (edytowane)
24 minuty temu, michaelius33 napisał(a):

Kurcze ale tak narzekamy na brak postępu a paździerz jest szybszy niż 1080ti :E 

Nie jest. Wypada tak w nowych grach, w których nie ma żadnej optymalizacji pod 1080ti i do tego mogących sie opierać o to, czego 1080 nie obsługuje - async compute czy w ogóle wsparcie dla Vulkana chociażby.

 

Porównaj w grach z ery 1080ti to się zdziwisz jak jest "szybszy".

 

Żeby nie było "no ale to chyba dobrze, że nowa korzysta z nowej technologii" to od 20 lat się o tę kwestię wykłócam.

BF3 beta: 4GHZ  30fps. 2GHz ale 2x więcej rdzeni: 70fps. 

To przykład na to, jak olanie optymalizacji pod dany sprzęt się może kończyć. Nigdy, w żadnym wypadku 2 rdzenie 2GHz nie dadzą rady wyprzedzić 1 rdzenia 4GHz, chyba że te 4GHz jest na architekturze, gdzie zegar się zmienia "pozornie" jak AMD FXy. Tutaj było jednak o C2D. Cache też nie, bo nawet łącznie ten z 2x większą ilością rdzeni miał jej mniej (to był low-endowy proc)

 

Uwaga, to tylko hipotetyczny przykład!

 Załóżmy, że użycie Vulkana czy async computed podbije jeden typ obliczeń/efektów w grze o 30%. Ale jego brak może obniżyć wydajność o 60%. Czy nadal mamy bić brawo, że nowa karta jest szybsz dzięki nowej technologii bo tak wypadła w teście?

Ano nie. Realna wydajność się powinna bardziej liczyć.

 

Po lewej 5050 a po prawej 1080ti

image.png.c3f04f39df3c47dafee2bb9b266f0af5.png

 

Pixel fill, texture fill, to się liczy bardziej niż teraklopsy. 

Przepustowość RAMu: 320 vs 484, ale trzeba liczyć 320+ to co da większa pamięć cache.

 

Można się spierać czy są równe, ale nie jest szybsza od karty, która za 2 tygodnie będzie miała 9 lat. (Pod nazwą Titan, ale to już tylko i wyłącznie kwestia chciwego marketingu Nvidii, który najpierw wydał ten chip pod nazwą Titan, aby wydoić, a potem dopiero jako 1080Ti w marcu 2017)

 

 

Edytowane przez VRman
Opublikowano (edytowane)

To zależy jeszcze od gry, ale owszem, to jest surowa wydajność, która miała wieksze znaczenie wtedy, gdy debiutował 1080ti, a teraz mamy modę na "ciężkie" silniki, pierdylion warstw, obliczeń na shaderach i postproces cięższy niż wybuch granatu w pierwszych Call of Duty na GF3 z jednym pixel shaderem ;)

 

A co do problemu z czatu:

Spoiler

 

Chodzi o to, że czasem wrzuca mi obrazek do nowego posta, choć go wrzucałem w poście w innym wątku. W poście którego dodałem poprawnie, w sensie, że nie został w edytorze jako "in progress". To raz. 

 

A dwa, że czasem nawet w normalnie tworzonym poście od zera, wrzucam obrazek ze schowka przez Ctrl+C i raz się wrzuca poprawnie, a innym razem jest tak:

image.png.dc4e767db19bd5e6ede0692a97876151.png

 

 

Czyli w treści obrazka nie ma, ale w załączniku zostaje. Przy kilku często przegapiam i potem nagle screenshot z artykułu o Trumpie w wątku o kartach :E

Dziś wrzucałem dwa. Jeden uparcie się dodawał tylko jako załącznik, ale nie wchodził do treści. Jedyna opcja to dodać posta, wejść w edit i tutaj dopiero można go zobaczyć w treści i ewentualnie przestawić w inne miejsce wedle pierwotnego pomysłu.

Czasem też kasuję w treści, a zostaje w tym załączniku. Dodaję posta a tu nagle się to co skasowałem jedna pojawia (bo zostało w sekcji załączniki)

 

Problem występuje od dość dawna i dziwne, że inni o tym nie wspominali wcześniej.

 

Edytowane przez VRman
  • Upvote 2

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...