Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
Godzinę temu, maxmaster027 napisał(a):

fakt, że 5080 jest szybkie szczególnie po OC, ma te wydajnosc 4090tki

Nie ma :) Co najwyżej, jak sobie wyselekcjonujesz pasujące przypadki pod tezę, jak to wcześniej robiłeś, a te mniej optymistyczne pominiesz %-)

Opublikowano
15 minut temu, Auberon napisał(a):

Użycie FP4 w modelach powoduje że potrzeba 2 razy mniej VRAM albo model może mieć 2 razy więcej parametrów a tu VRAMu jest ledwie o 50% więcej.

Pamietaj, że FP4 to są obliczenia niskiej precyzji. Można je gdzie niegdzie wykorzystac to prawda, i na pewno przyśpieszyć działanie karty to wykorzystując. Ale są drobne ALE. 

Wszelkie rezultraty i obliczenia koncowe i tak musza byc w FP8 najlepiej FP16. Żeby FP4 jako tako działalo i mozna było to juz normalnie prawilnie zastosować, potrzeba jest olbrzymia ilosc treningu, wiec pewnie teraz to trenuja, no przynamniej mam taka nadzieje, może juz wytrenowali. :P 

Natomiast to prawda, że uzycie FP4 obniża zasobność na VRAM :) 

Teraz, Lameismyname napisał(a):

Widzę nowy rok ale bajki zeszłoroczne się ciągną xD 

No mi sie nie chce kłócić, że mu sie chce :P Dla niego nie jest i tyle, z adminem nie bedę polemizował. Jest wydajnosc 5090 default 108FPS, wydajnosc 5080 72-73FPS, wydajnosc 4090 77fps, 5080 po OC 84fp i to na moim paździeżu. Tak samo cała reszta juz dawno uległa, wyjątkiem pozostaja gry gdzie 5080tka leci na 290-300W wiec po prostu silnik gry nie jest dostosowany pod te karty. Jak do tego dołożysz jeszcze MFGx3 to juz sie robi przepasc, dlatego trzeba utrzymywac narracje jako że 5080 nie dogania 4090 nawet po OC. 

Opublikowano
7 minut temu, maxmaster027 napisał(a):

Wszelkie rezultraty i obliczenia koncowe i tak musza byc w FP8 najlepiej FP16. Żeby FP4 jako tako działalo i mozna było to juz normalnie prawilnie zastosować, potrzeba jest olbrzymia ilosc treningu, wiec pewnie teraz to trenuja, no przynamniej mam taka nadzieje, może juz wytrenowali. :P 

Tylko to jest rozmiar "akumulatora" dla wyników obliczeń zmiennoprzecinkowych tak jak wynikiem dodawania 2 licz 8 bitowych jest liczba 9 a nawet 16 bitowa.

Pewnie tech bełkot ale niestety taki mamy temat rozmowy.

Opublikowano
1 minutę temu, VRman napisał(a):

Jaka szyna jak tam są/będę/(albo i nie, bo nie wiadomo czy karta faktycznie wyjdzie) kostki 3GB po prostu, więc 256bit zostanie.

No w sumie faktycznie zapomniałem ze to przecież inne kości będą.

Opublikowano
4 minuty temu, Kadajo napisał(a):

To nie tylko 8gb pamięci, ale i szersza szyna chyba będzie przez to. To tez spowoduje ze ta karta przyspieszy.

Moduły pamięci będą 3GB i to jedyna nowość SUPER GeForce.

  • Upvote 1
Opublikowano
13 minut temu, maxmaster027 napisał(a):

Dla niego nie jest i tyle, z adminem nie bedę polemizował.

No ale co, boisz się bana? %-) Ode mnie przecież nie dostaniesz. Regularnie testuję GPU w różnych grach i widzę, jaka jest przepaść między 4090 a 5080 w wielu tytułach na UE5, więc nie dam sobie wmówić, że OC wyrówna np. 15% przewagi 4090. A argument z DLSS MFG oczywiście rozumiem, ale Ty też powinieneś zrozumieć, że nie każdy chce się bawić w generatory, więc dla jednego to wartość dodana, dla kogoś innego nie.

  • Upvote 1
Opublikowano
3 minuty temu, VRman napisał(a):

Jaka szyna jak tam są/będę/(albo i nie, bo nie wiadomo czy karta faktycznie wyjdzie) kostki 3GB po prostu, więc 256bit zostanie.

Przepustowość jest taka sama dla 2GB 256 i 3GB 256, Jedynna zmienna jest +2GT wiecej na rzekomo rumor super karcie 

To oznacza 32GT/s  czyli 1024GB/s vs 4090 1007GB/s. I jest jeszcze 2GB kostki 30GT/s maja 960BG/s

Opublikowano

bo7.png.b7a193f15e978c41e8f2c52b8113475e.png

Jak się bawimy w przypadki ekstremalne, który Ty dobierasz pod tezę, że 4090 = 5080, to ja Ci daję kolejny przypadek ekstremalny z tych niekorzystnych dla Blackwella. To jest BO7 w 4K. Wyrównaj tę różnicę OC xD

Opublikowano (edytowane)
5 minut temu, tomcug napisał(a):

No ale co, boisz się bana? %-) Ode mnie przecież nie dostaniesz. Regularnie testuję GPU w różnych grach i widzę, jaka jest przepaść między 4090 a 5080 w wielu tytułach na UE5, więc nie dam sobie wmówić, że OC wyrówna np. 15% przewagi 4090. A argument z DLSS MFG oczywiście rozumiem, ale Ty też powinieneś zrozumieć, że nie każdy chce się bawić w generatory, więc dla jednego to wartość dodana, dla kogoś innego nie.

Nie chodzi o bana, jak Ty rozumujesz. Tu chodzi o to, że masz tutaj, uznanie. Wiec wole unikać takich starć :P To cos jak wiesz bicie bosa w diablo, niby daje troche radosc ale gorzej jak padniesz>

No trzeba powiedzieć że nie kazda 5080 dogoni 4090, bo trafisz mocno przeciętna sztuke co zatrzyma sie na 3100 w porywach i nie ma szans. Po za Tym bios trzeba wgrac 450W itp. 

No jak ja u siebie sprawdzilem to jest ta wydajnosc, a to co sie dzieje na tych sterach w takim RDR2 to juz w ogole sam nie wiem 104fps prawie, gdzie 4090 ma 94fps. Dlatego sobie wmawiam, że to cos moze nie tak, no ale zainstalowalem 591.44 i jest 97.5fps. Takze, nie wiem czy stery po prostu ulepszyli czy co. 

Tu masz video 4090 max OC vs 5080 max OC , ja tylko dodam, że jednak mam odrobine lepszy FPS od tej 5080tki tutaj, pomimo niższego zegara, ostatnio bios zainstalowalem 415W i MHz poszyly w góre wydajnosc w dól. Nie wiem czemu tak sie dzieje. 

 

Edytowane przez maxmaster027
Opublikowano
5 minut temu, maxmaster027 napisał(a):

Nie chodzi o bana, jak Ty rozumujesz. Tu chodzi o to, że masz tutaj, uznanie. Wiec wole unikać takich starć :P To cos jak wiesz bicie bosa w diablo, niby daje troche radosc ale gorzej jak padniesz>

Podstawą jakiejkolwiek nauki jest podważanie dogmatów.

Od utrwalaniu dogmatów jest religia.

Opublikowano (edytowane)
11 minut temu, Kadajo napisał(a):

Po 3 latach zrobili RTX 4090 Super :hihot:

nie no, tyle to nie.

 

Raczej 4090 bieda edition, AI fake frames edition

Ale za to po niecałych 4 latach o 5-20% niższa wydajność będzie nie za 8000zł a za 7500zł. Postęp :E

 

@maxmaster027

Przepustowość może i wyrówna, ale ROPów 4090tka ma nadal o 50% więcej.  Reszty zresztą też. 

 

Nikomu bym nie polecił dziś 4090tki, bo to za duże ryzyko, za droga zabawka, żeby bez gwarancji spać spokojnie, ale jednak Tomcug ma tu rację. Patrzysz zbyt subiektywnie na ten temat. Inni patrzą inaczej na takie sprawy jak MFG czy inne. Różne też ludzie lubią gry i różne mają oczekiwania. Są różne silniki, ktoś może woleć grać w 900p ale w HFR, a inny w 8K mimo 35fps, jeden może lać na VR, a inny grać głównie w VR. Ogólny consensus jest taki, że 5080tka 4090tki nie zastępuje i to nie tylko przez mniej VRAMu, ale tego typu spory były i będą. Ja pamiętam jeszcze spory o to, czy procesor Cyrixa (lata 90te) jest szybki czy nie jest szybki.

Tam to dopiero był rozbieżności w wynikach :D

 

Potem w przypadku pierwszych dwóch ZENów były spory czy jest gówniany czy zajebisty (obie opinie były trafne, zależnie od zastosowań) itp.

Nie ma sensu się na siłę przekonywać. Zostawcie to w roku 2025 i nie odkopujcie już ;)

 

Edytowane przez VRman
Opublikowano
27 minut temu, maxmaster027 napisał(a):

No mi sie nie chce kłócić, że mu sie chce :P 

Bardziej miałem na myśli, że chcesz nagiąć rzeczywistość z tym równaniem 5080 do 4090 xD 
OC też działa w dwie strony - skoro jedną kartę możesz podkręcić, to drugą też.
Moim zdaniem najgorszą wadą 5080 jest 16GB VRAM, dlatego nawet nie brałem jej pod uwagę. 

Kolega @Smalec wrzucał swojego czasu ciekawą przeróbkę filmu "Upadek" gdzie jedna osoba miała śmieszny podpis "Kurwa, zamieniłem 4090 na Ventusa 5080" xD Zawsze mam to przed oczami jak ktoś usilnie przyrównuje 5080 do 4090.

Opublikowano
6 minut temu, Lameismyname napisał(a):

Bardziej miałem na myśli, że chcesz nagiąć rzeczywistość z tym równaniem 5080 do 4090 xD 
OC też działa w dwie strony - skoro jedną kartę możesz podkręcić, to drugą też.
 

No ależ oczywiście. Wiadomo, że jeżeli porównamy OC vs OC to nie ma o czym mówić. Tutaj była tylko mowa o 4090 bez OC. :) I ja tutaj też nie chce za bardzo bronić nvidii, głównie dlatego że dali 16GB zamiast 24GB, i pożałowali tego chipu a swoje kosztuje, jednak tyle z tego dobrego wyszło, że majac ten mocny bios karta sporo zyskuje. 

Opublikowano
2 minuty temu, maxmaster027 napisał(a):

Tutaj była tylko mowa o 4090 bez OC. :)

No i w takim wypadku to też nie jest sprawa oczywista. Zrobisz korzystny dla Blackwella dobór gier, to ok, wyjdzie z grubsza remis. Zrobisz pośredni dobór, będzie ok. 5% przewagi 4090-tki. Ale zrobisz same, które chodzą jak kasztan na Blackwellu, to dalej będzie przepaść %-) 5080 potrafi 40% oberwać od 4090, jak gra i konkretne miejsce w niej wybitnie nie przypasuje.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • 595.79  https://www.nvidia.com/pl-pl/drivers/details/265572/
    • Jesteś pewien tego pogrubionego? Bardzo trudno jest to wyłapać i w zasadzie można to tylko usłyszeć. Dawno nie jechałem elektrycznym Mercedesem, więc teraz nie będę mówił na pewniaka, ale Tesla nie używa rekuperacji do końca (nikt tego nie robi, bo się nie da). Zatrzymywanie odbywa się na innej zasadzie.
    • @nozownikzberlina, powiem Ci tak. W dużej firmie technologicznej, gdzie robię za tech leada, mamy do dyspozycji tuzin narzędzi AI. Różne IDE, mnogie agenty, w tym te CLI, tryby YOLO itd., itp. Kod od AI jest tak dobry jak dobry jest prompt. Do tego każdy model ma swoje wady i zalety, jak wszystko. Przykładowo, jednego używasz do wygenerowania opisu systemu na podstawie dokumentacji. Drugiego zaś do wygenerowania prompta dla modelu trzeciego, który ma kontekst całego projektu wraz z readme typowo pod AI, w którym jest opis, jak ma robić, na czym się skupiać i dlaczego. Taki jeden wygenerowany prompt, poza tymi readme, to jest często kilka albo i kilkanaście stron A4 tekstu. Tam nie jest opisane, co chcesz zrobić, tylko jak i dlaczego. Wraz z wyszczególnieniem architektury, podziału modułów, klas, podejściem do problemów współbieżności, wymaganiami pod kątem wzorców projektowych, SOLID i wszystkim innym, o czym myślałby dobry programista. W ten sposób można mieć bardzo dobre wyniki. AI stworzy cały feature i 90% takiego kodu jest dobre. Trochę szlifów, poprawek i jest. Da się dostać bardzo dużo. Problem korzystania z AI często znajduje się między kresłem a monitorem. Czyli nadal potrzeba programisty, który ma wiedzę. Po prostu nie musi on już tego wszystkiego od zera klepać. Koszty takiego jednego prompta? Czasem roczny zapas tokenów z jakiegoś taniego planu.  W przypadku planów enterprise, które mamy, i tak czasem słyszę od backendowca, który akurat robi front, że dzisiaj bierze się za coś innego, bo skończyły mu się tokeny.  I ten front potem i tak wymaga review kogoś, kto faktycznie się na nim zna. Tak więc @Wu70 ma rację w tym, co pisze. AI to nie jest "zrób za mnie, bo ja nie umiem". To jest "zrób za mnie, bo mi się nie chce klikać po klawiaturze, ale powiem ci, jak i dlaczego".   W ten sposób praca w IT się zmienia. Już od dawna dobry programista nie jest tylko od klepania kodu, ale także od wielu innych rzeczy. Zaoszczędzony czas można spędzić na ogarnianiu wymagań biznesowych, optymalizacji, infra as a code, CI/CD, komunikacji sieciowej, observability i wielu innych. Czyli zamiast pięciu ról coraz popularniejsza robi się ta pod tytułem software engineer. Natomiast nie jest to spowodowane bezpośrednio rozwojem AI. Big techy już od dawna do tego tak podchodzą. Teraz się to po prostu popularyzuje w mniejszych firmach. Czy ta praca dzięki temu staje się łatwiejsza? Nie, wręcz przeciwnie. Żeby te rzeczy dobrze robić z pomocą AI, trzeba je znać i rozumieć, tak samo jak opisałem to z programowaniem jako takim. Trzeba wiedzieć jeszcze więcej o wszystkim wokół. Czy AI zastąpi programistów? Bezpośrednio pewnie nie, ale ci z szeroką wiedzą o całym ekosystemie IT, korzystający z AI, zastąpią tych, co stoją w miejscu i dalej chcą po prostu pisać kod. Potrafię sobie wyobrazić mniejszy zespół ogarniaczy z narzędziami AI w miejscu większego zespołu średniaków. Czy jest marchewka dla tych ogarniaczy? Chyba jest... Revolut dla seniora daje jakieś 600k netto rocznie dla seniora na B2B zdalnie, Netflix w Wawie 1M rocznie brutto na UoP, a Elastic 380k USD netto rocznie na B2B zdalnie. Do  tego budżety na obiadki, szkolenia, prywatną opiekę medyczną, plany emerytalne i pakiet akcji. Jasne, to są topowe oferty, nie dla każdego, ale na takiego staffa za te 40-50k netto miesięcznie da się załapać w niejednym miejscu, jak ktoś ma już dobrego expa i skilla.   Zahaczając jeszcze o Vibe-Coding, owszem, da się wygenerować różne programy, nie będąc programistą, ale to po prostu będzie jakoś tam działać i tyle. Nie powstanie w ten sposób kod, który w prawdziwym systemie mógłby pójść na produkcję z powodu lipnego security, problemów ze skalowalnością, braku testów, braku sensownej architektury i wielu innych.   Czy za dekadę albo dwie AI faktycznie sama będzie umieć postawić cały system wraz z infrastrukturą i otoczką? Ja wątpię, ale jedyna słuszna obecnie odpowiedź to IMHO "uj wi".  Na razie te firmy od AI nie są nawet rentowne. Równie dobrze może się to skończyć jakimś kryzysem i ostudzeniem podniety na kolejne dekady. Wszak algorytmy AI istniały już w latach sześćdziesiątych ubiegłego wieku, a ich popularyzacja nastąpiła dzięki rosnącej mocy obliczeniowej sprzętu. A tego obecnie brakuje, podobnie jak energii.
    • No i git trzeba sprzedawać bo zaraz będą się kłócić .😊 A może dadzą 3 koła nie wiadomo?
    • W Golfie 3 był na środku "tyłu", pod obciążeniem się włączał. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...