Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
7 godzin temu, Kanzu napisał(a):

Z czym odklejka? 

Napisałem to prześmiewczo i nawiązałem do screena. 

Każdy widzi, że chodzi o fabryczny bios, zablokowany PL i osoby z Polski. 

Kogo interesuje, że po zmianie biosu można kręcić wyższe wyniki. 

Myślałem, że Ty tak na serio ;)

Prawdziwe ściganie to jest na hwbocie ;)

Opublikowano

@sideband ja pisałem o naszym kraju i Steel Nomadzie. 

Na hwbot w rankingu nomada nic wyjątkowego nie ma, bo mało kto w tym kręci. Te same osoby i wyniki są na oficjalnym Hall of Fame 3DMarka. Najwyższe miejsce Polaka, który tam jest to ten Kaczucha, który na oficjalnym u nas jest 5. 

Napisałem prześmiewczo, ale teoretycznie miałem rację, bo oficjalnie nie ma nigdzie wyższych wyników stricte z nomada tylko w Polsce :E 

Jak ktoś tam w zaciszu sobie biosy zmienia i kręci wyżej nie udostępniając tego dalej to nie wnikam.

Opublikowano

oj ta karta lubi prąd, raz jedyny  zapomniałem ustawić power limit na 60% i  miałem rdzeń 3390 przy 750W

co zastanawia mnie nad chłodzeniem VRM, bo blok i tak odbierze ciepło  z rdzenia i  VRAM

refy (i w sumie nie refy) mają ten sam układ, mp29816 plus mp87993, dławiki  i  kondensatory  stabilizująco filtrujące (i tu są różnice między modelami)

kontrolery i drmosy w każdym bloku mają zapewniony kontakt. dławiki  chyba w heatkillerach, kondensatory  nigdzie

w powietrznych gigabyte zalewał  tym swoim kitem wszystko

jest  sens nakładać putty na resztę VRM?

Opublikowano (edytowane)

Kondensatory i cewki nie potrzebują chłodzenia, przynajmniej tak wyczytałem na zagranicznym forum  Alphacoola. Producenci dają tam pady albo putty by zredukować drgania i wyciszyć cewki. Te układy same z siebie nie generują ciepła.

 

5080 windforce po założeniu bloku spisuje się świetnie, podkreciłem kartę i trzyma boosta stabilnie w przedziale 3170-3200MHz przy 1,03V. Największy pobór prądu w Nomadzie to ok 380W i robi 9500pkt. Nie ma nawet potrzeby wgrywania lepszego biosu. Po wygrzaniu osiąga max 55 stopni.  

Edytowane przez Totek
Opublikowano
28 minut temu, bofff napisał(a):

a poka krzywą z AB?

Niech pokaze wynik z CP, bo jednak benchmarki nieco roznia sie od gier. Gra to cały system windows itp, benchmark to najczesciej tylko GPU. Ja u siebie nie mam 3.2Ghz raczej 3.15-3.175Ghz, ale wydajnosc jest raczej ok
Screenshot(26).thumb.png.5452eb184daf0d6d69505bc64e4fd96c.png

Screenshot(27).thumb.png.64e68dd1e312408c7c62e891f27fc66c.png
z fgx4 jest 269

Opublikowano
1 godzinę temu, Totek napisał(a):

Kondensatory i cewki nie potrzebują chłodzenia, przynajmniej tak wyczytałem na zagranicznym forum  Alphacoola. Producenci dają tam pady albo putty by zredukować drgania i wyciszyć cewki. Te układy same z siebie nie generują ciepła.

 

5080 windforce po założeniu bloku spisuje się świetnie, podkreciłem kartę i trzyma boosta stabilnie w przedziale 3170-3200MHz przy 1,03V. Największy pobór prądu w Nomadzie to ok 380W i robi 9500pkt. Nie ma nawet potrzeby wgrywania lepszego biosu. Po wygrzaniu osiąga max 55 stopni.  

oj tam oj tam

Thermal-Repaste-RTX-5090-shunt-modding.j

 

  • Haha 9
Opublikowano

Zrzutekranu2025-12-15130234.thumb.png.4775720ba4032b334128a2c5c764adcd.pngZrzutekranu2025-12-15130031.thumb.png.0b07edada9f252eb16e9a320e26ccd6b.png

 

Przed i po OC, ustawienia specjalnie dociśnięte pod kartę bo ponad 90FPS to już mi proc nie wyrabia. Wyniki wszędzie mi się zgadzają, ponad 10% na plus. 

 

2 godziny temu, bofff napisał(a):

a poka krzywą z AB?

Nie ruszałem napięcia, wszystko w automacie, tylko PL na 400W, pamięć i rdzeń do granic stabilności.  

Opublikowano

ściągasz sobie stery 595.02, jak nie masz źródła to masz CI wrzucilem, https://drive.google.com/file/d/1H5rkMS2fBSMXC4hxJtSCX4YVbJIthe4f/view?usp=sharing 

ściągasz pliki DLSS 310.2.1.0 załączyłem je tutaj zebys nie musiał szukac 

Ustawiasz sobie krzywa UV i raz jeszcze ustawiasz OC bo moze byc niestabilne na nowych sterach

Screenshot(36).thumb.png.b52a248f0d6ae5992440d82fa0c6186c.png
240-250W w tym tescie 245W
Screenshot(39).thumb.png.64c597d81ea55eb746cd5eeba82d5799.png
i OC 375-390W 385~, 

Jak widać, pchac blackwella do granic mozliwosci to średni interes. 140W watów wiecej, za 7fps. 

nvngx_dlss.dll nvngx_dlssd.dll nvngx_dlssg.dll

  • Like 1
Opublikowano (edytowane)
7 minut temu, maxmaster027 napisał(a):

Ustawiasz sobie krzywa UV i raz jeszcze ustawiasz OC bo moze byc niestabilne na nowych sterach

Nie masz włączonego - Trybu Rekonstrukcji Promieni Światła DLLS (kurna kto to wymyśla) jak u Totka.

Edytowane przez ju-rek
  • Upvote 3
Opublikowano
23 minuty temu, ju-rek napisał(a):

Nie masz włączonego - Trybu Rekonstrukcji Promieni Światła DLLS (kurna kto to wymyśla) jak u Totka.

Screenshot(40.thumb.png.b308f16bfd383ef6114adf177c32becb.png
Słuszna uwaga :) 

Nie mniej jednak tutaj GPU zbija zegar 3130mhz ~ na wodzie przy 3.2Ghz powinien miec wiecej niz ja.

5 minut temu, leven napisał(a):

Są 310.4.0 ale przy DLAA to tam znaczenia nie ma praktycznie jak i quality, lepiej jest z performance. A wydajnosc na 321 jest lepsza

Opublikowano (edytowane)

Te 100Mhz w te czy w tamtą to i tak nie robi. Przy moim teście karta pobierała w porywach 340W. Ogólnie zauważyłem w porównaniu do innych testów na YT karta bierze tak do 40-50W mniej prądu. W Wiedźminie dobija do 350W, Nomad 380W i dopiero furmarku potrafi dobić do 400W. Myślalem że coś jest nie tak ale wydajność robi. Wyższy zegar też będzie wynikał z lepszego chłodzenia, podobnie miałem na wodnej 3080 która nie schodziła poniżej 2000, a wystarczyło podgrzać układ do 60 i już zbijał takty. Tylko kwestia jak te MHz przekładają się na wydajność.

Edytowane przez Totek
Opublikowano

Pytanie czy to dobrze pokazuje. Bo w tym tescie to napiecie rdzenia jest na max oc pomiedzy 0.985 a 0.99V i mimo tego wcina te 385W srednio. Wiec żeby Ci brało z 340W to musiałbys miec okolo 0.9V, chyba że mówisz o default. 

Jesli tak to sie tylko cieszyc. W kazdym badz razie te sterowniki co załączyłem sa troche mocniejsze wiec moze kapke wiecej wziąć. Inny DLSS tez moze lekko w gore windowac zegar (choć nie musi) wiec musialbys sprawdzic. W kazdym badz razie na tych sterach sporo gier działa z wiekszym FPS. min. RDR2 581.44 maja 97.5fps a te 103.5, podobnie z innymi grami. 

Opublikowano (edytowane)

Tak trochę zejdę z tematem, bo trafił mi się ze sklepu morele.net - outletowy RTX4080 Super za 3k w takiej oto wersji

https://www.morele.net/karta-graficzna-pny-geforce-rtx-4080-super-verto-oc-16gb-gddr6x-vcg4080s16tfxpb1-o-13168097/

 

Z pełną 3 letnią gwarancją, po zwrocie.

Ja niestety z tej oferty nie skorzystam, bo nabyłem rtxa w jeszcze lepszej wersji XLR8 za taką samą kwotę. Nie chce ktoś sobie przytulić do swojego zestawu? Bardzo dobra cena za praktycznie topkę poprzedniej generacji z sprzetowym physxem. 

Edytowane przez CS_pAqu
Opublikowano
3 godziny temu, maxmaster027 napisał(a):

W kazdym badz razie te sterowniki co załączyłem sa troche mocniejsze wiec moze kapke wiecej wziąć.

Ten sterownik nie jest taki dobry, powinno na nim być więcej, a nie jest. Te same ustawienia karty do testu.

 

porwnanie.thumb.PNG.364bf805d02e60c7d963b831837bec25.PNG

 

Opublikowano
12 godzin temu, Kanzu napisał(a):

@sideband ja pisałem o naszym kraju i Steel Nomadzie. 

Na hwbot w rankingu nomada nic wyjątkowego nie ma, bo mało kto w tym kręci. Te same osoby i wyniki są na oficjalnym Hall of Fame 3DMarka. Najwyższe miejsce Polaka, który tam jest to ten Kaczucha, który na oficjalnym u nas jest 5. 

Napisałem prześmiewczo, ale teoretycznie miałem rację, bo oficjalnie nie ma nigdzie wyższych wyników stricte z nomada tylko w Polsce :E 

Jak ktoś tam w zaciszu sobie biosy zmienia i kręci wyżej nie udostępniając tego dalej to nie wnikam.

Kiedyś znacznie więcej ludzi kręciło i wrzucało wyniki hwbocie ;) Ale również były wersje offline 3dmarków ;)

Hwbocie potrafiłem być parę razy na podium z dobrymi sztukami po vmodzie ;) Dzisiaj tylko przy ujemnych temperaturach wyciągniesz coś więcej ze sprzętu ;)

 

Ps. jeżeli ktoś się zastanawia czy aby na pewno minął czas na sprzedaż 4090 w dobrej cenie to jeszcze nie minął poszła bez problemu za 8k i do tego bez gwary :E

  • Upvote 2
Opublikowano (edytowane)
2 godziny temu, ju-rek napisał(a):

Ten sterownik nie jest taki dobry, powinno na nim być więcej, a nie jest. Te same ustawienia karty do testu.

 

 

 

tak ale Ty masz windows10 LTSC, wiec moze Tobie nic nie daja. Nie wiem

 

Screenshot(48).thumb.png.ddf1e4e3ac3442515f207b0386c7243a.png
w 2k mam tyle, a na UV 63-64 fpsy przy 220-230W w tym benchu. 

Wydajnosc na sterach 591.44 nie jest zła u mnie 0.5-1FPS tylko mniej tak mniej wiecej to sa dobre stery no i maja 32bit physiX

Edytowane przez maxmaster027

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Jesteś pewien tego pogrubionego? Bardzo trudno jest to wyłapać i w zasadzie można to tylko usłyszeć. Dawno nie jechałem elektrycznym Mercedesem, więc teraz nie będę mówił na pewniaka, ale Tesla nie używa rekuperacji do końca (nikt tego nie robi, bo się nie da). Zatrzymywanie odbywa się na innej zasadzie.
    • @nozownikzberlina, powiem Ci tak. W dużej firmie technologicznej, gdzie robię za tech leada, mamy do dyspozycji tuzin narzędzi AI. Różne IDE, mnogie agenty, w tym te CLI, tryby YOLO itd., itp. Kod od AI jest tak dobry jak dobry jest prompt. Do tego każdy model ma swoje wady i zalety, jak wszystko. Przykładowo, jednego używasz do wygenerowania opisu systemu na podstawie dokumentacji. Drugiego zaś do wygenerowania prompta dla modelu trzeciego, który ma kontekst całego projektu wraz z readme typowo pod AI, w którym jest opis, jak ma robić, na czym się skupiać i dlaczego. Taki jeden wygenerowany prompt, poza tymi readme, to jest często kilka albo i kilkanaście stron A4 tekstu. Tam nie jest opisane, co chcesz zrobić, tylko jak i dlaczego. Wraz z wyszczególnieniem architektury, podziału modułów, klas, podejściem do problemów współbieżności, wymaganiami pod kątem wzorców projektowych, SOLID i wszystkim innym, o czym myślałby dobry programista. W ten sposób można mieć bardzo dobre wyniki. AI stworzy cały feature i 90% takiego kodu jest dobre. Trochę szlifów, poprawek i jest. Da się dostać bardzo dużo. Problem korzystania z AI często znajduje się między kresłem a monitorem. Czyli nadal potrzeba programisty, który ma wiedzę. Po prostu nie musi on już tego wszystkiego od zera klepać. Koszty takiego jednego prompta? Czasem roczny zapas tokenów z jakiegoś taniego planu.  W przypadku planów enterprise, które mamy, i tak czasem słyszę od backendowca, który akurat robi front, że dzisiaj bierze się za coś innego, bo skończyły mu się tokeny.  I ten front potem i tak wymaga review kogoś, kto faktycznie się na nim zna. Tak więc @Wu70 ma rację w tym, co pisze. AI to nie jest "zrób za mnie, bo ja nie umiem". To jest "zrób za mnie, bo mi się nie chce klikać po klawiaturze, ale powiem ci, jak i dlaczego".   W ten sposób praca w IT się zmienia. Już od dawna dobry programista nie jest tylko od klepania kodu, ale także od wielu innych rzeczy. Zaoszczędzony czas można spędzić na ogarnianiu wymagań biznesowych, optymalizacji, infra as a code, CI/CD, komunikacji sieciowej, observability i wielu innych. Czyli zamiast pięciu ról coraz popularniejsza robi się ta pod tytułem software engineer. Natomiast nie jest to spowodowane bezpośrednio rozwojem AI. Big techy już od dawna do tego tak podchodzą. Teraz się to po prostu popularyzuje w mniejszych firmach. Czy ta praca dzięki temu staje się łatwiejsza? Nie, wręcz przeciwnie. Żeby te rzeczy dobrze robić z pomocą AI, trzeba je znać i rozumieć, tak samo jak opisałem to z programowaniem jako takim. Trzeba wiedzieć jeszcze więcej o wszystkim wokół. Czy AI zastąpi programistów? Bezpośrednio pewnie nie, ale ci z szeroką wiedzą o całym ekosystemie IT, korzystający z AI, zastąpią tych, co stoją w miejscu i dalej chcą po prostu pisać kod. Potrafię sobie wyobrazić mniejszy zespół ogarniaczy z narzędziami AI w miejscu większego zespołu średniaków. Czy jest marchewka dla tych ogarniaczy? Chyba jest... Revolut dla seniora daje jakieś 600k netto rocznie dla seniora na B2B zdalnie, Netflix w Wawie 1M rocznie brutto na UoP, a Elastic 380k USD netto rocznie na B2B zdalnie. Do  tego budżety na obiadki, szkolenia, prywatną opiekę medyczną, plany emerytalne i pakiet akcji. Jasne, to są topowe oferty, nie dla każdego, ale na takiego staffa za te 40-50k netto miesięcznie da się załapać w niejednym miejscu, jak ktoś ma już dobrego expa i skilla.   Zahaczając jeszcze o Vibe-Coding, owszem, da się wygenerować różne programy, nie będąc programistą, ale to po prostu będzie jakoś tam działać i tyle. Nie powstanie w ten sposób kod, który w prawdziwym systemie mógłby pójść na produkcję z powodu lipnego security, problemów ze skalowalnością, braku testów, braku sensownej architektury i wielu innych.   Czy za dekadę albo dwie AI faktycznie sama będzie umieć postawić cały system wraz z infrastrukturą i otoczką? Ja wątpię, ale jedyna słuszna obecnie odpowiedź to IMHO "uj wi".  Na razie te firmy od AI nie są nawet rentowne. Równie dobrze może się to skończyć jakimś kryzysem i ostudzeniem podniety na kolejne dekady. Wszak algorytmy AI istniały już w latach sześćdziesiątych ubiegłego wieku, a ich popularyzacja nastąpiła dzięki rosnącej mocy obliczeniowej sprzętu. A tego obecnie brakuje, podobnie jak energii.
    • No i git trzeba sprzedawać bo zaraz będą się kłócić .😊 A może dadzą 3 koła nie wiadomo?
    • W Golfie 3 był na środku "tyłu", pod obciążeniem się włączał. 
    • Idealny temat do poruszenia w mediach przez "rzetelnych i niezależnych" dziennikarzy jakich mamy w tym kraju .
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...