Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)
17 minut temu, Paw79 napisał(a):

Dopiero teraz widzę że karta miała wczoraj premierowe testy.
Jednak TDP nie było grubo na wyrost- te 500W w grach "is real".
Zimą to w sumie "darmowe" ogrzewanie, ale powodzenia przy graniu latem. :lol2:
Nie chce mi się wertować wszystkich postów i recenzji, więc po prostu zapytam: są już jakieś testy tej karty po undervolcie?

Mogę coś pokręcić, bo mnie temat UV nie interesuje, ale chyba możesz liczyć 16% obniżkę prądu zanim pojawią się spadki wydajności. Teraz. Czyli pewnie mniej później. Dla bezpieczeństwa powiedzmy 10% poboru zetniesz. Tyle na pewno. 

 

16 minut temu, CajraX napisał(a):

Tak sobie przeglądam specyfikację RTX 4090 i 5090, no i z tego co widzę to niby wszystkiego więcej podokładali, ale poza ROPami. I tu jest pies pogrzebany, bo to chyba zahamowało przyrost z samych usprawnień architektonicznych. Czarne chmury zbierają się nad rynkiem GPU, bo producenci nie są już w stanie przekroczyć pewnych barier konstrukcyjnych. Zatrzymało się coś, co samo się od dwudziestu lat kręciło.

Taa. Zatrzymało się przeświadczenie w głowach korpokrawaciarzy, że gamingowymi GPU jest sens się zajmować. Na co Ci ROPs w karcie do AI? No właśnie. Jestem pewien, że jakby dali 4090tce więcer ROPS, sporo więcej cache'u L2 i GDDR7, to byłoby znacznie szybciej i nikomu nie potrzebny był układ robiony pod AI, którego Nvidia przemalowała na GPU do gier. 

 

 

@Kadajo

Na co ja patrzę na tym obrazku?  Słońce wali mi prosto w monitor. Artefakty? Wydajność? 

Edytowane przez VRman
  • Upvote 2
Opublikowano
9 minut temu, Spl97 napisał(a):

W 5080 oraz 5070 Ti mają mieć więcej ROP od poprzedników (112 vs 128, 96 vs 128). W 5070 tyle samo co poprzednik.

Faktycznie. Jakoś tego wcześniej nie odnotowałem, ale teraz już mam wyjaśnione z czego może się uzbierać te 10-15% :D

Opublikowano

20 stopni wyższa temp. CPU chłodzonego powietrzem przy dość dobrze wentylowanej obudowie :Up_to_s:

Screenshot_20250124_130631_Samsung Internet.jpg

Opublikowano
57 minut temu, Kadajo napisał(a):

Jak ja już czytam na redicie ze nowy model DLSS MASYWNIE POPRAWIA JAKOŚĆ OBRAZU, DZIEŃ I NOC NORMLANIE SZOK.

Nic tylko czytam i nadrabiam wszytko z wczoraj i tu bekę cały czas kręce. :)

Czemu się dziwisz?

W każdym kraju znajdzie się taki sebix oktaba który napisze ze jest lepiej , nie widać różnicy, że przy multi fake generatorze nie widzi artefaktów i potem bezmyślna klakiernia powtarza,  "tata a Sebastian powiedzial" , co z tego że dasz linka do testu gdzie widać babole na ekranie , jak pada argument nie do zbicia: Sebastian napisal

Opublikowano
4 minuty temu, muszka napisał(a):

20 stopni wyższa temp. CPU chłodzonego powietrzem przy dość dobrze wentylowanej obudowie :Up_to_s:

Akurat Fractal Torrent to obudowa, która może pokazywać bardzo dużą różnicę, bo tam z kartą klasycznej konstrukcji ciepłe powietrze jest wyrzucane od razu do tyłu. 

Przy bardziej typowych obudowach z wyciągiem do góry pewnie różnica nie będzie tak duża, bo tam zawsze jest źle :E

Opublikowano (edytowane)
3 minuty temu, GAZuOOT napisał(a):

Ja tam celuje w jakiekolwiek 5090 [..] Jak sie nie uda to może 5080.

W budzie próżnia, więc się nie dziwie :hihot:, ale sprzedac 4090, zeby kupic 5080 to interes zycia.

Edytowane przez DżonyBi
  • Confused 1
Opublikowano (edytowane)
16 minut temu, muszka napisał(a):

20 stopni wyższa temp. CPU chłodzonego powietrzem przy dość dobrze wentylowanej obudowie :Up_to_s:

Screenshot_20250124_130631_Samsung Internet.jpg

Wrzuć link do tego testu, bo brakuje informacji w czym było testowane i z jaką prędkością pracowały wentylatory w obudowie.

 

W przypadku modeli niereferencyjnych różnica będzie znikoma.

 

Mogliby zrobić testy w mini PC, jakie tam są temperatury.

Edytowane przez Doamdor

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...