Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)
23 minuty temu, cichy45 napisał(a):

A umiesz czytać że jak sobie sprawdziłem u mnie to wyszło inaczej? :E

Popieprzyli coś w tym DF i tyle.

Nie popieprzyli tylko jak ty sprawdzasz na innych ustawieniach to nie dziwne, że ci wychodzą inne wyniki.

Edytowane przez SebastianFM
Opublikowano
55 minut temu, cichy45 napisał(a):

No 5090 będzie gorąca, prądożerna i bez szałowego wzrostu wydajności, ale jak ktoś chce top to "nie ma wyjścia" i trzeba kupić to, bo zawsze to nam doda te 20-40 FPS w miejscach gdzie wcześniej tyle mogło brakować. 

Testy mówią co innego %-)

Opublikowano
25 minut temu, SebastianFM napisał(a):

Nie popieprzyli tylko jak ty sprawdzasz na innych ustawieniach to nie dziwne, że ci wychodzą inne wyniki.

Zrobiłem teraz jak DF i wyszło mi 77.3% wydajności modelu transformer względem CNN. Mniej niż w 1440p ale ciągle 10 punktów procentowych ponad wynik z DF. U nich turing jest prawie tak samo szybki jak ampere, a na pewno nie mają takiej samej wydajności tensorów. Magia? 

Opublikowano

Spokojnie będą nowe stery i nowsze biblioteki to będą kolejne porównania.

NV ma bambole w sterach nawet pod nową generacje gdzie czasami 5090 wypada słabiej od 4090 ;)

8 minut temu, areczek1987 napisał(a):

Stary rozgałęźnik...

 

To teraz sprawdź jaki daje MSI i Asus :E

Opublikowano

Te gniazda to parodia. W modelarstwie czy ASG można spotkać złącza dwupinowe którymi pcha się spokojnie 60A przy pracy ciągłej. 

zlacze-xt60-wtyk-gniazdo.thumb.jpg.2c8c195de028e71a09f54bd72f856e2d.jpg

Małe, schludne i pewne połączenie, ale musieli iść w stronę jakiegoś potworka.

 

  • Upvote 4
Opublikowano
36 minut temu, Totek napisał(a):

Małe, schludne i pewne połączenie, ale musieli iść w stronę jakiegoś potworka.

 

Dla bezpieczeństwa mogli już dać XT90, tez nie jest ogromne a już byłby zapas dla RTX 6090 Ti :E 

 

Oj się nvidia wkopała na minę tym złączem. Tak jak przez lata byli uwięzieni z TGP ~275 W bo blower z 6 + 8 pin, tak teraz zapędzili się w kozi róg z tym że MUSI BYĆ TYLKO 1 ZŁĄCZE. 

  • Haha 1
Opublikowano
1 godzinę temu, Totek napisał(a):

Te gniazda to parodia. W modelarstwie czy ASG można spotkać złącza dwupinowe którymi pcha się spokojnie 60A przy pracy ciągłej. 

zlacze-xt60-wtyk-gniazdo.thumb.jpg.2c8c195de028e71a09f54bd72f856e2d.jpg

Małe, schludne i pewne połączenie, ale musieli iść w stronę jakiegoś potworka.

 

 

59 minut temu, cichy45 napisał(a):

Dla bezpieczeństwa mogli już dać XT90, tez nie jest ogromne a już byłby zapas dla RTX 6090 Ti :E 

 

Oj się nvidia wkopała na minę tym złączem. Tak jak przez lata byli uwięzieni z TGP ~275 W bo blower z 6 + 8 pin, tak teraz zapędzili się w kozi róg z tym że MUSI BYĆ TYLKO 1 ZŁĄCZE. 

 

Panowie składać CV do nvidia, potrzebują tam takich ludzi jak wy.

 

2 godziny temu, areczek1987 napisał(a):

Stary rozgałęźnik...

 

Przynajmniej jest, a w smartfonie ładowarki nie było. :placz:

 

3 godziny temu, Ogider napisał(a):

dostałem na meila :E

image.thumb.png.a35951dc743251c2223673ae2615feae.png

Spokojnie, 30 stycznie zmienią cenę na +/- 14 tys złotych.

Opublikowano
5 godzin temu, Wraith napisał(a):

A może tym https://ithardware.pl/aktualnosci/nvidia_usuwa_czujnik_temperatury_hotspotu_gpu_z_rtx_5000_twierdza_ze_nie_jest_to_istotne-38425.html

? Szkoda, że w informacji na ithardware.pl w paragrafie o spekulowanych potencjalnych powodach takiej decyzji nie wspomniano o najbardziej oczywistym (biorąc pod uwagę pobory tych kart) - że jakby przeciętny Kowalski zobaczył temperaturę hotspotu, to byłby bliski zawału :pomocy: .

Przeciętny Kowalski nie zawraca sobie tym głowy tylko gra:)

Opublikowano

No ja tam się czuję wyruchany  :-)

Staram się przesiadać na ~ 100 % wydajności więcej jak 1080ti na 3090 ale w czystej rasteryzacji a nie czary mary mfg.

No i też chciałbym.wiej ramu niż 16GB bo gram w 7680x1440 ale na szczescie w tytuły które daja rade w 100+fps.

Nawet teoretycznej 5080 20GB nie biorę pod uwagę.

Czekam na nowy proces.

  • Like 2
Opublikowano
26 minut temu, Roman_PCMR napisał(a):

Czyli wlasciwie generacja do olania. Posiadacze serii 40xx smialo moga sobie odpuscic.

 

Jak z seria 30xx? Ktos ma i planuje kupic 50xx?

No to zmiana nicku, bo PCMR nie jesteś. :hihot:

 

4 minuty temu, m@rcinpl napisał(a):

No ja tam się czuję wyruchany  :-)

Staram się przesiadać na ~ 100 % wydajności więcej jak 1080ti na 3090 ale w czystej rasteryzacji a nie czary mary mfg.

No i też chciałbym.wiej ramu niż 16GB bo gram w 7680x1440 ale na szczescie w tytuły które daja rade w 100+fps.

Nawet teoretycznej 5080 20GB nie biorę pod uwagę.

Czekam na nowy proces.

RTX 4090, RTX 5090, albo hold. ;D

  • Like 1
  • Haha 1
Opublikowano
Godzinę temu, Roman_PCMR napisał(a):

Czyli wlasciwie generacja do olania. Posiadacze serii 40xx smialo moga sobie odpuscic.

 

Jak z seria 30xx? Ktos ma i planuje kupic 50xx?

Mam 3070 i myślałem o 5070ti ale teraz żałuję że nie kupiłem 4080 super za 4tys jak miałem okazję. Niestety posłuchałem "specjalistów" którzy mówili że niedługo premiera nowych kart więc warto się wstrzymać z zakupem.

  • Sad 1
  • Upvote 1
Opublikowano
22 minuty temu, sk09372 napisał(a):

Niestety posłuchałem "specjalistów" którzy mówili że niedługo premiera nowych kart więc warto się wstrzymać z zakupem.

Eksperci z Peppera zawsze radzą żeby czekać, kiedy byś nie chciał kupić, więc ich opinią nie ma co zawracać sobie głowy. 

  • Upvote 2

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...