Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)
10 godzin temu, Totek napisał(a):

To zależy co AMD ugotuje. Jak im UDNA wyjdzie to Jensen tak skroi chipy że będą 5-10% wydajniejsze w danej kategorii. Jeśli będzie klapą do dostaniemy 6070 o wydajności -5% 5080 i chip wielkości paznokcia palca serdecznego, od Jensena z dedykacją dla graczy:fuck:

To samo ludzie gadali z "wait for Navi" i ostatnio z serią 9xxx. Mieli się skupić na tańszym segmencie i ostro uderzyć wyższą opłatalnością...

a Potem 9070 i 9070xt okazały się być o 1/3 droższe niż ludzie mieli nadzieję, że będą. 

 

Nawet jeśli AMD coś dobrego wypuści, to NV może po prostu to zignorować, albo nie chcieć zajmować się tym rynkiem, dopóki AI daje im wielokrotnie wyższe zyski. 

 

I co do samej UDNA - ciągle powtarzanie, że AI, AI i AI, że era rasteru się skończyła itd. Bardzo wątpię, żeby w rastarze ta architektura błyszczała, skoro jej celem powstania było RT i AI. Wręcz przeciwnie. Obawiam się potężnego rozczarowania. Te plotki o zaledwie +20% w rasterze, a 100% w RT i sporo w AI, wydają mi się wiarygodne. Załóżmy, że 10% z tego to proces. 10% można podnieść wydajność podbijając TDP i zegary. Jak na niemal "całkowicie nową architekturę" to jest porażka.

 

8 godzin temu, sideband napisał(a):

Tak naprawdę to AMD boi się ryzyka dlatego przy takim podejściu oni nigdy nie pokonają NV ;) AMD to dopiero zaczyna powoli odrabiać lekcje zwane FG/FSR/RT/PT tylko dlatego, że nie mają innego wyjścia.

 

Kij wie co oni tam wymyślą, skoro nawet wersję kart 7xxx z większym cache wywalili, bo "tak drogich kart nikt nie kupi" i to akurat gdy ten sam rynek NV wybadała z konkluzją "owszem, można sprzedawać 4070tkę za 1200$ a 4080ti za 1600$".

 

Skoro oni się "bali" wydać GPU które mieli już niemal gotowe (7900 z 256MB cache) to o czym tu gadać.

 

Oni w ogóle się chyba boją swoje karty sprzedawać, bo to co robią od końca 2024r. "to się w pale nie mieści"

Zacznę być optymistą jak się dowiem, że w zarządzie AMD zaszły potężne zmiany i/lub cały dział marketingu i strategii dla konsumenckich GPU został zwolniony i zastąpiony nowymi ludźmi. Do tego czasu spodziewam się, że AMD nie zechce być jakąkolwiek konkurencją tak jak nie chce być nią teraz. I zakładam, że NV nie tylko z tego skorzysta, ale sama też oleje graczy, bo po co, skoro i tak według korpokrawaciarzy "gaming is dead" i przyszłość to cloud gaming. 

Cloud gaming to serwerownie, a klienci to firmy stawiające takie serwerownie.

A ci jak już je stawiają, to wolą postawić pod AI. 

No i weź tu bądź optymistą.

 

Na raster 5090tki za 4000zł poczekamy dłuuuuugo.

Edytowane przez VRman
Opublikowano
9 godzin temu, sideband napisał(a):

NV to robi swoje i nie patrzy co AMD robi dlatego 7900XTX nie mogła w żaden sposób konkurować z 4090, a NV już miała ewentualnie odpowiedź tylko nie było takiej potrzeby;)

Tak naprawdę to AMD boi się ryzyka dlatego przy takim podejściu oni nigdy nie pokonają NV ;) AMD to dopiero zaczyna powoli odrabiać lekcje zwane FG/FSR/RT/PT tylko dlatego, że nie mają innego wyjścia.

 

w RT i PT 9070XT nawiązało walke dopiero z 3090TI. Fakt ze majac przy tym ~100W nizsze TDP.  Ale nawet jak przyśpieszą swoje karty o 50% to nastepna seria dalej nie bedzie w stanie konkurowac z 4090, no chyba że TDP spadnie z 350w na 200, w co oczywisice watpie.

Opublikowano (edytowane)

Jestem ciekaw jaki absurd wyjdzie z rtx5050...  Gdyby to była wydajność rtx4060, ale z większą przepustowością i nadal 115w to byłoby kijowo, ale stabilnie...
Ale walnęli tam 130w i może być gorzej niz4060. :E Przepustowość może sprawiłaby, że w końcu osiągnęłoby lepszy wynik przy 115w niż rtx3070 :E 

Ehh, oczywiście nie zrobią karty 75w, ponieważ aby miała sensowną wydajność to musi mieć sporo nisko taktowanych rdzeni, a oni nabijają marżę, dając mało, ale wysoko taktowane. 

Edytowane przez musichunter1x
Opublikowano
Godzinę temu, galakty napisał(a):

A to nie jest dosyć normalne? W CPU masz podobnie, zegar trzyma, ale brakuje papu i benchmarki gorzej wychodzą.

Przekręcona karta albo zbyt agresywne UV, dlatego trzeba pilnować aby bazowy i efektywny nie różniły się pod obciążeniem więcej jak 20MHz.

Jeśli jest większa różnica to układ nie działa optymalnie.

Opublikowano (edytowane)

Apropo tych spadów wydajności.

 

A jak z pamięciami? Czasy dostępu, powtarzanie bo wystąpił błąd itp. 

Ktoś ma może wiedzę na ten temat we współczesnych GPU i pamięciach GDDR7?

Może coś ma z tym związek albo ma związek z zasilaniem kontrolera pamięci albo co? 

 

Ciekawe czy to też odgrywa jakąkolwiek rolę czy nie

Edytowane przez VRman
Opublikowano
28 minut temu, VRman napisał(a):

Apropo tych spadów wydajności.

 

A jak z pamięciami? Czasy dostępu, powtarzanie bo wystąpił błąd itp. 

Ktoś ma może wiedzę na ten temat we współczesnych GPU i pamięciach GDDR7?

Może coś ma z tym związek albo ma związek z zasilaniem kontrolera pamięci albo co? 

 

Ciekawe czy to też odgrywa jakąkolwiek rolę czy nie

Prawdopodobnie clock stretch.

Żadne tam efektywne zegary nie mają na to wpływu wystarczy obniżyć napięcie pomimo braku zmiany efektywnego zegara spada wydajność ;)

Opublikowano (edytowane)

Nie wrzucaj mi głupot z YT bo i tak nie będę tego oglądał.

Cyberpunk2077-2023-04-10-14-42-03-653.jp

 

Cyberpunk2077-2023-04-10-14-41-25-927.jp

W zależności od gry i miejsca 1-3% spada wydajność wydajność bez zmiany zegarów i bez zmiany magicznego zegara efektywnego. Przy takich różnicach to ludzie się gubią przez błędy pomiarowe.

Edytowane przez sideband
  • Upvote 1
Opublikowano
12 minut temu, sideband napisał(a):

Nie wrzucaj mi głupot z YT bo i tak nie będę tego oglądał.

W zależności od gry i miejsca 1-3% spada wydajność wydajność bez zmiany zegarów i bez zmiany magicznego zegara efektywnego. Przy takich różnicach to ludzie się gubią przez błędy pomiarowe.

Ale efektywny wpływa na wydajnosc tak czy siak. Im będzie bliżej bazowego tym lepiej.

Opublikowano

Jak mocy brakuje to leci zegar, a czy 3% poświecenia to dużo czy nie to już kwestia sporna.
Biorąc pod uwagę jakie my dziś mamy gówniane przyrosty generacyjne to ja bym nie gardził każdym % i wykorzystał bym maksymalnie chłodzenie.

 

Tak naprawdę to przecież nie martwi nas ilość Watow tylko jak gorące i głośne zaczyna się robić nasze GPU. Gówniane złączę zasilania na chwile pomijam :D 

Opublikowano
4 godziny temu, galakty napisał(a):

A to nie jest dosyć normalne? W CPU masz podobnie, zegar trzyma, ale brakuje papu i benchmarki gorzej wychodzą.

Niby tak ale na kartach takiego zachowania nie widziałem jeszcze ;) 

Opublikowano (edytowane)
16 minut temu, galakty napisał(a):

Jeśli AI ma iść w kierunku automatycznych lektorów jak na filmie powyżej (tylko wtyczki to pomijają ale na forum nie działa) to niech lepiej upadnie... 


Co Ty za jakies teorie spiskowe dorabiasz...masz video z przed ponad 4 lat z roku 2021 



image.png.cb345b41e9d46c30253c95e775f75e46.png

Edytowane przez maxmaster027
Opublikowano
13 minut temu, Send1N napisał(a):

Niby tak ale na kartach takiego zachowania nie widziałem jeszcze ;) 

To występuje rzadko prędzej będziesz miał niestabilność niż spadek wydajności.

ADA to pierwsze generacje by od tak spadała wydajność również w syntetykach i mikro benchmarkach po obniżeniu napięcia.

  • Thanks 1
  • Upvote 1
Opublikowano
2 godziny temu, Kadajo napisał(a):

Tak naprawdę to przecież nie martwi nas ilość Watow tylko jak gorące i głośne zaczyna się robić nasze GPU.

Przecież wszędzie był kwik od premiery, że 5090 tyle prądu ciągnie i tylko UV nas uratuje ;D

 

Tu podejście się zmienia zależnie od tego kto jaką kartę posiada. Przy tych słabszych żyłowanie o każdą klatkę może ma jakiś sens. Dla mnie i pewnie większości użytkowników "90" OC daje gówniany przyrost na poziomie kilku klatek a zwiększa pobór, temperatury i hałas, więc logiki w tym żadnej. Cała skrzynka dobija wtedy do 800W. Myślę, że sam zmieniłbyś zdanie jakbyś poużywał.

Wyniki w nomadzie na forum też kręciłem na UV+OC podobnie jak reszta. 

 

Nie becze też o waty czy stopnie, bo mam fotowoltaike i klimę, więc teoretycznie koło dupy mi to lata :D

 

  • Upvote 1
Opublikowano

Dlatego ja nigdy nie idę w topki ;)

Za ciężko to schłodzić powietrzem i mieć cisze  :)

 

Masz spory zapas mocy to ci lata wszytko, ale znaczka PCMR nie dostaniesz. ;D

Sama karta to za mało aby być PCMR VIP :E

A na lato to trzeba ustawić profil wszytko na LOW :E

 

  • Haha 2
Opublikowano
27 minut temu, Kanzu napisał(a):

Dla mnie i pewnie większości użytkowników "90" OC daje gówniany przyrost na poziomie kilku klatek a zwiększa pobór, temperatury i hałas, więc logiki w tym żadnej.

Chłopaki na OCN mają inne podejście. Zaopatrzyli się e te "rezystory" czy jakoś tak i idą pod korek 800-1200W :)

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
    • Nie, ale już z chyba trwają jakieś prace na serwerach przygotowujące do wydania wersji 0.6 więc to już blisko
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...