Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
28 minut temu, ryba napisał(a):

Ja nie wiem co masz w glowie, ale najprawdopodobniej to Ty pytales o to samo ze 1-2 miesiac temu (mogl byc ktos inny). Nie ma takiej opcji, zeby az tak mocno cena zleciala. Od premiery sie unormowalo, dolar zlecial i to tyle. A jak sie potwierdzi, ze nV ograniczy zamowienia na RTX dla plebsu, to bedzie drozej, a nie taniej :E

Jakoś z 4090 tak było.

Opublikowano
21 minut temu, SylwesterI. napisał(a):

NVIDIA steruje dostępnością chipów i bierze działkę od każdej sprzedanej sztuki, wypracowała metodę jak podbić ceny bez podnoszenia MSRP.

nV bierze kase za wyprodukowane karty, a nie sprzedane ;) (to tez nie jest precyzyjne okreslenie, ale blizsze prawdy)

 

7 minut temu, ODIN85 napisał(a):

Jakoś z 4090 tak było.

To teraz grzecznie idz sprawdzic daty kiedy to bylo, ile od premiery i jaka byla sytuacja na rynku, zamiast glupio pytac i sie spierac, ze miesiac temu padalo, to jutro tez bedzie.

  • Thanks 1
Opublikowano
Godzinę temu, Lameismyname napisał(a):

Nvidia zła, AMD złe, Intel jeszcze gorszy. Trzeba się przestawić na gry planszowe, a jak ktoś jest miłośnikiem strzelanek, to na strzelnicę i dziurawić papier. Taki mamy klimat ;) 

oo to ja idę na miasto w GTA "pograć"

Give me USA tank!

  • Haha 1
Opublikowano (edytowane)
10 minut temu, SylwesterI. napisał(a):

nvidia bierze kasę za sprzedane chipy.

Taki byl ukryty sens mojego postu. Ale ze to wielkie korporacje, wielkie stocki - to tu rozliczenia nie ida na zasadzie sprzedazy bulek w piekarni, placisz pozniej. Plus rozliczenia rozlozone w czasie (cos na zasadzie rozliczen sklepow z vendorami, doplaty, promocje, akcje marketingowe, wahania cenowe, itd.)

Edytowane przez ryba
Opublikowano
17 godzin temu, Fenrir_14 napisał(a):

Ja tam jestem mega zadowolony z 5090. Karta idealnie się uzupełnia w 4K ze 120Hz OLED'em od LG.

Otóż to. Tam gdzie brakuje klatek na 4090 w bardziej wymagajacych tytulach w 4K to 5090 je dobrze uzupelnia, a ze nie brakowalo ich duzo to moc 5090 okazala sie wystarczajaca, zeby byc mega zadowolonym i usatysfakcjonowanym. Dla mnie 5090 ma jak najbardziej sens.

  • Upvote 2
Opublikowano

Przecież wiadomo, że tu tylko o kasę chodzi. Tak samo niska dostępność premierowa 5090. Woleli klepać chipy pod AI niż jakieś dla graczy do gierek za marne ~15k pln premierowo w sklepach :E To jest biznes, nie ma czułości.

  • Like 1
Opublikowano

Obejrzyjcie ten test do końca, tam są wyniki bez mfg i to jest prawdziwy rtx 5090.

w serii 4000 nvidia zrobiła to samo do poziomu rtx 4080, gdzie podbiła mu cenę, a jednocześnie przechrzciła rtx 4070 na rtx 4080, w serii 5000 to 5090 ma podbitą cenę i tak naprawdę jest to 5080 sprzedawany jako topka, obecny 5080, czyli tak naprawdę rtx 5070 jest tuż pod 4090, czyli tak jak to bywało wcześniej 

Opublikowano
10 minut temu, SylwesterI. napisał(a):

w serii 5000 to 5090 ma podbitą cenę i tak naprawdę jest to 5080

5080 z 750 mm2 GPU produkowanym w bardzo drogim procesie? Niezły towar wleciał widzę %-)

Problemem jest zupełnie co innego. Problemem jest to, że 5080 i niższe są za bardzo pocięte względem topu (to samo było w serii RTX 40).

  • Upvote 2

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
    • Nie, ale już z chyba trwają jakieś prace na serwerach przygotowujące do wydania wersji 0.6 więc to już blisko
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...