Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
27 minut temu, Phoenix. napisał(a):

To ludzie sami siebie cisna, a nie nvidia, wmawiajac sobie, ze 5090 to jedyny sluszny wybor ;)

No a nie? Wystarczy policzyć jakie % rdzenia obcinała nvidia w czasach GTX 400 i 500, a jakie teraz. Skoro 5080 to będzie <50% rdzenia 5090, to on w czasach serii 400 zasługiwałby nawet nie na nazwę 460 (bo on miał 70% rdzenia 480) a na nazwę GTS 450, który miał 40% rdzenia. A od 40% bliżej do 50% niż z 70%.

 

Po prostu - chcesz mieć realny wzrost wydajności to musisz kupić top.

Opublikowano (edytowane)

Ja nie pisze o procentach rdzenia tylko o tym, ze gdyby ten 5090 mial 3x wiecej rdzeni niz 5080 to i tak bym go nie kupil. To ludzie sobie robia nagonke, ze nic ponizej sie nie oplaca ;)

Jak kupowalem 4080 za 6k, a 4090 byl 2,5k drozej to ta magiczna wydajnosc 4090 nagle nie sprawila ze mialem chec kupic 4090. Jesli ktos celuje tylko w top i celuje w absolutna wydajnosc na rynku to jemu bez roznicy bo i tak kupi co najdrozsze. Ale przeciez kupno przeze mnie wtedy 4090 nagle nie sprawiloby, ze zaoszczedze tylko wydam wiecej :cool:

To ludzie robie siebie w balona myslac, ze kupia cos drozej nagle pozornie cos zaoszczedza a tak naprawde wydadza wiecej.

Edytowane przez Phoenix.
  • Upvote 1
Opublikowano (edytowane)

Oczywiście, że tak. Mamy jakaś "cechę narodową", że wszystko kalkulujemy, jak labo analityk. Rdzenie, ich % jakieś kosmiczne stosunki vatów na fps,  itd. i powstaje analityczne szaleństwo. A każda branża tak robi (tnie, modyfikuje, dyma usera!). Czy ktoś liczy w % przyrosty, straty, jakieś kosmiczne relacje przy silniku spalinowym i zakupie auta? Czy mu się zgadza pojemność vs moc vs spalanie vs wytrzymałość w tysiącach km, itd itd? Nie. Dostajemy motor 1,2l, wielkości pudełka do butów, o mocy 100KM, który rozsypuje się po 70K/km. 

Takie czasy. Godzisz się na coś i kupujesz, albo nie.
Czasy "opłacalności" i "korzystnych" przyrostów to historia. 

Edytowane przez JeRRyF3D
Opublikowano
24 minuty temu, Phoenix. napisał(a):

Ja nie pisze o procentach rdzenia tylko o tym, ze gdyby ten 5090 mial 3x wiecej rdzeni niz 5080 to i tak bym go nie kupil. To ludzie sobie robia nagonke, ze nic ponizej sie nie oplaca ;)

Jak kupowalem 4080 za 6k, a 4090 byl 2,5k drozej to ta magiczna wydajnosc 4090 nagle nie sprawila ze mialem chec kupic 4090. Jesli ktos celuje tylko w top i celuje w absolutna wydajnosc na rynku to jemu bez roznicy bo i tak kupi co najdrozsze. Ale przeciez kupno przeze mnie wtedy 4090 nagle nie sprawiloby, ze zaoszczedze tylko wydam wiecej :cool:

To ludzie robie siebie w balona myslac, ze kupia cos drozej nagle pozornie cos zaoszczedza a tak naprawde wydadza wiecej.

Jak dla mnie głównie liczy się % do tego co mam obecnie w budzie no i cena oczywiście

  • Upvote 1
Opublikowano (edytowane)
4 godziny temu, Tornado3 napisał(a):

Najlepszy był niejaki minciu. Pluł jadem najbardziej na 4080 a jak doszło do premiery to pierwszy leciał do sklepu.  

Kupił dopiero jak ceny spadły, na premierę nie miał 4080 :). Rtx4080 to fajna karta była, tylko źle wyceniona na starcie. 

Edytowane przez NoviAMG
  • Upvote 1
Opublikowano

A tak z innej czapy, to wiadomo, czy 5060/5060 Ti będą miały 8-pinowe zasilanie? Zastanawiam się nad wymianą GTXa 1050 Ti w drugim PC, który do tej pory śmiga z i7-8700k (kupiony "na chwilę", żeby w przyszłości wymienić na coś lepszego i tak już trwa ta "chwila" jakieś 6 lat %-)). W LoLu/Fortnite obecna karta nadal daje radę na 100+ fpsach, ale przydałoby się jednak trochę odświeżyć sprzęt pod nowsze tytuły takie jak D4/PoE2. Na początku myślałem o pójściu w używanego RTXa 3060, ale jak zobaczyłem po ile chodzą używki, to chyba wolę wziąć sobie coś nowego na fakturę + mieć gwarancję, która w obecnych czasach coraz częściej się przydaje...

Opublikowano

Wiadomo kiedy karty wylądują w sklepach? Bo premiera premierą, ale potem trzeba poczekać aż karty będą dostępne do zakupu. Czekam na dostawę Gamerock 4080S i coś czuję, że zostanę z tą kartą na dłużej, zanim wejdzie seria 5xxx.

Opublikowano
2 minuty temu, Nirius napisał(a):

A tak z innej czapy, to wiadomo, czy 5060/5060 Ti będą miały 8-pinowe zasilanie? Zastanawiam się nad wymianą GTXa 1050 Ti w drugim PC, który do tej pory śmiga z i7-8700k (kupiony "na chwilę", żeby w przyszłości wymienić na coś lepszego i tak już trwa ta "chwila" jakieś 6 lat %-)). W LoLu/Fortnite obecna karta nadal daje radę na 100+ fpsach, ale przydałoby się jednak trochę odświeżyć sprzęt pod nowsze tytuły takie jak D4/PoE2. Na początku myślałem o pójściu w używanego RTXa 3060, ale jak zobaczyłem po ile chodzą używki, to chyba wolę wziąć sobie coś nowego na fakturę + mieć gwarancję, która w obecnych czasach coraz częściej się przydaje...

Nvidia już chyba porzuciła stare złącze zasilania, ale to ostatecznie chyba od producenta zależy.

 

1 minutę temu, King Arthas napisał(a):

Wiadomo kiedy karty wylądują w sklepach? Bo premiera premierą, ale potem trzeba poczekać aż karty będą dostępne do zakupu. Czekam na dostawę Gamerock 4080S i coś czuję, że zostanę z tą kartą na dłużej, zanim wejdzie seria 5xxx.

Styczeń, luty.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
    • Nie, ale już z chyba trwają jakieś prace na serwerach przygotowujące do wydania wersji 0.6 więc to już blisko
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...