Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano

Mnie właśnie ciekawi jak 5090 będzie się skalował w dół. 4090 jak nie trzeba było jej dociskać to z lokiem na FPS, przy zegarze 2550MHz, potrafiła genialnie zjechać z poborem mocy, będąc przy tym dalej maga wydajną.

Opublikowano (edytowane)

No lipa, ale może nie będzie, aż tak źle z wydajnością, aby musieli pałować 600W na stock. Max 550 :E Może 520.

 

W sumie jak będą musieli dać 600W stock dla tych kilku % na słupkach to będzie tragedia :E

Edytowane przez lukadd
Opublikowano
7 minut temu, sideband napisał(a):

Zakładając to samo skalowanie i teoretyczne 600W po max UV zlecisz do poziomu 4090 bez UV :E

Żona właśnie kupuje sobie suszarkę do prania, będzie na co zgonić z wyższymi rachunkami za prąd :E

Opublikowano (edytowane)

Obecnie nvidia tak fajnie pocięła karciochy, że w zasadzie to według przeciekowego specu taki 5070 12GB to ląduje do low endu razem z 5060 :E 5070Ti i 5080 to najwyżej mid-end. I następnie jedna wielka przepaść do high endowej 5090.

Edytowane przez lukadd
  • Upvote 2
Opublikowano (edytowane)
8 godzin temu, SmogSmok napisał(a):

Dzieje się tak bo producenci żydzą na pamięci od dobrych kilku lat. 

1060 6GB 2016

5060 8GB 2025 

 

Tak naprawdę 5060 to nie klasa 60 tylko jakiś odpad 5050 non Ti, tak samo jak 4060. Możemy za to podziękować AMD, które wywiesiło białą flagę.   

 

 

4 godziny temu, Spl97 napisał(a):

Wcześniej przez wiele lat nie miało to jakiegoś wielkiego znaczenia, ile dane GPU ma Vramu, bardziej się liczyła przy wyborze GPU surowa wydajność. Teraz to się zmieniło, teraz na pierwszym miejscu stało się ile dane GPU ma Vramu. Dlaczego się to zmieniło? Game dev-y robią od stosunkowo jeszcze niedawna gry wręcz łase na Vram, nawet jeśli się gra na rozdzielczości 1080p, nie wspominając o tym, że na premierę wypuszczają bardzo niedopracowane gry pod kątem optymalizacji w celu zaoszczędzenia kosztów i maksymalizacji zysków (optymalizacja gier to również są koszta :E). Przeglądając testy ostatnich gier jakie wychodziły, to wysuwa się wręcz jeden wniosek, czas kart z 8 GB Vram powoli dobiega końca, a karty z 8 GB Vram są od 2015-2016 roku, kontynuowane również w latach 2018, 2020 itd. jak RTX-y 2070, 2080, 3060 Ti, 3070 etc. 8 GB Vram jeszcze wystarcza do 1080p High, ale za chwilę wystarczyć będzie tylko do 1080p Low :E, a później już wcale xD.

misie kolorowe - chodzilo tylko i wylacznie o to, ze gimbaza dopytywala o ilosc ramu, a nie wydajnosc :) im imponowalo jak karta miala x2 pojemnosc, na szynie 64bit i wolniejszy DDR3 :E

Edytowane przez ryba
  • Like 1
Opublikowano
5 minut temu, Spychcio napisał(a):

5080 już totalnie zakopany... wszystkiego mniej o połowę od 5090 a teraz jeszcze szybkość pamięci przycieli z 32Gbps na 30Gbps:E

Ta karta to największy przegrany serii 5000.

Ale za to nie będzie problemu z kupnem na premieręxD

Opublikowano
2 minuty temu, Phoenix. napisał(a):

Wszystko rozejdzie sie o cene, jesli dadza taka jak na premiere 480 to slabo ale jesli dadza cene 4080S to spiewka bedzie inna ;)

Wątpię, żeby podstawową 5080 zaserwowali za 1000$.

Opublikowano
1 minutę temu, Phoenix. napisał(a):

Wszystko rozejdzie sie o cene, jesli dadza taka jak na premiere 480 to slabo ale jesli dadza cene 4080S to spiewka bedzie inna ;)

Tutaj jak najbardziej przyznaje Ci rację. Gdyby za tego wykastrowanego 5080 zawołali 4900zł to sam bym się zastanawiał czy zamiast 5070Ti nie brać właśnie 5080.

Opublikowano

Im bliżej do premiery tym mam większe przekonanie że moja 4080S tak prędko nie pójdzie na olx.

5090 sobie odpuszczam, aż takim entuzjastą nie jestem żeby wywalić naście K do okazjonalnego grania a 5080 zapowiada się tragicznie. Poniżej nie ma sensu schodzić z 4080 w budzie.

Zresztą mam podobne odczucia z wymianą 5800X3d na 9800X3d, dopłata co najmniej 4K a efekt w 4K niewielki ( wiem wiem, są gry gdzie jest większy ), myślałem że lepiej będzie wymienić GPU.

Wygląda na to że na razie pas z upgradem.

  • Like 3
Opublikowano
17 minut temu, Spl97 napisał(a):

Wątpię, żeby podstawową 5080 zaserwowali za 1000$.

To bedzie zalezec od tego czy ten gen ma co pokazac bo jesli pompuja waty to dobrze to nie wrozy ale moze oznaczac, ze beda kusic cena jakkolwiek to brzmi :D

Opublikowano
52 minuty temu, PiPoLiNiO napisał(a):

Te 500W jak już kiedyś pisałem jestem w stanie zaakceptować. I nie chodzi o rachunki, a fakt, że będzie gorąco albo głośno. Chyba, że 5090 będzie miała jeszcze większe, 3kg chłodzenie :D

Jak dadzą 3 kg chłodzenie, to od strony karty może i nie będzie głośno, ale to ciepło trzeba jeszcze wywalić z obudowy i wentylatory obudowy będą miały co robić.

Opublikowano

heh ;)

"What Inno3D mentions in the press release is that we will see both “Advanced DLSS Technology,” possibly referring to next-gen DLSS (4?), “Enhanced Ray Tracing”, and something that caught attention: “Neural Rendering Capabilities,” which is said to revolutionize how cards process and display graphics."

  • Haha 1
Opublikowano (edytowane)
16 minut temu, areczek1987 napisał(a):

 

 

O prosze trzeci raz wrzucane, moze teraz niech ktos to jeszcze kilka razy wrzuci bo przeciez trzy to za malo :hahaha:

4 minuty temu, Roman_PCMR napisał(a):

Wychodzi na to ze ci co kupili 4090 wygrali 'zycie' na loterii ;) 

Do czasu wyjscia 5090 :lol2: A pozniej bedzie tylko tak z tym 4090 :Crash:

Edytowane przez Phoenix.
  • Confused 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
    • Nie, ale już z chyba trwają jakieś prace na serwerach przygotowujące do wydania wersji 0.6 więc to już blisko
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...