Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
28 minut temu, Spychcio napisał(a):

Więc każda redakcja, youtuber, którzy chcą się liczyć muszą mieć ten zestaw. 

Również wiadomo, dlaczego na rok 2025 do testowania kart graficznych biorą 9800X3D. Jak 9800X3D z RTX 5090 nie da rady, będąc dla 5090 wąskim gardłem, to każdy inny CPU z 5090 także nie poradzi :E.

Opublikowano (edytowane)

Osobiście bardziej się liczy to, co wypluje się w 1440p czy w 1080p niż w 4k, gdzie 4k to nadal rynkowy margines. Może w 4k jeszcze ten 9800X3D jakoś wykarmi odpowiednio 5090, skoro był chyba jako jedyny lub jeden z nielicznych CPU na rynku w stanie wykarmić należycie 4090.

Edytowane przez Spl97
Opublikowano
2 minuty temu, Reddzik napisał(a):

Niektórzy lubią oszczędzać, kupi grafę to potem nie starczy na "waciki" i nawet piraci gry xD

Kto chce to da radę, niech 5090 kosztuje 12 000zł. Ktoś pójdzie do takiego elektromarketu i kupi w 24 ratach 0% czyli 500zł miesięcznie i nie musi nawet wywalać na jeden strzał tych 12 000zł.

 

Podałem 24 raty bo to 2 lata... a co tyle średnio mamy nową generację GPU.

 

Warto też dodać, że takie GPU mógłby wtedy jeszcze sprzedać za połowę ceny początkowej.

 

Całe szczęście ja celuje w 5070Ti i nie mam takich problemów:)

  • Upvote 1
Opublikowano
7 minut temu, PiPoLiNiO napisał(a):

Spokojnie, zaraz 9950X3D. Jak będzie miał faktycznie 5.7GHz na 3D, to będzie jeszcze lepszy wykarmiacz 😁😁😁😁😁

Na zagranicznych stronach czytałem już, że te 5,7GHz będzie dotyczyło normalnych 8 rdzeni a te 8 z X3D będzie miało 5,2-5,3Gzhz, czyli praktycznie bez różnicy w stosunku do 9800X3D... Dodatkowo przy różnych rdzeniach znów pojawią się problemy z alokacją w trakcie grania.

 

Dlatego jak ktoś tylko gra to najlepszą opcją będzie 9800X3D a dla tych co pracują i grają to właśnie 9950X3D, ale takie rozwiązanie ma już niestety wady. 

Opublikowano
30 minut temu, Spl97 napisał(a):

Również wiadomo, dlaczego na rok 2025 do testowania kart graficznych biorą 9800X3D. Jak 9800X3D z RTX 5090 nie da rady, będąc dla 5090 wąskim gardłem, to każdy inny CPU z 5090 także nie poradzi :E.

G E N I A L N E !

 

Spoiler

 

 

Opublikowano
Godzinę temu, Spychcio napisał(a):

9800X3D nie powien ograniczać 5090 bo to GPU do 4K/8K... chyba, że jakiś geniusz kupi tą kartę do 1440p:E lub 1080pxD

Przecież jak włączysz DLSS w 4K to renderujesz dokładnie albo w 1440p albo 1080p :hihot:

Opublikowano
4 godziny temu, Roman_PCMR napisał(a):

Licze na KCD2 ze pokaze pazur.

 

Myslisz. To nowy procek tez bedzie grany...jak procek to i mobo. I jeszcze nowe PSU pewnie :E 

Nic nie pokaże bo to CE. Graficznie bez większych zmian i podcięli grę żeby nie mordowała CPU.

Opublikowano
9 minut temu, sideband napisał(a):

Nic nie pokaże bo to CE. Graficznie bez większych zmian i podcięli grę żeby nie mordowała CPU.

e

E tam. Ladnie to wyglada :)

Moze nie jest to poziom CP77 czy Plague Requiem ale licze ze pokaze pazur w paru scenach.

 

Swoja droga kazdy kto ma mocne gpu polecam zagrac na maksymalnych detalach w Plague Requiem, piekna grafika. Moja top 3 napewno.

Inna sprawa ze na Xboxie Series X ta gra wyglada jak kupa

 

 

 

Opublikowano
Teraz, Roman_PCMR napisał(a):

e

E tam. Ladnie to wyglada :)

Moze nie jest to poziom CP77 czy Plague Requiem ale licze ze pokaze pazur w paru scenach.

 

Swoja droga kazdy kto ma mocne gpu polecam zagrac na maksymalnych detalach w Plague Requiem, piekna grafika. Moja top 3 napewno.

Inna sprawa ze na Xboxie Series X ta gra wyglada jak kupa

 

 

 

Odpal jedynkę wygląda inaczej? Wiesz, że KCD 2 działa dobrze na 3050.

Opublikowano
36 minut temu, Special-1 napisał(a):

Przejmować się tym pcie 4.0x16? Pytam z ciekawości po prostu.    

Nie specjalnie, jak prym wiodło i do dzisiaj wiedzie PCIe 4.0x16, to karty nie były w stanie w pełni wykorzystać PCIe 3.0x16, dopiero na 2.0x16 zdarzyły się większe spadki wydajności niż kilka %.

Opublikowano (edytowane)
1 godzinę temu, Spychcio napisał(a):

9800X3D nie powien ograniczać 5090 bo to GPU do 4K/8K... chyba, że jakiś geniusz kupi tą kartę do 1440p:E lub 1080pxD

Przecież już w tym wątku byli tacy geniusze co do 2K zapowiadali, że kupują 5090.
Nie zdziwię się jak jakiś mundry też kupi do esportu co by popierdzielać w 720p z pierdyliardonem klatek bo mu o 0,0000000000000000001 mikrosekundy szybciej zobaczy jak przeciwnik wyciąga tyłka nóż w CSie :hahaha:

45 minut temu, Special-1 napisał(a):

Ile posiadacz rtx5090 może stracić wydajności jeśli zamontuje ją na chipsecie B650? Przejmować się tym pcie 4.0x16? Pytam z ciekawości po prostu.    

Przymierzasz się do wydania 15 kafli na grafikę, a rzymianisz kilka stów więcej na mobo? :hmm:

Edytowane przez Umpero
Opublikowano
22 minuty temu, galakty napisał(a):

Nope, zużywa więcej zasobów, w tym VRAM.

Nope ?

Znaczy ze nie renderujesz w 2K czy 2,5K ?

Oczywiście, że renderujesz, lekko tracisz na wydajności przez to ze karta musi zrobić jeszcze trochę obliczeń względem DLSS, ale nie zmienia to faktu ze wydajność jest zbliżona do 2K/2,5K bez DLSS.

 

A ze nawet 4090 ostatnio bez DLSS to może co najwyżej renderować pasjansa to nie liczcie, że z 5090 magicznie się to zmieni. :E

 

Zapiszcie to sobie gdzieś i przyklejcie do monitora, uruchomienie DLSS obniża wam rozdzielczość renderowania i to znacznie.
Nie renderujecie już wtedy w 4K, wyświetlacie tylko obraz w 4K który jest renderowany ze znacznie niższej rozdzielczości (w najlepszym wypadku jest to 2,5K).

  • Like 1
Gość P.Wiśnia
Opublikowano (edytowane)

Jakby ktoś jeszcze nie widział, przedpremierowego oficjalnego leaku od inno3d.

Swoją drogą asus zdradził to samo, tylko że jeszcze znalazły się tam informacje na temat nowego DLSS który zwiększy ilość klatek o 50% w porównaniu do DLSS 3.

MSI też zaliczyło wpadkę, dodając już RTX 50 do katalogu i wyszukiwarki na stronie, o twitterze msi ukraina nie wspomnę ;) 

 

image.png.123c4bf46bf513af40f74b9541d7e95c.png

Edytowane przez P.Wiśnia
Opublikowano
25 minut temu, Kadajo napisał(a):

Nope ?

Znaczy ze nie renderujesz w 2K czy 2,5K ?

Oczywiście, że renderujesz, lekko tracisz na wydajności przez to ze karta musi zrobić jeszcze trochę obliczeń względem DLSS, ale nie zmienia to faktu ze wydajność jest zbliżona do 2K/2,5K bez DLSS.

Może źle ubrałem, ogólnie rzecz biorąc tak, ale przy VRAM niekoniecznie to musi oznaczać, że gra będzie wymagać mniej. Może brać 12GB przy 1440p i 4K DLSS ;) 

  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...