Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
28 minut temu, Spychcio napisał(a):

Więc każda redakcja, youtuber, którzy chcą się liczyć muszą mieć ten zestaw. 

Również wiadomo, dlaczego na rok 2025 do testowania kart graficznych biorą 9800X3D. Jak 9800X3D z RTX 5090 nie da rady, będąc dla 5090 wąskim gardłem, to każdy inny CPU z 5090 także nie poradzi :E.

Opublikowano (edytowane)

Osobiście bardziej się liczy to, co wypluje się w 1440p czy w 1080p niż w 4k, gdzie 4k to nadal rynkowy margines. Może w 4k jeszcze ten 9800X3D jakoś wykarmi odpowiednio 5090, skoro był chyba jako jedyny lub jeden z nielicznych CPU na rynku w stanie wykarmić należycie 4090.

Edytowane przez Spl97
Opublikowano
2 minuty temu, Reddzik napisał(a):

Niektórzy lubią oszczędzać, kupi grafę to potem nie starczy na "waciki" i nawet piraci gry xD

Kto chce to da radę, niech 5090 kosztuje 12 000zł. Ktoś pójdzie do takiego elektromarketu i kupi w 24 ratach 0% czyli 500zł miesięcznie i nie musi nawet wywalać na jeden strzał tych 12 000zł.

 

Podałem 24 raty bo to 2 lata... a co tyle średnio mamy nową generację GPU.

 

Warto też dodać, że takie GPU mógłby wtedy jeszcze sprzedać za połowę ceny początkowej.

 

Całe szczęście ja celuje w 5070Ti i nie mam takich problemów:)

  • Upvote 1
Opublikowano
7 minut temu, PiPoLiNiO napisał(a):

Spokojnie, zaraz 9950X3D. Jak będzie miał faktycznie 5.7GHz na 3D, to będzie jeszcze lepszy wykarmiacz 😁😁😁😁😁

Na zagranicznych stronach czytałem już, że te 5,7GHz będzie dotyczyło normalnych 8 rdzeni a te 8 z X3D będzie miało 5,2-5,3Gzhz, czyli praktycznie bez różnicy w stosunku do 9800X3D... Dodatkowo przy różnych rdzeniach znów pojawią się problemy z alokacją w trakcie grania.

 

Dlatego jak ktoś tylko gra to najlepszą opcją będzie 9800X3D a dla tych co pracują i grają to właśnie 9950X3D, ale takie rozwiązanie ma już niestety wady. 

Opublikowano
30 minut temu, Spl97 napisał(a):

Również wiadomo, dlaczego na rok 2025 do testowania kart graficznych biorą 9800X3D. Jak 9800X3D z RTX 5090 nie da rady, będąc dla 5090 wąskim gardłem, to każdy inny CPU z 5090 także nie poradzi :E.

G E N I A L N E !

 

Spoiler

 

 

Opublikowano
Godzinę temu, Spychcio napisał(a):

9800X3D nie powien ograniczać 5090 bo to GPU do 4K/8K... chyba, że jakiś geniusz kupi tą kartę do 1440p:E lub 1080pxD

Przecież jak włączysz DLSS w 4K to renderujesz dokładnie albo w 1440p albo 1080p :hihot:

Opublikowano
4 godziny temu, Roman_PCMR napisał(a):

Licze na KCD2 ze pokaze pazur.

 

Myslisz. To nowy procek tez bedzie grany...jak procek to i mobo. I jeszcze nowe PSU pewnie :E 

Nic nie pokaże bo to CE. Graficznie bez większych zmian i podcięli grę żeby nie mordowała CPU.

Opublikowano
9 minut temu, sideband napisał(a):

Nic nie pokaże bo to CE. Graficznie bez większych zmian i podcięli grę żeby nie mordowała CPU.

e

E tam. Ladnie to wyglada :)

Moze nie jest to poziom CP77 czy Plague Requiem ale licze ze pokaze pazur w paru scenach.

 

Swoja droga kazdy kto ma mocne gpu polecam zagrac na maksymalnych detalach w Plague Requiem, piekna grafika. Moja top 3 napewno.

Inna sprawa ze na Xboxie Series X ta gra wyglada jak kupa

 

 

 

Opublikowano
Teraz, Roman_PCMR napisał(a):

e

E tam. Ladnie to wyglada :)

Moze nie jest to poziom CP77 czy Plague Requiem ale licze ze pokaze pazur w paru scenach.

 

Swoja droga kazdy kto ma mocne gpu polecam zagrac na maksymalnych detalach w Plague Requiem, piekna grafika. Moja top 3 napewno.

Inna sprawa ze na Xboxie Series X ta gra wyglada jak kupa

 

 

 

Odpal jedynkę wygląda inaczej? Wiesz, że KCD 2 działa dobrze na 3050.

Opublikowano
36 minut temu, Special-1 napisał(a):

Przejmować się tym pcie 4.0x16? Pytam z ciekawości po prostu.    

Nie specjalnie, jak prym wiodło i do dzisiaj wiedzie PCIe 4.0x16, to karty nie były w stanie w pełni wykorzystać PCIe 3.0x16, dopiero na 2.0x16 zdarzyły się większe spadki wydajności niż kilka %.

Opublikowano (edytowane)
1 godzinę temu, Spychcio napisał(a):

9800X3D nie powien ograniczać 5090 bo to GPU do 4K/8K... chyba, że jakiś geniusz kupi tą kartę do 1440p:E lub 1080pxD

Przecież już w tym wątku byli tacy geniusze co do 2K zapowiadali, że kupują 5090.
Nie zdziwię się jak jakiś mundry też kupi do esportu co by popierdzielać w 720p z pierdyliardonem klatek bo mu o 0,0000000000000000001 mikrosekundy szybciej zobaczy jak przeciwnik wyciąga tyłka nóż w CSie :hahaha:

45 minut temu, Special-1 napisał(a):

Ile posiadacz rtx5090 może stracić wydajności jeśli zamontuje ją na chipsecie B650? Przejmować się tym pcie 4.0x16? Pytam z ciekawości po prostu.    

Przymierzasz się do wydania 15 kafli na grafikę, a rzymianisz kilka stów więcej na mobo? :hmm:

Edytowane przez Umpero
Opublikowano
22 minuty temu, galakty napisał(a):

Nope, zużywa więcej zasobów, w tym VRAM.

Nope ?

Znaczy ze nie renderujesz w 2K czy 2,5K ?

Oczywiście, że renderujesz, lekko tracisz na wydajności przez to ze karta musi zrobić jeszcze trochę obliczeń względem DLSS, ale nie zmienia to faktu ze wydajność jest zbliżona do 2K/2,5K bez DLSS.

 

A ze nawet 4090 ostatnio bez DLSS to może co najwyżej renderować pasjansa to nie liczcie, że z 5090 magicznie się to zmieni. :E

 

Zapiszcie to sobie gdzieś i przyklejcie do monitora, uruchomienie DLSS obniża wam rozdzielczość renderowania i to znacznie.
Nie renderujecie już wtedy w 4K, wyświetlacie tylko obraz w 4K który jest renderowany ze znacznie niższej rozdzielczości (w najlepszym wypadku jest to 2,5K).

  • Like 1
Gość P.Wiśnia
Opublikowano (edytowane)

Jakby ktoś jeszcze nie widział, przedpremierowego oficjalnego leaku od inno3d.

Swoją drogą asus zdradził to samo, tylko że jeszcze znalazły się tam informacje na temat nowego DLSS który zwiększy ilość klatek o 50% w porównaniu do DLSS 3.

MSI też zaliczyło wpadkę, dodając już RTX 50 do katalogu i wyszukiwarki na stronie, o twitterze msi ukraina nie wspomnę ;) 

 

image.png.123c4bf46bf513af40f74b9541d7e95c.png

Edytowane przez P.Wiśnia
Opublikowano
25 minut temu, Kadajo napisał(a):

Nope ?

Znaczy ze nie renderujesz w 2K czy 2,5K ?

Oczywiście, że renderujesz, lekko tracisz na wydajności przez to ze karta musi zrobić jeszcze trochę obliczeń względem DLSS, ale nie zmienia to faktu ze wydajność jest zbliżona do 2K/2,5K bez DLSS.

Może źle ubrałem, ogólnie rzecz biorąc tak, ale przy VRAM niekoniecznie to musi oznaczać, że gra będzie wymagać mniej. Może brać 12GB przy 1440p i 4K DLSS ;) 

  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Grałem w to trochę jak wyszło, ale wydawanie tego w takiej formie w roku 2026r. - chyba kogoś tam optymizm poniósł
    • https://www.pepper.pl/promocje/monitor-oled-lg-ultragear-gx7-27-qhd-240hz-003ms-i-27gx704a-b-i-pelny-pivot-i-mozliwe-nawet-1657zl-w-opisie-1239657 
    • Wszystko powiedzą aby dopchać się do koryta i aby "rozliczyć" tych "złych" Może kiedyś ludzie się nauczą, że w PL jest więcej niż dwie opcje.
    • Teraz może być z tym słabo, ale poczekaj jak wyjdą nowe generacje szybsze o całe 10%, ale przypadkiem znacznie lepsze w tych Ajajach, to dopiero będzie NEXTGENOWY postęp.      PS. Trochę przesadziłeś chyba z tą stratą, ale, -38% nie wygląda normalnie. Nawet w te 33% które tam widać ciężko mi uwierzyć, ale 25% już by mnie nie dziwiło. Może coś tu zaburza pomiary przy MFG.
    • 125% jeszcze idzie przeżyć przy rozsądnych błędach, ale programowo można ograniczyć. W sumie muszę jeszcze raz przejrzeć monitory, bo wcześniej odrzucałem przez brak dobrego trybu srgb. Tylko 60hz nie ogarniał automat oraz sam czasem patrzę na 60hz to wrzuciłem obok 240hz z auto. Podano nawet konkretny rodzaj matrycy, więc możliwe że Samsung zezwolił im na sprzedaż, po latach od swoich implementacji.  Niby wspomina o CSOT SG3151B05-1 lub SG3151B05-3, gdzie dla Samsunga dodawane jest QD i zmieniają nazwę na CY-TY315BQ. W internecie wyskakują mi panele 1080p, ale AI wciska mi, że to numer wersji "szkła" i przez HVA pakują więcej pikseli, a że jest to werjsa custome to może nie być dostępne publicznie... Chyba nie może aż tak halucynować? A może jednak Ktoś musi wejść w menu serwisowe i potwierdzić teorię AI. Historia jest taka, że SG3151B05 to numer "szkła" na które mogą nanieść dowolną elektronikę, warstwy itd. Może AI coś wygrzebało spoza publicznych informacji lub zmyśla.  Edit. Przejrzę jutro oferty monitorów na HVA, bo ten po prostu znalazłem przypadkiem.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...