Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
6 minut temu, Fenrir_14 napisał(a):

Co to za gry?

Może trafi się jakaś niespodzianka typu Indiana :E

a tak to raczej nic. KCD2 trochę przyciśnie, ale to nic z czym by sobie 4090 nie poradziło. No i zobaczymy co z mafią będzie. Ale ta gra to całkowita niewiadoma.

  • Upvote 1
Opublikowano (edytowane)
12 minut temu, ODIN85 napisał(a):

Odpal Indianę albo Wukonga.

Wukonga przeszedlem konczac z licznikem na 100h. Gralem jeszcze w wersje premierowa i w 4K cinema, full PT + nvidia RTX HDR, ktory tez dodatkowo obciaza GPU z dlss Q+FG mialem 70-80 fps caly czas. Ostatnio zainstalowalem ponownie i tam fps jeszcze przybylo.

 

Indiana testowalem na razie w dzungli. 4K max, PT max i 75fps+ z dlss Q+FG. Wiem, ze tam pod koniec gry spada chwilami fps, ale gra generalnie jest jak najbardziej grywalna na 4090. 

Edytowane przez DżonyBi
Opublikowano (edytowane)

Czytając forum sam pobawiłem się w podmiankę bibliotek DLSS (wcześniej w sumie nie wiedziałem, że tak można, nie interesowałem się tym).

Na tą chwilę w Wiedźminie 3 Next Gen, bo to akurat ogrywam z kompatybilnych gierek. Zrobiłem też to co opisywali na wątku reddita z NvidiaProfileInspector no i wniosek jest jeden, WOW.
Nawet fakt, że testuję to na leciwym już RTX 2060 (czeka na wymianę :D)
Spadek wydajności? Kilka klatek na pewno, zupełnie nie odczuwalne w trakcie gry na monitorze z G-Sync.
Poprawa jakości obrazu? Olbrzymia, aż mam wrażenie, że za jest za ostro.
Poprzednio grając na domyślnym DLSS Quality, miałem jeszcze włączony w opcjach Sharpening, teraz bez tej opcji na DLSS Q jest i tak ostrzej i lepiej ;O
Gram na monitorze QHD 2560 x 1440.

Edytowane przez soundvibez
Opublikowano (edytowane)
49 minut temu, PiPoLiNiO napisał(a):

Były. PNY i MSI miały ceny :)

Nie martw sie kupisz sobie na premierę wymarzonego RTX 5090, wrzucisz na forum fotekcze, zrobisz sobie benchmarka i bedziesz pierwszy w rankingu ;)

Edytowane przez Godlike
Opublikowano
29 minut temu, DżonyBi napisał(a):

Właśnie zacząłem Stalkera 2 i jak ma mnie 5090 skusic? Do tego pewnie z 500W leci, a mam ~380W w tej gierce bez UV. Po właczeniu jeszcze starego FG mam ~100fps 10ms w ustawieniach epickich 100% TAA. Bez FG ~ 60fps. A jeszcze przeciez w zanadrzu jest DLSS Q. Gdybym mial monitor 240Hz+ to bardziej bylbym zmotywowany do kupna 5090 w tym momencie. Jak faktycznie potwierdzi sie, ze 6090 wyjdzie na jesieni 2026 to raczej przeczekam.

 

Screenshot_20250124_004810_YouTube.jpg

Ty tak na serio? Mega wydajnosc jest. Spójrz 4080 Super ma wydajnosc 18% gorsza w 2k i 30% gorsza w 4k. A przecie ma wiecej 60% CUDA, tutaj tylko przy 33% jest a 21% w 2k. Czyli 5090 majac wiecej 33% CUDA =21% wiecej FPS, a 4090 majac wiecej 60% CUDA ma tylko 30% FPS wiecej od 4080Super. W porównaniu do 4080 wygladaloby to jeszcze gorzej

Opublikowano
38 minut temu, Vexis napisał(a):

Patrząc na wyniki 5090, to 5080 to będą niezłe jaja vs. 4080 Super :D

5090 ma 32% więcej jednostek od 4090 i ok 30% wyższa wydajność. Oby nie okazało się że jak 5080 ma 5% więcej jednostek od 4080s to i 5% wyższa wydajność bo chyba pęknę ze smiechu:smiech:

  • Like 1
Opublikowano
11 godzin temu, Kadajo napisał(a):

niestety wyświetlacze w kokpicie nadal smużą... lipa niestety.

Serio? :/ 

 

Czyli tylko FG i MFG zostaje... Sam jestem ciekawy czy MFG dużo lepiej się spisuje w MFS 2024, skoro teraz osiągam 80 FPS stabilnie, to może miałbym 100/120 :E 

Ale i tak to bez sensu, bo FG nie działa podczas VR, a wtedy potrzeba płynności...

Opublikowano

Zabawne jest to ze w pewnych sytuacjach znowu CPU nie wystarcza, aby wykarmić 5090.

Tak... 9800x3D jest za wolny dla 5090 :smiech:

 

@some1

5090 jest dla osób, które chcą po prostu mieć najlepszą kartę za wszelką cenę i nic innego nie jest dla nich ważne. Oczywiście jeśli mówimy o graniu.

Opublikowano

9800X3D dopiero niedawno "odblokował" 4090, to co dopiero kartę 30% wydajniejszą? Dwie generacje CPU muszą wyjść, ze wzrostem IPC po 10-15% żeby wykarmić 5090. 5090 pokaże się z lepszej strony przy premierze nowszych CPU. 

Ale 400W po UV trochę jednak boli. 

Opublikowano (edytowane)
57 minut temu, bartez88 napisał(a):

5090 ma 32% więcej jednostek od 4090 i ok 30% wyższa wydajność. Oby nie okazało się że jak 5080 ma 5% więcej jednostek od 4080s to i 5% wyższa wydajność bo chyba pęknę ze smiechu:smiech:

Akurat w przypadku 5080 nie będzie występować ryzyko wystąpienia tzw. CPU bottleneck, więc będzie można zobaczyć ile faktycznie dało delikatne zwiekszenie SM i usprawnienia architektury. 

Edytowane przez Radio Tirana
  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...