Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)

Nie ma o czym gadać, padaka ta generacja. A pokrojona 5080 średnio wydajniejsza kilkanaście % od 4080 to wisienka na torcie.

 

Nawet 4080 na którą były premierowe narzekania, że zbyt mocno pokrojona i droga, to jednak odsadzała poprzednią generację w kosmos :E 

 

7UJO6sl.png

 

 

Nie da się bronić tego co nvidia odwaliła w tym sezonie z 50xx :E 

 

Ale jak ktoś chce to niech robi fikołki i broni, zawsze beka do poczytania do piwka na długi weekend :E 

 

Edytowane przez lukadd
  • Like 1
  • Upvote 4
Opublikowano
11 minut temu, lukadd napisał(a):

Nie ma o czym gadać, padaka ta generacja. A pokrojona 5080 średnio wydajniejsza kilkanaście % od 4080 to wisienka na torcie.

 

Nawet 4080 na którą były premierowe narzekania, że zbyt mocno pokrojona i droga, to jednak odsadzała poprzednią generację w kosmos :E 

 

7UJO6sl.png

 

 

Nie da się bronić tego co nvidia odwaliła w tym sezonie z 50xx :E 

 

Ale jak ktoś chce to niech robi fikołki i broni, zawsze beka do poczytania do piwka na długi weekend :E 

 

Ja rozumiem, masz sporo racji. 

Ale tego czego nie rozumiesz, to. MFG x3 działa nadzwyczaj dobrze, jeżeli gdziekolwiek uzywales na 4090 FG, to zwyczajnie MFGx3 to ulepsza, MFGx4 jakos mi nie pasuje. Warto pamietać, że FG konsumuje sporo vramu MFGx3 kapke wiecej, a MFGx4 jeszcze ciut wiecej. Nie sa to duze liczby ale 100-200MB w GPU ktore maja 8-12GB (szczegolnie 8) moze miec znaczenie.

Natomiast jezeli nie uzywasz FG, i upscalerow w ogole. To ograniczasz sie wtedy do 1440p i tutaj energetycznie seria 5080 po UV wypada naprawde dobrze. 

Poza tym, 5080 to nie jest następca 4080, tylko bardziej 4070Ti . 5080 to połowa 5090, to takie połączenie poamiedzy 4070Ti/4070Ti Super. Jeżeli 6080 dalej bedzie w ten sposob odkrojony np 33% pełnego chipu to oczywiscie rózńice pomiedzy 6090 a 6080 jeszcze sie zwieksza. 

Opublikowano

Daj spokój z MFG x3. x2 to jest max i to z bólem używany sporadycznie w niektórych gierkach aby pooglądać PT. CP z PT, indiana z PT czy Alan z PT :E 

 

Obecne gierki nie mają wystarczająco wysokiego wysokiego fps wyjściowego, aby sensownie używać czegokolwiek powyżej 2x FG, chyba, że ktoś lubi grać w turbo zwalniaczu.

 

 

  • Upvote 2
Opublikowano
21 minut temu, lukadd napisał(a):

Nie ma o czym gadać, padaka ta generacja. A pokrojona 5080 średnio wydajniejsza kilkanaście % od 4080 to wisienka na torcie.

 

Nawet 4080 na którą były premierowe narzekania, że zbyt mocno pokrojona i droga, to jednak odsadzała poprzednią generację w kosmos :E 

 

Nie da się bronić tego co nvidia odwaliła w tym sezonie z 50xx :E 

 

Ale jak ktoś chce to niech robi fikołki i broni, zawsze beka do poczytania do piwka na długi weekend :E 

 

Ale to nie jest kwestia robienia fikołków tylko prostego zrozumienia zasad fizyki.

 

3000 -> Samsung 8nm - syf kiła i mogiła, takie Fermi naszych czasów  

4000 -> TSMC 5nm - mega dobry proces

5000 -> bez zmiany to samo 5nm

 

 

Opublikowano
26 minut temu, lukadd napisał(a):

Nie ma o czym gadać, padaka ta generacja. A pokrojona 5080 średnio wydajniejsza kilkanaście % od 4080 to wisienka na torcie.

Tak jest bo NV zawyżyła numeracje, patrząc na % pełnego rdzenia to ta cała 5080 powinna się nazywać 5070 i w tedy by się wszystko zgadzało :)

  • Upvote 1
Opublikowano

Oczywiście, że proces się liczy. Ale Nvidia w tej generacji ani nie poprawiła specjalnie procesu, ani archi i stąd taka padaka wyszła :E 

 

2 minuty temu, michaelius33 napisał(a):

3000 -> Samsung 8nm - syf kiła i mogiła, takie Fermi naszych czasów  

Nawet ten syf, kiła i mogiła w Ampere od Samsunga zgniótł poprzednią generację totalnie. Przecież wklejałem kilka postów wyżej ;)

 

7UJO6sl.png

  • Upvote 1
Opublikowano (edytowane)
21 minut temu, Phoenix. napisał(a):

Bo cala para poszla w tym genie w MFG i w kolejnym stanie sie to samo ;) Czas sie z tym pogodzic lub kupic konsole :D Bo chyba nikt nie liczy, ze kolejny gen da nawet skromne 30% wiecej w rasteryzacji. 

Zwykle nvidia po nie udanej generacji ma dobrą :E więc stawiam, że w następnej gen bardziej poprawią archi i jeszcze dodadzą ficzerów.  

A samo MFG to żadna para, w zasadzie marketing.

 

A ogólnie jak zamulą drugi raz z rzędu to zamulą, co najwyżej co dwie generacje będzie się teraz zmieniało GPU. Mniej grzebania w kompie, mniej kombinacji i odsprzedawania starych GPU.

Devi i ich gierki tak czy inaczej się dostosują.

Edytowane przez lukadd
  • Upvote 1
Opublikowano (edytowane)
1 minutę temu, Karro napisał(a):

tak zawsze jest,nie nakrcaj sie 

Chcialbym, zebys mial racje bo takie 40%+ by bylo mile widziane ;) Ale wole sie nie nastawiac poki co, lepiej sie milo rozczarowac. 

Edytowane przez Phoenix.
Opublikowano
14 minut temu, Karro napisał(a):

oczywśce ze da wiecej bo bedzie w 3nm

Jeżeli polepszy sie o 30-40%, to znowu będzie to 6090 względem 5090 :)  na wtyczce PCiE 5.0 600W gen 3 ulepszonej. Reszta najprawdopodobniej zostanie znowu mocniej przycieta, i po prostu najpewnie bedzie zauwazalnie lepsza wydajnosc energetyczna + moze jakis nowy feature. Wiec tych 30% nie będzie w kartach z niższych półek, 6050 jak wydadza a pewnie tak, zamiast 10% rdzenia moze tym razem bedzie miał 5% taki 6050aka okruszek :) 

Moze go nazwa prawdiłowo RTX 6005 :P 

Opublikowano
28 minut temu, Phoenix. napisał(a):

Bo cala para poszla w tym genie w MFG i w kolejnym stanie sie to samo ;) Czas sie z tym pogodzic lub kupic konsole :D Bo chyba nikt nie liczy, ze kolejny gen da nawet skromne 30% wiecej w rasteryzacji. 

Jak się tak stanie, to ciężko będzie uzasadnić MFG x8 z 30 FPS bazowego %-)

  • Haha 2
Opublikowano
4 minuty temu, tomcug napisał(a):

Jak się tak stanie, to ciężko będzie uzasadnić MFG x8 z 30 FPS bazowego %-)

Nie wiadomo co nVidia wymysli. Może stworza jakies rdzenie dedykowane dla MFG jak to ówczesniej zrobili z rdzeniami CUDA potem RT. Przez co właczenie MFG nie bedzie powodowało spadku FPS bazowego i niejeko zachęci ludzi do korzystania z tego poniewaz nie bedzie powodowac obnizenia inputlaga

  • Upvote 1
Opublikowano

Ile bylo narzekania na fajkowe klatki przy premierze serii 40xx... a teraz FG już jest ok ale MFG to tylko dla masochistów%-) 

coś czuję, że przy premierze serii 60xx ta technologia stanie się używalna bo znajdzie sie nowy obiekt do narzekania:hihot:

  • Haha 2
Opublikowano
2 minuty temu, maxmaster027 napisał(a):

Pewnie tak, CUDA jest dosc wszechstronne wiec jest to małoprawdopodobne aczkolwiek nie niemozliwe.

To nie jest mało prawdopodobne, tylko niemożliwe. Przecież już teraz można sobie bez problemu zobaczyć, o ile spada bazowy FPS - niewiele.

  • Upvote 2
Opublikowano
13 minut temu, jankooo napisał(a):

Ile bylo narzekania na fajkowe klatki przy premierze serii 40xx.

Bo FG/MFG jest dobre ale jak sie ma duzo bazowego fps i monitor z wysokim odswiezaniem, a z 30fps niczego dobrego nie ukreci jak to nvidia reklamuje. 

  • Upvote 1
Opublikowano

Dokładnie, to jest po prostu śmieszne, jak np. przy RTX 5060 Ti reklamowali "100+ FPS experience" w Alan Wake 2 czy Black Myth: Wukong z PT, jednocześnie na tym samym slajdzie pokazując, że owszem jest 100+ FPS, ale jest też trzycyfrowe opóźnienie %-) Oby przy całej następnej serii tak to nie wyglądało, a może tak być, jeśli nie będzie sensownego przyrostu czystej wydajności, bo przecież wymagania gier cały czas idą w górę.

Opublikowano
37 minut temu, tomcug napisał(a):

Dokładnie, to jest po prostu śmieszne, jak np. przy RTX 5060 Ti reklamowali "100+ FPS experience" w Alan Wake 2 czy Black Myth: Wukong z PT, jednocześnie na tym samym slajdzie pokazując, że owszem jest 100+ FPS, ale jest też trzycyfrowe opóźnienie %-) Oby przy całej następnej serii tak to nie wyglądało, a może tak być, jeśli nie będzie sensownego przyrostu czystej wydajności, bo przecież wymagania gier cały czas idą w górę.

Mam 5060ti 16GB Vram i faktycznie FG powyżej x2 daje już lagi. Ale x2, czyli jak przy serii 4xxx jest OK :hihot:

MFG może jest dla szybkich ekranów 120hz+ ale dla mojego 60hz :P

Całkiem poprawnie działa FG z poziomu sterownika :)

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • No i jestem rozdarty nt. o którym wcześniej była wzmianka. (https://ithardware.pl/aktualnosci/geforce_rtx_50_noctua-42747.html) Tutaj pytanie do kompetentnego kolegi @Kadajo Czy Ventus Noctua jest premium czy nie?  @Smalec A Ty jak się na to zapatrujesz?
    • Pobawiłem się trochę NANOBANANA PRO w zakresie przerabiania rysunków na kolorowe obrazy w różnym stylu, poniżej pare przykładów   oraz moich wniosków na szybko (może sie komuś przyda): - czasami wychodzą głupoty w generowanym obrazie - zdarza sie ze wynik jaki otrzymamy to poprzednia nasza praca która sie zablokowała gdzieś w kolejce wczesniej a nie ta nowa na jaką czekalismy - ilosc styli jest na oko skromniejsza niz w MJ (na razie) - tematyka rysunku moze w pewnien sposób czasami wpływać na styl lub ograniczać paletę wyboru styli (np bardziej fantastyczne rysunku trudniej jest uzyskać jako realistyczne zdjęcia, bardziej je ciągnie w kierunku pseudo renderingu 3D) - efekt realistyczny powstały ze szkicu odstaje w większym stopniu od rysunku niż efekt malarski powstały ze szkicu. - jesli pracujemu w google gemini z nanobanana to w obrębie naszego czatu po przekroczeniu pewnej ilosci wpisów czat zaczyna byc niestabilny , np nie mozemy zapisać obrazka (pomaga wtedy otworzenie nowego czatu) - zdarza sie ze nanobanana nie rozumie prostych poleceń , a innym razem dla odmiany wykonuje bardzo złożone - ten sam prompt nie zawsze da ten sam wynik, czasami da inny niz na to wskazuje prompt. Ale i tak to jest duzy krok naprzód, biorąc pod uwagę fakt ze obecne modele AI kiepsko sobie radzą z wymyslaniem ciekawych złożonych artystycznych kompozycji scen (w przypadku generowaniu obrazów od zera tylko na podstawie polecenia), a nanobanana niezle całkiem interpretuje ludzkie rysunki mozna wyeliminować te słabosc silników AI umieszczając na początku workflow szkic wykonany przez człowieka.  
    • Ja raczej ją skończę, bo podoba mi się świat i nawet fabuła, ale raczej nie będę się męczył z każdym przeciwnikiem dla jakiejś nowej fryzury czy majtek.  Nie no, gra jest akurat ciekawa, ale walki to niemal jak w Dark Souls, trzeba nauczyć się kiedy należy zrobić unik lub blok, na szczęście jak coś nie pójdzie to zapis mamy niedaleko. W grze trafiłem już kilka razy na to, że w czasie walki, kamera ustawiła się za jedną z moich postaci, gdy atakowana była inna i nie widziałem chwili ataku i nie mogłem skutecznie zrobić manewrów  W grze powinna być możliwość podejrzenia statystyk wrogów, aby skuteczniej wykorzystywać punkty akcji i tą masę umiejętności, zwłaszcza jak walczymy kolejny raz z takimi samymi, więc już powinny być widoczne słabe i mocne strony.    
    • Te podporki na sledziu to slaby pomysl, najlepsze wdg mnie wizualnie to sa te malutkie pionowe na tył karty  
    • 89% kasy wydamy w polskim przemyśle, innymi słowy UE wyda w polskich firmach pieniądze na zakup broni dla Ukrainy. Gdzie wady?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...