Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)

 

15 minut temu, jankooo napisał(a):

Ja o gruszkach ty o jabłkach%-) 

Tak karty sa wydajne a co wiecej najwydajsze jakie można kupić.

Ja pisze o tym, ze karty sa na tyle dobre na ile Nvidia potrafiła. Doszła do sciany i wiecej nie mogła.

Gdyby niewielki przyrost generacyjny był wyrachowany (bo nie ma konkurencji i wiecej nie musieli) to nie zrobili by topu z poborem na limicie wtyczki.

Chciałbym sie mylic i zobaczyć potężne wzrosty w następnej generacji ale moze sie okazać, ze jesteśmy blisko limitu aktualnej technologii i taka tendencja sie utrzyma

Jak faktycznie pójdą w chiplety to będzie się dokładać więcej rdzeni cuda mniej żyłowanych. Jakiś większy uzysk będzie to można i u innych przebierać. Jak faktycznie dowalą cenę na budowę nowych fabryk w połowie drogi do ich ribbonfet/nanosheet w tsmc to może lepiej czekać na jakieś przetestowania u dostawców bo co wafel to wafel :E

 

 

 

20 minut temu, maxmaster027 napisał(a):

Niezłe te UV na 4090 ma, jestem zaskoczony jak ładnie zjechał z poborem energii. :O 

Musisz ogarnąć jak się ta topka z Ady wyciąga tych watów w lwiej części z gier. Okolice 300W bez wchodzenia w jakieś quake 2 rt 450 czy co fabryka dała :E

 

Edytowane przez areczek1987
Opublikowano (edytowane)

Ile musieliby dać mocy, żeby można było grać bez dlss Q w 4K z PT? Ile by nie dali narzekaniom końca nie będzie, a najwięcej będą narzekać Ci co nigdy tych kart w swoich obudowach nie mieli i mieć nie będą.

 

BTW: ja już nie tylko w gry i zaczynam ostatnio mocno interesować się programem Stability Matrix + Stable Diffusion.

Edytowane przez DżonyBi
Opublikowano (edytowane)
27 minut temu, jankooo napisał(a):

Ja o gruszkach ty o jabłkach%-) 

Tak karty sa wydajne a co wiecej najwydajsze jakie można kupić.

Ja pisze o tym, ze karty sa na tyle dobre na ile Nvidia potrafiła. Doszła do sciany i wiecej nie mogła.

Gdyby niewielki przyrost generacyjny był wyrachowany (bo nie ma konkurencji i wiecej nie musieli) to nie zrobili by topu z poborem na limicie wtyczki.

Chciałbym sie mylic i zobaczyć potężne wzrosty w następnej generacji ale moze sie okazać, ze jesteśmy blisko limitu aktualnej technologii i taka tendencja sie utrzyma

W takim Doom the dark ages 4090 jest szybsze od 3090 o ładny kawal. 3090 jest 10% za 4070. Ponad 2x wolniej. Ciezko o powtorke z takiego wzrostu wydajnosci. Natomiast juz tu wkleiałem 5090 vs 4090 w VR, potrafi byc 100% lepsza. Nv sie tym nie chwali bo pod VR nie ma MFG, i ich karty po prostu duzo lepiej komercyjnie wygladaja przy porownywaniu FGx2 vs MFGx4. Dlatego nabrali wody w usta i jest cicho na temat VR, ale wzrost wydajnosci jest imponujacy. Juz pisalem, ze jak masz 240Hz monitor i 4090 a nie 5090 to sporo tracisz. Majac 360hz jeszcze wiecej. Jedyny problem jest z tym, ze 4090 kupowali ludzie za 6500-7500zl co za taka wydajnosc bylo niezlym dealem, teraz porwujesz wydajnosc sprzed 3 lat do tej co oferuje karta za 11-13tys zlotych (najczestrza cena w sklepach) no i to po prostu nie wyglada tak imponujaco. Zbyt drogie GPU

14 minut temu, areczek1987 napisał(a):

Musisz ogarnąć jak się ta topka z Ady wyciąga tych watów w lwiej części z gier. Okolice 300W bez wchodzenia w jakieś quake 2 rt 450 czy co fabryka dała :E

 

Tak, wlasnie sprawdzilem u siebie, na tym video co wkleiles. No mega roznica, Mi pokazuje 370-380W na 5080, a jemu na 4090 290-300w xD FPS taki sam, ale jakie temperatury i jak malo papu bierze, mowie jestem zaskoczony jak dobre UV ma, bo OC 4090 maja z reguly raczej symboliczne, a UV po prostu zmienia ta karte o 180 stopni

Edytowane przez maxmaster027
Opublikowano (edytowane)
8 godzin temu, Doamdor napisał(a):

RTX 4090 to przeszłość, teraźniejszość to RTX 5090, a przyszłość to RTX 6090. :faja:

Dokładnie tak. 4090 ma dwa narzędzia do podniesienia fps-ów w grze. Dla mnie jest to DLSS Q na ekranie 4K czyli przeskalowany obraz z 1440p i do tego FG x2, który ma swoje wady, ale powiedzmy, ze swoje zadanie spełnia i gra staje się płynniejsza. Niestety te 2 ficzery nie wystarczaja juz, zeby w kazdej grze cieszyć się płynnością bez zastrzeżeń w najbardziej wymagających scenariuszasz. 

 

Dochodzimy teraz do momentu w którym chawalimy 4090 za to jaka byla na premiere 3 lata temu i jak pieknie odskoczyla karcie 3090. Pytam szczerze. Jakie to ma teraz znaczenie? Żadne! Jak ja posmyramy po tensorach i bedziemy chwalic to magicznie mocy jej nie przybedzie. Niedomaga juz i tyle. 

 

Jest teraz 5090, ktory dorzuca 25-40% we flat grach (+MFG do obslugi high refresh) i VR nawet grubo ponad 50% dzieki znacznie wyzszej przepustowosci pamieci. To jest teraz krol wydajnosci czy komus to sie podoba czy nie. Owszem mozemy sobie narzekac jaki blackwell jest zly i jaka Ada wspaniala. Nazwijcie sobie 5090 -> 4090 Ti to moze niektorym zylka w dupie przestanie prezyc.

 

BTW: przy dobrym zagraniu i wykorzystaniu sytuacji mozna bylo przeskoczyc z 4090 na sensowna 5090 za 2-3k.

Edytowane przez DżonyBi
Opublikowano

Nie zawsze dało się przeskoczyć, ja nie mogłem, przez chore 570W poboru mocy, nie dał bym rady tego schłodzić w budzie sff.

W mocno obciążające gry 4090 muszę underwoltować, albo otwierać bok budy, przy czym mówimy o karcie z limitem 450W.

Z tego względu 5080 był totalnym rozczarowaniem, zeby chociaż na stock wyprzedzał 4090 o te 10% inaczej by to wyglądało 

Opublikowano
9 godzin temu, maxmaster027 napisał(a):

Tylko wiesz że to jest cos jak w tym alan waku 10fps vs 26fps

Wrzuciłem 4k, ale w niższej rozdziałce zależności i kop dość podobne, dalej mega duże. 1440p z dlssq masz 30 do 74fps.

Wydajność 3090ti osiągała zwykła 4070 wtedy w AW2 rt :E

Opublikowano
8 godzin temu, DżonyBi napisał(a):

..no bo przecież powinienem kupić i narzekać jakie gówno kupiłem. Ja należe do świadomych konsumentów i wiem czego chce, a potem to mam. 

 

Najśmieszniejsze jest to jak ludzie pierd.. w stylu:

"kupił gre za 300 zł to teraz musi chwalić" poziom myślenia na etapie szkoły podstawowej.

Jedynie co robisz to lizesz sie po jajkach i tyle ;) Ale to juz chyba kady tutaj dobrze widzi. 

Opublikowano
5 minut temu, Phoenix. napisał(a):

Jedynie co robisz to lizesz sie po jajkach i tyle ;) Ale to juz chyba kady tutaj dobrze widzi. 

A Wy dalej tylko narzekajcie i bijcie się po jajkach.

31 minut temu, SylwesterI. napisał(a):

chore 570W poboru mocy

chore na papierze, w rzeczywistosci 350-450 max.

Opublikowano (edytowane)
Godzinę temu, DżonyBi napisał(a):

A Wy dalej tylko narzekajcie i bijcie się po jajkach.

chore na papierze, w rzeczywistosci 350-450 max.

Jak grasz w lajtowe gry to bedzie 350-450W, jak grasz w dociskające, na stocku bedzie się odbijał od limitu, miałem 5090 na teście ze sklepu przez 2 tygodnie, w cp2077, alanie czy cronosie z kagańcem na 400-450w nie ma szału w porównaniu do 4090

Edytowane przez SylwesterI.
Opublikowano (edytowane)
2 godziny temu, Kadajo napisał(a):

Nie no bez jaj... Widać ze to AI bo w DOOM'a nie gra.

:hihot:

Był o tym news :P Battlefield 6 na chłodzeniu wodnym :P to nie AI

4 godziny temu, DżonyBi napisał(a):

Dokładnie tak. 4090 ma dwa narzędzia do podniesienia fps-ów w grze. Dla mnie jest to DLSS Q na ekranie 4K czyli przeskalowany obraz z 1440p i do tego FG x2, który ma swoje wady, ale powiedzmy, ze swoje zadanie spełnia i gra staje się płynniejsza. Niestety te 2 ficzery nie wystarczaja juz, zeby w kazdej grze cieszyć się płynnością bez zastrzeżeń w najbardziej wymagających scenariuszasz. 

 

Dochodzimy teraz do momentu w którym chawalimy 4090 za to jaka byla na premiere 3 lata temu i jak pieknie odskoczyla karcie 3090. Pytam szczerze. Jakie to ma teraz znaczenie? Żadne! Jak ja posmyramy po tensorach i bedziemy chwalic to magicznie mocy jej nie przybedzie. Niedomaga juz i tyle. 

 

Jest teraz 5090, ktory dorzuca 25-40% we flat grach (+MFG do obslugi high refresh) i VR nawet grubo ponad 50% dzieki znacznie wyzszej przepustowosci pamieci. To jest teraz krol wydajnosci czy komus to sie podoba czy nie. Owszem mozemy sobie narzekac jaki blackwell jest zly i jaka Ada wspaniala. Nazwijcie sobie 5090 -> 4090 Ti to moze niektorym zylka w dupie przestanie prezyc.

 

BTW: przy dobrym zagraniu i wykorzystaniu sytuacji mozna bylo przeskoczyc z 4090 na sensowna 5090 za 2-3k.

To też zależy jaka wersje sobie kupiles. Jak Ventusa, który tam waży w porywach 1.7kg mierzone na biegunach (np arktycznym) vs Astral który wazy 3kg i to na rowniku(to masz w stopce), to mozesz sobie pozwolic na OC karty. I u CIebie ta wydajnosc rzeczywiscie jest odczuwalna. 

Natomiast wyobrazam sobie, że kazdy spodziewal sie wiecej czystej mocy obliczeniowej, ona bardzo wzrosla ale w obliczeniach A.I.. Bo to sa w teorii przynajmniej pierwsze GPU, których architektura była tworzona z mysla o A.I. a nie o grach, jak mialo to miejsce przy Adzie. 

Swoja droga, AMD tutaj tez nie pomaga, bo nie maja odpowiedzi przez co nv jest sama dla siebie wiatrem sterem i żaglem

Edytowane przez maxmaster027
Opublikowano (edytowane)
25 minut temu, maxmaster027 napisał(a):

Natomiast wyobrazam sobie, że kazdy spodziewal sie wiecej czystej mocy obliczeniowej, ona bardzo wzrosla ale w obliczeniach A.I.

Jest jak jest. Można płakać na forum przez 300 stron jaki to Blackwell zły (Ada po tuningu/faceliftingu dla wrażliwych), a można było zrobić sprawny przeskok na 5090, gdy 4090 schodziła po 9k nawet (sam sprzedałem za 8,4k, a gdybym poczekał to poszłaby jeszcze kilka stówek drożej) i cieszyć się wyższą wydajnością w 4K, której już niestety brakuje momentami 4090, a jak wiemy w 4K mocy nigdy za wiele. Ja nie odczuwam tych 100W poboru więcej, które tak niektórzy tutaj piętnują. Takie jest moje zdanie i finalnie jestem zadowolony z decyzji, która nie ma nic wspólnego z pucowaniem jajek.

Edytowane przez DżonyBi
  • Upvote 1
Opublikowano
20 minut temu, DżonyBi napisał(a):

Jest jak jest. Można płakać na forum przez 300 stron jaki to Blackwell zły (Ada po tuningu/faceliftingu dla wrażliwych), a można było zrobić sprawny przeskok na 5090, gdy 4090 schodziła po 9k nawet (sam sprzedałem za 8,4k, a gdybym poczekał to poszłaby jeszcze kilka stówek drożej) i cieszyć się wyższą wydajnością w 4K, której już niestety brakuje momentami 4090, a jak wiemy w 4K mocy nigdy za wiele. Ja nie odczuwam tych 100W poboru więcej, które tak niektórzy tutaj piętnują. Takie jest moje zdanie i finalnie jestem zadowolony z decyzji, która nie ma nic wspólnego z pucowaniem jajek.

4k 4k 4k 4k...Nie samym 4k czlowiek zyje. Ludzie maja TVki i monitory 8k... tak tylko wspominam. 

Poza tym, przy uzywaniu Path tracingu, 4k DLAA to nawet nvidia nie poleca, i to nie przez wzglad na FPS, a na to, ze robi szum, i czesto najlepszym rozwiazaniem jest DLSS performance. 
AlanWake2DLAA.thumb.png.3e30507a3d1bd2f1d285b3205c34bdc4.png
(góra)To jest 4k DLAA, maximum x4

AlanWake2P.thumb.png.ca7806b8b0c9a251378c9e62faf59617.png
To jest 4k DLSS P maximum x4

Różnice sa naprawde małe. Powiesz, że ok ale w takim KCD2 różnice sa bardzo duze, no tak tam sa bo nie ma PT. Ale FPS na 4090 czy 5080 w 4k ultra jest naprawde wysoki. Generalnie 4090 starczy obecnie do kazdej gry. Nie ma co sie oszukiwac. A to, że gra bedzie działac lepiej na 5090 to jasne i masz te wlasnie pod high refresh MFGx4 gdzie to jednak sporo daje

Opublikowano (edytowane)

Zależy czego kto oczekuje.

 

To nie 4090 w niektórych grach nie starcza do 4K (edit: poprawiłem)

To 5090 w niektórych grach nie starcza do 1440p.

 

Bo na przykład ktoś chce grać w HFR.

 

Tymczasem 4090tka a nawet 5090tka nawet do 60fps w 4K nie doskakuje. No i nie mówię o PT, tylko o grach na Unreal Engine. Tutaj często 4090 już ociera się o jakieś żałosne 3x fps, a 5090tka nawet nie 50. Z PT 5090tka ma 27fps w grze sprzed 5 lat. 

Czyli nawet do bieda-HFRu 120fps przydałoby się ze 2x większa moc niż 5090.

Do 240fps 4x.

A prawdziwy HFR to 480 wiec 8x.

Z PT to 16x.

 

 

PS. Błagam, nie róbcie porównań upscallerów na obrazie statycznym, bo wychodzą potem takie bzdury jak "nie widzę różnicy między 4K DLAA a DSR balanced".

Szcególnie gdy mowa o 5090tkach. Posiadaczy takich kart stać na to, aby nie kisić się na średniowiecznych VA.

Edytowane przez VRman

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Czy to prawda że od 1 stycznia 2026 roku będą zmiany gramatyki języka polskiego. Czy to znaczy że niewspierane wersje Microsofta Office będą niektóre prawidłowe napisane wyrazy według nowej gramatyki od 1 stycznia 2026 roku podkreślały na czerwono i nieprawidłowo napisane według nowej gramatyki od 1 stycznia 2026 roku będzie niewspierany Microsoft Office uznawał na prawidłowe. Czy słownik Microsoft Office 2024 zostanie zaktualizowany czy dopiero następna Microsofta Office 2024? Czy gdyby Microsoft Office wydał nową wersję słownika do pakietu Microsoft Office zgodny z nową gramatyką od 1 stycznia 2026 roku to czy taki plik ze słownika z nową gramatyką dałoby się podmienić do starego komputera z zainstalowanym Microsoftem Office 2010? Czy polski interfejs programów będzie zawierał błędy według nowej gramatyki języka polskiego? Czy Microsoft zaktualizuje interfejs Windowsa 10 LTSC który nadal ten Windows będzie wspierany do 2032 roku i czy zaktualizuje interfejs Windowsa 11 w wersji Home/Pro/LTSC czy tylko interfejs Windowsa 12 będzie uwzględniał nową gramatykę. Czy zwykłe programy od 1 stycznia 2026 roku automatycznie będą mieć polski interfejs zgodny z nową gramatyką czy minie dopiero kilka lat zanim producenci się na to zdecydują. Czy zmiany w polskiej gramatyce są duże czy małe i dlaczego językoznawcy nie zrobili wszystkiego co mogli żeby ich uniknąć? Po co robić zmiany jak wiadomo że po zmianach będzie tylko zamieszanie. To tak jakby wszyscy świadomie głosowali na polityka co publicznie by się chwalił że zadłuży i sprzeda całą Polskę obcym kapitałom. To każdy głupi przecież wie że będzie źle. Dlaczego nie było głosowania czy Polacy się zgodzą na inną gramatykę. To są złośliwe wybryki językoznawców. Zadaniem językoznawców jest nauka społeczeństwa poprawnej gramatyki i wytłumaczenie bardzo zawiłych kwestii gramatycznej i zmiana gramatyki to jest porażka językoznawców tak samo jak dla policjantów i sędziów jak niewinny siedzi w więzieniu. Za te zmiany od 1 stycznia 2026 roku powinni stracić prace wszyscy językoznawcy że nie zrobili co w ich mocy żeby zapobiec zmiany w języku polskim. Czy te zmiany będą na długo czy co roku będzie inna gramatyka. Wytłumaczcie mi o co chodzi od kilku lat z gramatyką że męskie zawody szczególnie w polityce są je na siłę przekształcać na kobiece zawody gdy taki zawód ma kobieta na przykład profesorka i sędzina i polityczka i dlaczego akurat teraz chcą zmieniać gramatykę. Tyle z tego pożytku jak ze zmiany czasu co pół roku że jest tylko niepotrzebne trucie dupy.  
    • Panowie- takie pytanie: - zasilacz starego typu, dostępne 2 wyjścia 8-pin po stronie zasilacza i dwa kable PCI-E PSU->GPU: każdy z dwoma wtyczkami 6+2-pin, łącznie na wyjściu 4 wtyczki 6+2-pin - GPU z wtyczką 12VHPWR - dołączony adapter 3x8-pin -> 12VHPWR I teraz czytam że w takiej sytuacji należy podłączyć do adaptera pierwszy kabel 1x8-pin (PSU) -> 1x6+2-pin (w adapter), a drugi kabel 1x8-pin (PSU) -> 2x6+2-pin (w pozostałe dwie wtyczki adaptera; wszystkie 3 wtyczki w adapterze muszą być wypełnione). Na końcu oczywiście 12VHPWR z adaptera -> 12VHPWR w GPU.   I tak niby powinno działać, ale na youtube spotkałem się z opinią że nigdy nie należy podłączać 1x8-pin (PSU) -> 2x6+2-pin (adapter), bo grozi to spaleniem karty. I że albo trzeba mieć zasilacz nowego typu, albo zasilacz starego typu z 3 wyjściami 8-pin po stronie zasilacza, albo zakupić dedykowany adapter 2x8-pin -> 12VHPWR i podłączyć nim kartę dwoma osobnymi kablami. Jak to wygląda w praktyce?  
    • Z jakiegoś powodu ktoś go wyrzucił. Zrób to samo.
    • W oleole odnalazła się paleta referencyjnych rx 6950 xt. Jest jeszcze 18 sztuk w cenie 2099 zł.   Cena chyba akceptowalna jak za nową kartę z gwarancją na 3 lata.    W ich outlecie karta od 1911 zł.
    • W xcom taniej masz lepszy zasilacz https://www.x-kom.pl/p/1098313-zasilacz-do-komputera-msi-mpg-a850g-pcie50-850w-80-plus-gold-atx-31.html  + wersja karty dość przepłacona a żadnej rewelacji nie ma jeżeli chodzi o eagle.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...