Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano

DLSS i MFG juz z nami zostaje i nie ma nawet co liczyc na granie bez tych bajerów.

Zresztą Nvidia te układy już tak projektuje ze to jest "wliczone". Tak samo robią twórcy gier.

Ta ostatnia zadyma z tymi Wildsami gdzie piszą w wymaganiach ze 60FPS uzyskamy używając MFG... :smiech:

Opublikowano (edytowane)
3 godziny temu, sideband napisał(a):

Dobrze, że 4090 mam i miałem 5090 bo bym w to uwierzył.

A ja mialem 4090 2 lata i mam 5090 prawie pol roku. Nie jestem uprzedzony do niczego w przeciwienstwie do Ciebie. Wszyscy pisza, ze 5090 utrzymuje swoja wydajnosc na podobnym poziomie przy ~450W, a ty z uporem twierdzisz, ze nie, bo miales 5090. Wyglada na to, ze sprawdziles ja zbyt pobieznie. 

Edytowane przez DżonyBi
Opublikowano (edytowane)
18 minut temu, maxmaster027 napisał(a):

no ok, ale w grze jest z reguły wiecej, pomijajac jakies lokacje w dogetown, czy niektore mocno zatłoczone i naszpikowane.

W benchmarku to ja mam akurat więcej niż w tamtym miejscu gdzie testowałem 4090.

Aktualnie benchmark pokazuje mi 57@~350W na 5090 po UV, czyli mamy bardzo podobne perf/W

Edytowane przez some1
Opublikowano
4 minuty temu, some1 napisał(a):

W benchmarku to ja mam akurat więcej niż w tamtym miejscu gdzie testowałem 4090.

Aktualnie benchmark pokazuje mi 57@~350W na 5090 po UV.

No to ładne UV masz. Może Ci sie dobra sztuka trafiła, albo po prostu dobrze zrobiłes UV

Opublikowano

Raczej kasztan z kiepską krzywą, ludzie tutaj odsyłali podobne karty do zwrotu bo słaby boost. ;)

 

Po prostu ustawiłem sobie tam gdzie karta ma dobry perf/W, nie walczę o każdy jeden FPS. 

Opublikowano
37 minut temu, Kadajo napisał(a):

Jak na Rubinie RTX 6070(Ti) nie przegoni w czystej mocy 5090 to dalej Jensena nie lubię :hihot:

oczywiście, że nie przegoni. Już powinniście przywyknąć do tego ;) z serią 5XXX też były nadzieje na długo przed premierą. Rubin nic nie zmieni, daje sobie łapę uciąć

  • Upvote 1
Opublikowano
21 minut temu, DżonyBi napisał(a):

A ja mialem 4090 2 lata i mam 5090 prawie pol roku. Nie jestem uprzedzony do niczego w przeciwienstwie do Ciebie. Wszyscy pisza, ze 5090 utrzymuje swoja wydajnosc na podobnym poziomie przy ~450W, a ty z uporem maniaka twierdzisz, ze nie, bo miales 5090. Wyglada na to, ze sprawdziles ja zbyt pobieznie. 

Tak samo piszą ze OC nic nie daje co jest nieprawda.

Zawsze stracisz na wydajności robiąc takie agresywne UV. Zawsze. Nie wszędzie będzie to tak samo widać ale zawsze stracisz.

Skoro karta może działać na zegarze 3100 to zawsze będzie wydajniejsza niż karta działająca na 2900 a już na pewno na 2600.

1 minutę temu, Tornado3 napisał(a):

oczywiście, że nie przegoni. Już powinniście przywyknąć do tego ;) z serią 5XXX też były nadzieje na długo przed premierą. Rubin nic nie zmieni, daje sobie łapę uciąć

Bedzie mial MFG Ultra x16 :)

Opublikowano (edytowane)

Przy napieciu 910mV utrzymuje stabilnie stockowy boost zegara, a nawet wyzszy, czasem ciut nizszy. Zalezy od gry. Jak sa jakies roznice w fps to ich nie widze. Natomiast widze ogromna roznice w poborze mocy, bo on od razu spada w grach do poziomu ~450W max.

Edytowane przez DżonyBi
Opublikowano
23 godziny temu, Kadajo napisał(a):

5080 ma pełny chip wiec, żeby mu zwiększyć wydajność to albo by musli stworzyć nowe GPU,

Które byłoby pomiędzy GB203 a GB202 oznaczone jako np. GB203B :E o powierzchni między 400 a 500 mm^2. Taka wariacja byłaby po stronie NV możliwa, skoro nie chcą do 5080 Super przeskakiwać na GB202 wykorzystując do tego odpady produkcyjne nie nadające się na 5090, a stworzyć 5080 Ti na GB202 nie mają zamiaru, gdyż AMD na dzień dzisiejszy nie ma jak dogonić xD, a wszystko co wypuszczają wydajne idzie teraz na AI, bo tam mają kurę znoszącą złote jaja 8:E, ale niestety na 99,9% na to NV się nie zdecyduje, a szkoda.

Opublikowano
5 minut temu, DżonyBi napisał(a):

Przy napieciu 910mV utrzymuje stabilnie stockowy boost zegara, a nawet wyzszy. Jak sa jakies roznice w fps to ich nie widze. Natomiast widze ogromna roznice w poborze mocy, bo on od razu spada w grach do poziomu ~450W max.

Czyli ile ten Boost ?

Opublikowano
21 minut temu, Kadajo napisał(a):

Skoro karta może działać na zegarze 3100 to zawsze będzie wydajniejsza niż karta działająca na 2900 a już na pewno na 2600.

2600 przy tej karcie to kastracja. Raczej nikt takiego UV nie używa na codzień %-)

Stock zegar w grach 2800-2835.

U mnie napięcie 0.91 zabijało go do 2775-2785 i w CP poprawiało wydajność o te kilka klatek przy jednoczesnym zejściu do 460-470W. 

Opublikowano
Godzinę temu, sideband napisał(a):

W przypadku 4090 problem polega na tym, że pomimo brakuje spadku zegara to obniżenie napięcie powoduje spadek wydajności.

 

Jak zegar trzyma to z czego to wynika że takie cuda się dzieją? :) 

Opublikowano
8 godzin temu, VRman napisał(a):

 

Jak 6070ti dogoni 5080 po lekkim OC to będę zdziwiony. Pewnie będzie całe 12% szybciej od 5070ti i pora na CSa

 Przegonienie 70ti 5090tki to raczej za 3,5-7 lat. 

To zależy co AMD ugotuje. Jak im UDNA wyjdzie to Jensen tak skroi chipy że będą 5-10% wydajniejsze w danej kategorii. Jeśli będzie klapą do dostaniemy 6070 o wydajności -5% 5080 i chip wielkości paznokcia palca serdecznego, od Jensena z dedykacją dla graczy:fuck:

Opublikowano

NV to robi swoje i nie patrzy co AMD robi dlatego 7900XTX nie mogła w żaden sposób konkurować z 4090, a NV już miała ewentualnie odpowiedź tylko nie było takiej potrzeby;)

Tak naprawdę to AMD boi się ryzyka dlatego przy takim podejściu oni nigdy nie pokonają NV ;) AMD to dopiero zaczyna powoli odrabiać lekcje zwane FG/FSR/RT/PT tylko dlatego, że nie mają innego wyjścia.

 

Opublikowano (edytowane)
10 godzin temu, Totek napisał(a):

To zależy co AMD ugotuje. Jak im UDNA wyjdzie to Jensen tak skroi chipy że będą 5-10% wydajniejsze w danej kategorii. Jeśli będzie klapą do dostaniemy 6070 o wydajności -5% 5080 i chip wielkości paznokcia palca serdecznego, od Jensena z dedykacją dla graczy:fuck:

To samo ludzie gadali z "wait for Navi" i ostatnio z serią 9xxx. Mieli się skupić na tańszym segmencie i ostro uderzyć wyższą opłatalnością...

a Potem 9070 i 9070xt okazały się być o 1/3 droższe niż ludzie mieli nadzieję, że będą. 

 

Nawet jeśli AMD coś dobrego wypuści, to NV może po prostu to zignorować, albo nie chcieć zajmować się tym rynkiem, dopóki AI daje im wielokrotnie wyższe zyski. 

 

I co do samej UDNA - ciągle powtarzanie, że AI, AI i AI, że era rasteru się skończyła itd. Bardzo wątpię, żeby w rastarze ta architektura błyszczała, skoro jej celem powstania było RT i AI. Wręcz przeciwnie. Obawiam się potężnego rozczarowania. Te plotki o zaledwie +20% w rasterze, a 100% w RT i sporo w AI, wydają mi się wiarygodne. Załóżmy, że 10% z tego to proces. 10% można podnieść wydajność podbijając TDP i zegary. Jak na niemal "całkowicie nową architekturę" to jest porażka.

 

8 godzin temu, sideband napisał(a):

Tak naprawdę to AMD boi się ryzyka dlatego przy takim podejściu oni nigdy nie pokonają NV ;) AMD to dopiero zaczyna powoli odrabiać lekcje zwane FG/FSR/RT/PT tylko dlatego, że nie mają innego wyjścia.

 

Kij wie co oni tam wymyślą, skoro nawet wersję kart 7xxx z większym cache wywalili, bo "tak drogich kart nikt nie kupi" i to akurat gdy ten sam rynek NV wybadała z konkluzją "owszem, można sprzedawać 4070tkę za 1200$ a 4080ti za 1600$".

 

Skoro oni się "bali" wydać GPU które mieli już niemal gotowe (7900 z 256MB cache) to o czym tu gadać.

 

Oni w ogóle się chyba boją swoje karty sprzedawać, bo to co robią od końca 2024r. "to się w pale nie mieści"

Zacznę być optymistą jak się dowiem, że w zarządzie AMD zaszły potężne zmiany i/lub cały dział marketingu i strategii dla konsumenckich GPU został zwolniony i zastąpiony nowymi ludźmi. Do tego czasu spodziewam się, że AMD nie zechce być jakąkolwiek konkurencją tak jak nie chce być nią teraz. I zakładam, że NV nie tylko z tego skorzysta, ale sama też oleje graczy, bo po co, skoro i tak według korpokrawaciarzy "gaming is dead" i przyszłość to cloud gaming. 

Cloud gaming to serwerownie, a klienci to firmy stawiające takie serwerownie.

A ci jak już je stawiają, to wolą postawić pod AI. 

No i weź tu bądź optymistą.

 

Na raster 5090tki za 4000zł poczekamy dłuuuuugo.

Edytowane przez VRman

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Czy to prawda że od 1 stycznia 2026 roku będą zmiany gramatyki języka polskiego. Czy to znaczy że niewspierane wersje Microsofta Office będą niektóre prawidłowe napisane wyrazy według nowej gramatyki od 1 stycznia 2026 roku podkreślały na czerwono i nieprawidłowo napisane według nowej gramatyki od 1 stycznia 2026 roku będzie niewspierany Microsoft Office uznawał na prawidłowe. Czy słownik Microsoft Office 2024 zostanie zaktualizowany czy dopiero następna Microsofta Office 2024? Czy gdyby Microsoft Office wydał nową wersję słownika do pakietu Microsoft Office zgodny z nową gramatyką od 1 stycznia 2026 roku to czy taki plik ze słownika z nową gramatyką dałoby się podmienić do starego komputera z zainstalowanym Microsoftem Office 2010? Czy polski interfejs programów będzie zawierał błędy według nowej gramatyki języka polskiego? Czy Microsoft zaktualizuje interfejs Windowsa 10 LTSC który nadal ten Windows będzie wspierany do 2032 roku i czy zaktualizuje interfejs Windowsa 11 w wersji Home/Pro/LTSC czy tylko interfejs Windowsa 12 będzie uwzględniał nową gramatykę. Czy zwykłe programy od 1 stycznia 2026 roku automatycznie będą mieć polski interfejs zgodny z nową gramatyką czy minie dopiero kilka lat zanim producenci się na to zdecydują. Czy zmiany w polskiej gramatyce są duże czy małe i dlaczego językoznawcy nie zrobili wszystkiego co mogli żeby ich uniknąć? Po co robić zmiany jak wiadomo że po zmianach będzie tylko zamieszanie. To tak jakby wszyscy świadomie głosowali na polityka co publicznie by się chwalił że zadłuży i sprzeda całą Polskę obcym kapitałom. To każdy głupi przecież wie że będzie źle. Dlaczego nie było głosowania czy Polacy się zgodzą na inną gramatykę. To są złośliwe wybryki językoznawców. Zadaniem językoznawców jest nauka społeczeństwa poprawnej gramatyki i wytłumaczenie bardzo zawiłych kwestii gramatycznej i zmiana gramatyki to jest porażka językoznawców tak samo jak dla policjantów i sędziów jak niewinny siedzi w więzieniu. Za te zmiany od 1 stycznia 2026 roku powinni stracić prace wszyscy językoznawcy że nie zrobili co w ich mocy żeby zapobiec zmiany w języku polskim. Czy te zmiany będą na długo czy co roku będzie inna gramatyka. Wytłumaczcie mi o co chodzi od kilku lat z gramatyką że męskie zawody szczególnie w polityce są je na siłę przekształcać na kobiece zawody gdy taki zawód ma kobieta na przykład profesorka i sędzina i polityczka i dlaczego akurat teraz chcą zmieniać gramatykę. Tyle z tego pożytku jak ze zmiany czasu co pół roku że jest tylko niepotrzebne trucie dupy.  
    • Panowie- takie pytanie: - zasilacz starego typu, dostępne 2 wyjścia 8-pin po stronie zasilacza i dwa kable PCI-E PSU->GPU: każdy z dwoma wtyczkami 6+2-pin, łącznie na wyjściu 4 wtyczki 6+2-pin - GPU z wtyczką 12VHPWR - dołączony adapter 3x8-pin -> 12VHPWR I teraz czytam że w takiej sytuacji należy podłączyć do adaptera pierwszy kabel 1x8-pin (PSU) -> 1x6+2-pin (w adapter), a drugi kabel 1x8-pin (PSU) -> 2x6+2-pin (w pozostałe dwie wtyczki adaptera; wszystkie 3 wtyczki w adapterze muszą być wypełnione). Na końcu oczywiście 12VHPWR z adaptera -> 12VHPWR w GPU.   I tak niby powinno działać, ale na youtube spotkałem się z opinią że nigdy nie należy podłączać 1x8-pin (PSU) -> 2x6+2-pin (adapter), bo grozi to spaleniem karty. I że albo trzeba mieć zasilacz nowego typu, albo zasilacz starego typu z 3 wyjściami 8-pin po stronie zasilacza, albo zakupić dedykowany adapter 2x8-pin -> 12VHPWR i podłączyć nim kartę dwoma osobnymi kablami. Jak to wygląda w praktyce?  
    • Z jakiegoś powodu ktoś go wyrzucił. Zrób to samo.
    • W oleole odnalazła się paleta referencyjnych rx 6950 xt. Jest jeszcze 18 sztuk w cenie 2099 zł.   Cena chyba akceptowalna jak za nową kartę z gwarancją na 3 lata.    W ich outlecie karta od 1911 zł.
    • W xcom taniej masz lepszy zasilacz https://www.x-kom.pl/p/1098313-zasilacz-do-komputera-msi-mpg-a850g-pcie50-850w-80-plus-gold-atx-31.html  + wersja karty dość przepłacona a żadnej rewelacji nie ma jeżeli chodzi o eagle.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...