Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
6 minut temu, Doamdor napisał(a):

@Kadajo Nvidia miała dostęp do 3nm w 2024r i tego nie wykorzystała w RTX 50xx?

Nie o to chodzi. Tylko o to jak przycięła układy i jak zażydziła na pamięci. ZNOWU.

A tutaj ktoś liczy, że BĘDZIE LEPIEJ...

Kto wie jak już będzie totalnie źle, a pewnym sensie już jest kibel to może faktycznie gorzej nie będzie, ale to nie oznacza z automatu ze bedzie lepiej.

 

  • Upvote 3
Opublikowano

@Kadajo Ostatnie dobre cięcie było w serii RTX 30xx, teraz największy kawałek tortu dostają ci, co zapłacą najwięcej, a reszta jak nie chce płacić, musi się zadowolić okruszkami. :E Kolejna generacja kart graficznych, to będzie RTX 6090 i długo, długi nic. :E

32 minuty temu, maxmaster027 napisał(a):

O kierwa jaki FPS wysoki, to na Ultra? Czy na High? No jeżeli to stabilne to tak to można grac :D 

Ultra 

 

Tu po OC

 

Zrzutekranu2025-07-29232402.thumb.png.4ffeb56526580bec1be6f65a0a9efe93.png

 

Jak ktoś nie lubi DLSS i RT/PT, to bez problemu może grać bez. 

  • Upvote 1
Opublikowano
15 minut temu, Doamdor napisał(a):

@Kadajo Ostatnie dobre cięcie było w serii RTX 30xx, teraz największy kawałek tortu dostają ci, co zapłacą najwięcej, a reszta jak nie chce płacić, musi się zadowolić okruszkami. :E Kolejna generacja kart graficznych, to będzie RTX 6090 i długo, długi nic. :E

Ultra 

 

Tu po OC

 

Zrzutekranu2025-07-29232402.thumb.png.4ffeb56526580bec1be6f65a0a9efe93.png

 

Jak ktoś nie lubi DLSS i RT/PT, to bez problemu może grać bez. 

 

asdf11.gif.3044e3775e6f1921d85bc7c1e80e8b74.gif

łomatko to to nie było po OC i jeszcze ultra:hihot:


Bez RT/PT 5090 ma jakas nadzwyczaj dobra wydajnosc

Opublikowano (edytowane)

Widzę, że już więcej osób, nie tylko ja + 2 inne, zaczyna pisać, że spodziewają się totalnego paździerza  + AI po tej następnej serii.

Ale to i tak za optymistycznie.

Pojawiły się tu wcześniej nadzieje, że 6090 może wyjdzie wcześniej. Np. za rok czy półtora, np. listopad 2026. No to...

 

6090 w 3nm = marzec-lipiec 2027 :hahaha::hahaha::hahaha::hahaha:

 

Gość ostatnio sporo dziwnych rzeczy gada, nie oceniałbym jego info jako jakoś specjalnie mocno wiarygodnego, ale jeśli to prawda to nieźle :E

Za PONAD dwa lata zamiast szybciej. To będzie odświeżony raster z 4090 pewnie. Skoro można było z tego skorzystać w 5090 to pewnie i do 6090 nic nie poprawią. W końcu po co? Konkurencji nie ma, a to na segmencie AI się Nvidia skupia tak w sensie rynku jak i w sensie segmentu GPU który zostanie dedykowany AI. 

 

"Let that sink in"

5090 dostaliśmy za 200% chorej ceny. Nie we wrześniu-październiku 2024, jak powinno, ale później. Teraz od tego minie dwa i pół roku, żebyśmy dostali jakieś guano w 3nm :E

 

 Jeśli ta plotka się potwierdzi to mamy pomiędzy realnym postępem stricte technologicznym siedem i pół roku przerwy (4090 vs 6090), bo jeśli 6090 będzie na 3nm, to jakiś realny postęp w rasterze pewnie dopiero w 2nm, a to 2-3 lata później, czyli 4-5 lat od teraz. W najlepszym razie odjąć pół. 

 

Edytowane przez VRman
Opublikowano (edytowane)
12 minut temu, Kadajo napisał(a):

Oni mogą dowalić cenę jaka chcą, jak się tłum oburzy to zrobią korektę. Ale jak widać nawet 20k za karty to nadal deal do przyjęcia :smiech:

Tłum graczy się oburzy, tłum ludzi kupujących do pracy i do AI (oraz skalperzy oczywiscie) znowu powykupują, dając Nvidii znać, że podwyżka była dobrym pomysłem. Gracze nie mają już żadnego głosu w tej półce cenowej. Graczy których stać  na karty za 3000€+ jest promil, a jeszcze odjąć tych których stać, ale którzy nie widzą sensu - jeszcze mniej.

 

To będzie piękna katastrofa. Karty od AMD i NV w 3nm w koniec 2026-połowa 2027, do tego konsole tak kartoflane, że się Jaguar w PS4 przypomni, a potem gracze klęczący przed CEO obu firm, błagający aby w 2029 dostali coś w 2nm TSMC a nie np. Intelu czy Samsungu na poziomie TSMC 4nm :E

Oczywiście obok tego będzie rozwój AI i będziemy słuchać i oglądać na ekranach rewolucję. Z cieniami aktualizującymi się w ciągu kilku sekund, z sieczką w ruchu, artefaktami z odpowiednika Reflexu 2 i w 360p natywnie na konsolach nextgen i 720p na kartach mid-range za jedyne 1200$+VAT. No i input lagiem, ale przecież to nie szkodzi. Ludzie sie przy okazji ładnie "podgotują" i przyzwyczają do IL, co pomoże potem z przejściem na cloud gaming.

 

Ale za to VRAMu będzie więcej i ludzie będą kupować karty do puszczania modeli AI lokalnie. Korpo do 2030 wyciągną wnioski, że granie lokalne przestaje się podobać i przesuną plany na granie zdalne. RTX 9090 już będzie chipem sprzedawanym w serwerowych rackach, a nie dla użytkowników domowych, a PS7 i Xbox SXSXSXSXXXXX+X będą nazwami usług serwerowych do "cloud gamingu".

 

Edytowane przez VRman
  • Upvote 1
Opublikowano

Niezła odklejka w tym wątku się zrobiła gdzie lider branży jest hejtowany za to, że numerki sie nie zgadzają bo kiedyś było inaczej:boink: a to, że granie w takim srednim/ niskim segmencie jest tańsze niż w poprzedniej serii to nie już ważne bo kiedyś nazwy co innego znaczyły... Niech top kosztuje i 30k ale dotąd będę propsował nvidie dopóki będzie pchać branże do przodu a robi to zarówno pod względem zwiększania wydajności jak i innowacyjności

  • Haha 1
  • Confused 2
Opublikowano
10 godzin temu, Kadajo napisał(a):

ja nie neguje postępu, tylko zaznaczam ze Nvidia zaczyna prawdziwa wydajność zastępować sztuczkami.

....

Co do DLSS, założenie jak najbardziej fajne, dziś DLSS naprawdę robi robotę po przejściu na Transformera no i co z tego jak zaczęto go wykorzystywać nie jako BOOST tylko jako tuszowanie kiepskich optymalizacji.

czyli jednak da sie. to nie wina nv, ze gry nie sa optymalizowane. uwazasz, ze 600W GPU + 200W CPU jest dobrym kierunkiem? bo dokladnie takie masz oczekiwania, ktorych nie da sie spelnic bez kolejnych  mld trn i kolejnych W. imo kierunek nv jest dobry - minimalizowanie hardware na rzecz softu/algorytmu/AI. szczegolnie jezeli piszemy o graczach. setki W jakie teraz sa wymagane, aby normalnie pograc to patologia i z tym powinnismy walczyc, a nie z rozwojem  technologii umozliwiajacyh zmniejszenie ilosci danych, ktore system musi przemielic, aby wygenerowac jedna kl. nv powinna dostac karnego k za wszystkie x090. jak juz mamy je rozdawac, a poklepana po ramieniu za rozwoj np. AI i DLSS

ceny karta  graf.  powiedz mi co stoi na przeszkodzie i dlaczego nie jest mozliwa sytuacja jak w przypadku karta np. rtx pro/ quadro, gdzie placisz wiecej za soft niz sam hardware. pewien jestem, ze juz teraz w cenie karty graf mamy sporo kosztow technologiczych i jescze wiecej kosztow zwiazanych z R&D/AI. 

 

Opublikowano

Wiadomo ze to nie wina Nvidii, chociaż nie wykluczałbym dziś patologi typu róbcie gówno optymalizacje żebyśmy mogli sprzedać nasze gówniane technologie.

Ja mam oczekiwania ze Nvidia jako blirardowa korporacja zaprojektuje porządne układy które są wydajne i nie pożerają megawatów energii. Jak tego nie potrafią to co z nich za lider innowacyjności.

Chcieli RT/PT to niech teraz dadzą do tego odpowiedni sprzęt a nie jakieś gówno, a może właśnie taki plan był od początku bo ja tu widzę piękną krowę do dojenia bez dna na co najmniej kolejna dekadę, dwie.

Może mieli pecha ze akurat rozwój RT wbił się na pal krypto covidow i tego gówno AI ale to nie zmienia faktu ze te karty mogłyby być lepsze i to tylko i wyłącznie pazerność Nvdii sprawiła ze wszytko poniżej 5090 to szit wybitny.

To wygląda i nie jestem sam w tym stwierdzeniu ze Nvidia już te karty robi na odwal byle było bo i tak się znajda jelonki co i tak zapłacą za to krocie i będą jeszcze bornic tej ich pożal się boże innowacyjności i innego pierdololo. Na zakończenie wkleję tylko ten obrazek mem który stal się symbolem upadku i kłamstw jakimi nas ta firma mami.

 

nvidia-announces-rtx-5070-with-4090-perf

 

Mam wam kurwa kolejny raz tłumaczyć co znaczy "performance" czy tym rzem pamiętaliście o tym chociaż przez 24H ?

  • Upvote 3
Opublikowano

No bo jak można nie widzieć tego co ta firma wyprawia. Albo jeszcze gorzej, ignorować to.

I niech se tam każdy kupuje co chce nic mi do tego. Ale no nazywajmy rzeczy takimi jak są a nie "ja jestem zadowolony" to jest super.

Jak nie będziemy krytyczni to będzie tylko gorzej, no bo jak oni widza ze mogą sprzedać swoim klientom kazde gówno oprawione w złoto to co się dziwić.

 

Serio jak widzę ze ktoś pisze o M(FG) i ze to wydajnosc to się nóż w kieszeni otwiera.

To nie ma nic wspólnego z wydajnością, NIC ZERO.

  • Upvote 1
Opublikowano

gdyby robili karty na odwal, to nie wprowadzali by zmian w tensorach i nie dodawali np. hardware Flip Metering. to jak rozwija sie DLSS i jak optymalizuja hardware pod AI, pokazuje kierunek w jakim ida. dokladnie to samo bedze w przypadku MFG. 

Opublikowano
4 minuty temu, SuLac0 napisał(a):

gdyby robili karty na odwal, to nie wprowadzali by zmian w tensorach i nie dodawali np. hardware Flip Metering. to jak rozwija sie DLSS i jak optymalizuja hardware pod AI, pokazuje kierunek w jakim ida. dokladnie to samo bedze w przypadku MFG. 

Tak, tak, Tensory tak zoptymalizowali ze w RT gówno się zmieniło za to AI w kosmos wywaliło. Super bo przecież AI jest nam tak W GRACH POTRZEBNE.

Flip Metering ? Powiedz no mi co to jest ten Flip Metering.
Pewnie to samo co Optical Flow Accelerator
KTÓREGO JUŻ NAGLE RTX 4xxx NIE POTRZEBUJĄ ABY DZIAŁAŁ FG NA NICH.

A PODOBNO TO BYŁO NIEMOŻLIWE I DLATEGO STARSZE KARTY NIE DOSTAŁY FG.

No teraz mamy Flip Metering który pewnie w następnej generacji tez nagle magicznie już nie będzie potrzebny.

Mam ci narysować czy już kumasz co się dzieje. Pierdolenie marketingowe level END GAME a wy dalej to samo.

  • Like 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...