Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
28 minut temu, Doamdor napisał(a):

Popatrz na screeny jeszcze raz, a zobaczysz, która karta jest za słaba do PT z DLSS Q. 

PT nie jest przymusem, ani obowiązkiem, więc bez niego w 4K jest tyle fps. Zrzutekranu2025-07-06030248.thumb.png.36d3d840ecb14b10547e827cd5787ae0.png

 

Jeżeli czekasz na natywne 4K z PT i ponad 100 fps w każdej nowej grze, to się tego nigdy nie doczekasz. :hihot:

HDR

O kierwa jaki FPS wysoki, to na Ultra? Czy na High? No jeżeli to stabilne to tak to można grac :D 

Opublikowano
6 minut temu, Doamdor napisał(a):

@Kadajo Nvidia miała dostęp do 3nm w 2024r i tego nie wykorzystała w RTX 50xx?

Nie o to chodzi. Tylko o to jak przycięła układy i jak zażydziła na pamięci. ZNOWU.

A tutaj ktoś liczy, że BĘDZIE LEPIEJ...

Kto wie jak już będzie totalnie źle, a pewnym sensie już jest kibel to może faktycznie gorzej nie będzie, ale to nie oznacza z automatu ze bedzie lepiej.

 

  • Upvote 3
Opublikowano

@Kadajo Ostatnie dobre cięcie było w serii RTX 30xx, teraz największy kawałek tortu dostają ci, co zapłacą najwięcej, a reszta jak nie chce płacić, musi się zadowolić okruszkami. :E Kolejna generacja kart graficznych, to będzie RTX 6090 i długo, długi nic. :E

32 minuty temu, maxmaster027 napisał(a):

O kierwa jaki FPS wysoki, to na Ultra? Czy na High? No jeżeli to stabilne to tak to można grac :D 

Ultra 

 

Tu po OC

 

Zrzutekranu2025-07-29232402.thumb.png.4ffeb56526580bec1be6f65a0a9efe93.png

 

Jak ktoś nie lubi DLSS i RT/PT, to bez problemu może grać bez. 

  • Upvote 1
Opublikowano
15 minut temu, Doamdor napisał(a):

@Kadajo Ostatnie dobre cięcie było w serii RTX 30xx, teraz największy kawałek tortu dostają ci, co zapłacą najwięcej, a reszta jak nie chce płacić, musi się zadowolić okruszkami. :E Kolejna generacja kart graficznych, to będzie RTX 6090 i długo, długi nic. :E

Ultra 

 

Tu po OC

 

Zrzutekranu2025-07-29232402.thumb.png.4ffeb56526580bec1be6f65a0a9efe93.png

 

Jak ktoś nie lubi DLSS i RT/PT, to bez problemu może grać bez. 

 

asdf11.gif.3044e3775e6f1921d85bc7c1e80e8b74.gif

łomatko to to nie było po OC i jeszcze ultra:hihot:


Bez RT/PT 5090 ma jakas nadzwyczaj dobra wydajnosc

Opublikowano (edytowane)

Widzę, że już więcej osób, nie tylko ja + 2 inne, zaczyna pisać, że spodziewają się totalnego paździerza  + AI po tej następnej serii.

Ale to i tak za optymistycznie.

Pojawiły się tu wcześniej nadzieje, że 6090 może wyjdzie wcześniej. Np. za rok czy półtora, np. listopad 2026. No to...

 

6090 w 3nm = marzec-lipiec 2027 :hahaha::hahaha::hahaha::hahaha:

 

Gość ostatnio sporo dziwnych rzeczy gada, nie oceniałbym jego info jako jakoś specjalnie mocno wiarygodnego, ale jeśli to prawda to nieźle :E

Za PONAD dwa lata zamiast szybciej. To będzie odświeżony raster z 4090 pewnie. Skoro można było z tego skorzystać w 5090 to pewnie i do 6090 nic nie poprawią. W końcu po co? Konkurencji nie ma, a to na segmencie AI się Nvidia skupia tak w sensie rynku jak i w sensie segmentu GPU który zostanie dedykowany AI. 

 

"Let that sink in"

5090 dostaliśmy za 200% chorej ceny. Nie we wrześniu-październiku 2024, jak powinno, ale później. Teraz od tego minie dwa i pół roku, żebyśmy dostali jakieś guano w 3nm :E

 

 Jeśli ta plotka się potwierdzi to mamy pomiędzy realnym postępem stricte technologicznym siedem i pół roku przerwy (4090 vs 6090), bo jeśli 6090 będzie na 3nm, to jakiś realny postęp w rasterze pewnie dopiero w 2nm, a to 2-3 lata później, czyli 4-5 lat od teraz. W najlepszym razie odjąć pół. 

 

Edytowane przez VRman
Opublikowano (edytowane)
12 minut temu, Kadajo napisał(a):

Oni mogą dowalić cenę jaka chcą, jak się tłum oburzy to zrobią korektę. Ale jak widać nawet 20k za karty to nadal deal do przyjęcia :smiech:

Tłum graczy się oburzy, tłum ludzi kupujących do pracy i do AI (oraz skalperzy oczywiscie) znowu powykupują, dając Nvidii znać, że podwyżka była dobrym pomysłem. Gracze nie mają już żadnego głosu w tej półce cenowej. Graczy których stać  na karty za 3000€+ jest promil, a jeszcze odjąć tych których stać, ale którzy nie widzą sensu - jeszcze mniej.

 

To będzie piękna katastrofa. Karty od AMD i NV w 3nm w koniec 2026-połowa 2027, do tego konsole tak kartoflane, że się Jaguar w PS4 przypomni, a potem gracze klęczący przed CEO obu firm, błagający aby w 2029 dostali coś w 2nm TSMC a nie np. Intelu czy Samsungu na poziomie TSMC 4nm :E

Oczywiście obok tego będzie rozwój AI i będziemy słuchać i oglądać na ekranach rewolucję. Z cieniami aktualizującymi się w ciągu kilku sekund, z sieczką w ruchu, artefaktami z odpowiednika Reflexu 2 i w 360p natywnie na konsolach nextgen i 720p na kartach mid-range za jedyne 1200$+VAT. No i input lagiem, ale przecież to nie szkodzi. Ludzie sie przy okazji ładnie "podgotują" i przyzwyczają do IL, co pomoże potem z przejściem na cloud gaming.

 

Ale za to VRAMu będzie więcej i ludzie będą kupować karty do puszczania modeli AI lokalnie. Korpo do 2030 wyciągną wnioski, że granie lokalne przestaje się podobać i przesuną plany na granie zdalne. RTX 9090 już będzie chipem sprzedawanym w serwerowych rackach, a nie dla użytkowników domowych, a PS7 i Xbox SXSXSXSXXXXX+X będą nazwami usług serwerowych do "cloud gamingu".

 

Edytowane przez VRman
  • Upvote 1
Opublikowano

Niezła odklejka w tym wątku się zrobiła gdzie lider branży jest hejtowany za to, że numerki sie nie zgadzają bo kiedyś było inaczej:boink: a to, że granie w takim srednim/ niskim segmencie jest tańsze niż w poprzedniej serii to nie już ważne bo kiedyś nazwy co innego znaczyły... Niech top kosztuje i 30k ale dotąd będę propsował nvidie dopóki będzie pchać branże do przodu a robi to zarówno pod względem zwiększania wydajności jak i innowacyjności

  • Haha 1
  • Confused 2
Opublikowano
10 godzin temu, Kadajo napisał(a):

ja nie neguje postępu, tylko zaznaczam ze Nvidia zaczyna prawdziwa wydajność zastępować sztuczkami.

....

Co do DLSS, założenie jak najbardziej fajne, dziś DLSS naprawdę robi robotę po przejściu na Transformera no i co z tego jak zaczęto go wykorzystywać nie jako BOOST tylko jako tuszowanie kiepskich optymalizacji.

czyli jednak da sie. to nie wina nv, ze gry nie sa optymalizowane. uwazasz, ze 600W GPU + 200W CPU jest dobrym kierunkiem? bo dokladnie takie masz oczekiwania, ktorych nie da sie spelnic bez kolejnych  mld trn i kolejnych W. imo kierunek nv jest dobry - minimalizowanie hardware na rzecz softu/algorytmu/AI. szczegolnie jezeli piszemy o graczach. setki W jakie teraz sa wymagane, aby normalnie pograc to patologia i z tym powinnismy walczyc, a nie z rozwojem  technologii umozliwiajacyh zmniejszenie ilosci danych, ktore system musi przemielic, aby wygenerowac jedna kl. nv powinna dostac karnego k za wszystkie x090. jak juz mamy je rozdawac, a poklepana po ramieniu za rozwoj np. AI i DLSS

ceny karta  graf.  powiedz mi co stoi na przeszkodzie i dlaczego nie jest mozliwa sytuacja jak w przypadku karta np. rtx pro/ quadro, gdzie placisz wiecej za soft niz sam hardware. pewien jestem, ze juz teraz w cenie karty graf mamy sporo kosztow technologiczych i jescze wiecej kosztow zwiazanych z R&D/AI. 

 

Opublikowano

Wiadomo ze to nie wina Nvidii, chociaż nie wykluczałbym dziś patologi typu róbcie gówno optymalizacje żebyśmy mogli sprzedać nasze gówniane technologie.

Ja mam oczekiwania ze Nvidia jako blirardowa korporacja zaprojektuje porządne układy które są wydajne i nie pożerają megawatów energii. Jak tego nie potrafią to co z nich za lider innowacyjności.

Chcieli RT/PT to niech teraz dadzą do tego odpowiedni sprzęt a nie jakieś gówno, a może właśnie taki plan był od początku bo ja tu widzę piękną krowę do dojenia bez dna na co najmniej kolejna dekadę, dwie.

Może mieli pecha ze akurat rozwój RT wbił się na pal krypto covidow i tego gówno AI ale to nie zmienia faktu ze te karty mogłyby być lepsze i to tylko i wyłącznie pazerność Nvdii sprawiła ze wszytko poniżej 5090 to szit wybitny.

To wygląda i nie jestem sam w tym stwierdzeniu ze Nvidia już te karty robi na odwal byle było bo i tak się znajda jelonki co i tak zapłacą za to krocie i będą jeszcze bornic tej ich pożal się boże innowacyjności i innego pierdololo. Na zakończenie wkleję tylko ten obrazek mem który stal się symbolem upadku i kłamstw jakimi nas ta firma mami.

 

nvidia-announces-rtx-5070-with-4090-perf

 

Mam wam kurwa kolejny raz tłumaczyć co znaczy "performance" czy tym rzem pamiętaliście o tym chociaż przez 24H ?

  • Upvote 3
Opublikowano

No bo jak można nie widzieć tego co ta firma wyprawia. Albo jeszcze gorzej, ignorować to.

I niech se tam każdy kupuje co chce nic mi do tego. Ale no nazywajmy rzeczy takimi jak są a nie "ja jestem zadowolony" to jest super.

Jak nie będziemy krytyczni to będzie tylko gorzej, no bo jak oni widza ze mogą sprzedać swoim klientom kazde gówno oprawione w złoto to co się dziwić.

 

Serio jak widzę ze ktoś pisze o M(FG) i ze to wydajnosc to się nóż w kieszeni otwiera.

To nie ma nic wspólnego z wydajnością, NIC ZERO.

  • Upvote 1
Opublikowano

gdyby robili karty na odwal, to nie wprowadzali by zmian w tensorach i nie dodawali np. hardware Flip Metering. to jak rozwija sie DLSS i jak optymalizuja hardware pod AI, pokazuje kierunek w jakim ida. dokladnie to samo bedze w przypadku MFG. 

Opublikowano
4 minuty temu, SuLac0 napisał(a):

gdyby robili karty na odwal, to nie wprowadzali by zmian w tensorach i nie dodawali np. hardware Flip Metering. to jak rozwija sie DLSS i jak optymalizuja hardware pod AI, pokazuje kierunek w jakim ida. dokladnie to samo bedze w przypadku MFG. 

Tak, tak, Tensory tak zoptymalizowali ze w RT gówno się zmieniło za to AI w kosmos wywaliło. Super bo przecież AI jest nam tak W GRACH POTRZEBNE.

Flip Metering ? Powiedz no mi co to jest ten Flip Metering.
Pewnie to samo co Optical Flow Accelerator
KTÓREGO JUŻ NAGLE RTX 4xxx NIE POTRZEBUJĄ ABY DZIAŁAŁ FG NA NICH.

A PODOBNO TO BYŁO NIEMOŻLIWE I DLATEGO STARSZE KARTY NIE DOSTAŁY FG.

No teraz mamy Flip Metering który pewnie w następnej generacji tez nagle magicznie już nie będzie potrzebny.

Mam ci narysować czy już kumasz co się dzieje. Pierdolenie marketingowe level END GAME a wy dalej to samo.

  • Like 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • rezerwuar + pompa EKWB EK-XRES 140 D5 PWM Combo + 2x Bracket 140/120mm   blok cpu EKWB Supremacy EVO Copper   chłodnica Alphacool NexXxoS XT45 Full Copper 280mm
    • Ja wybrałem 19" zamiast 120"   Wybrałem TN zamiast VA. Wybrałem siedzenie na zabytku zamiast kupowania nowego monitora.    Owszem, szkoda, że nie ma tego w OLEDach i nie będzie, bo brakuje OLEDom jasności. Szkoda, że tylko 27" i szkoda że w cenie z dupy (prawie 2x drożej za LCD 27" 1440p w porównaniu do najtańszych OLED 27" 1440p to jest przegięcie pały) i tak dalej.    Ze srebrzeniem to jak z ludźmi nie rozumiejącymi jak ja mogę grać na TNce - trzeba by zobaczyć to na żywo, bo wcale nie ma takiej tragedii, a jak przysiąść dłużej i pomyśleć nad tym co bawi bardziej, to wychodzi, że jednak jak już trzeba rezygnować to lepiej z super-czerni czy HDRu. Oczywiście to zależy od tego jak i w co ktoś gra. Ktoś grający w 40-50fps i w 90% w gry szaro-bure i horrory z akcją w nocy na pewno z zakupu monitora z Pulsarem zadowolony nie będzie.    PS. Pół forum frazpc mnie wyśmialo w 2013/14r. jak pisałem, że Gsync to ZŁA wiadomość dla graczy, bo odepchnie branżę od popularyzacji grania bez rozmytego ruchu. Musiało minąć 12 lat, żeby łysy z DF wypowiedział te same słowa, ale tym razem nikt się nie puka w głowę. Gsync zniszczył szanse na granie w low persistence.  Mogliśmy jako gracze wyjść z ery kamienia łupanego w kontekscie ruchu już wtedy, a Gsync nas przytrzymał o ponad dekadę dłużej. Do tej pory bywały jakieś mniej lub bardziej udane próby połączenia g-synca z low persistence, ale dopiero w Pulsarze jest to zrobione na akceptowalnym poziomie. W zasadzie to ten Pulsar to pierwszy monitor na świecie, u którego obecność G-sync w ogóle mnie jakkolwiek interesuje. TERAZ to ma sens. Bez Pulsara to zawsze wolę po prostu podłubać w ustawieniach albo wybrać wręcz inną grę do grania. 30 lat ustawiam gry aby nie spadały poniżej danego pułapu dla v-synca i nie wiem czemu ludzie tak na to marudzą, jakby to wymagało stu godzin pracy, żeby ustawić grę i inne rzeczy jak tripple buffer itp.  No z nowym sprzętem w nowych grach, gdzie jest problem na najlepszych kompach zablokować choćby 90fps, to się g-sync bardzo przyda do generatora klatek, który z v-sync nie działa albo ma masę wad.    Szkoda, że tak powoooli im z tym idzie. Jeśli to prawda co mówili na filmiku, że Pulsara pokazywali już 2 lata temu, to przejście Pulsara w tańsze modele monitorów i przejście na inne przekątne i rozdzielczości też może się strasznie ślimaczyć
    • No widziałem że z putlerem cos jest nie takk.......ale że jest kobietą?
    • Ta sama cena tak samo jak N3 też jest w tej samej cenie  Dopiero N2 większy kopniak i sporo wyższa cena.
    • Ponoć wentyle lubią padać w ASUS GeForce RTX 5070 Ti PRIME OC 16GB DLSS 4. Niby nawet krąży przepis na wydrukowanie wentyli w drukarce 3D do tego modelu. No i chyba często świerszcz. Za dużo człowiek czyta i mętlik. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...