Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
1 minutę temu, Doamdor napisał(a):

Jesteśmy skazani na Kurteczkę i jego produkt, lecz zawsze jest z tego wyjście, zmienić hobby. :hihot:

Nie trzeba zmieniać hobby, na słabszym sprzęcie też można pograć tak jak nie trzeba mieć słuchawek za ćwierć bańki żeby słuchać muzyki ;)

  • Upvote 5
Opublikowano
1 minutę temu, Kris194 napisał(a):

Nie trzeba zmieniać hobby, na słabszym sprzęcie też można pograć tak jak nie trzeba mieć słuchawek za ćwierć bańki żeby słuchać muzyki ;)

Dlatego dla ciebie jest RTX 5070, a dla mnie RTX 5090. :piwko:

  • Thanks 1
  • Haha 3
Opublikowano
11 minut temu, maxmaster027 napisał(a):

Tak wiem. 
"

Jak działa technologia reflex 2

Technologia NVIDIA Reflex 2 to zaawansowany sposób na zmniejszenie opóźnień wejściowych w grach komputerowych. 

Synchronizacja CPU i GPU: Reflex 2 synchronizuje pracę CPU i GPU, co pozwala na szybsze odzwierciedlanie działań gracza w grze.

Frame Warp: Najnowsza technologia Frame Warp aktualizuje renderowaną klatkę na podstawie najnowszych danych wejściowych z myszy, nawet gdy klatka jest już w procesie renderowania. Dzięki temu najnowsze działania  są odzwierciedlane na ekranie niemal natychmiastowo.

Redukcja opóźnień: Reflex 2 może zmniejszyć opóźnienia nawet o 75%, co znacząco poprawia płynność i reaktywność gry"

Właśnie widać. Zauważ, że tylko twoje "najnowsze działania" będą szybciej odzwierciedlane a nie wszystko, np. ruch przeciwników itp.

11 minut temu, maxmaster027 napisał(a):

Redukcja opóźnień: Reflex 2 może zmniejszyć opóźnienia nawet o 75%, co znacząco poprawia płynność i reaktywność gry"

Niby na jakiej zasadzie? Już pierwsza wersja Reflex działa w ten sposób, że każda klatka obrazu jest renderowana przez GPU niezwłocznie po tym jak CPU skończy ją obliczać. A może z tym o 75% to im chodzi, że teraz jest np. 2 ms opóźnienia a będzie 0,5 ms opóźnienia.

  • Upvote 1
Opublikowano
13 minut temu, Doamdor napisał(a):

Niższy proces technologiczny nie będzie tańszy, a patrząc jakie oni mają parcie na AI, to dostaniemy jeszcze więcej AI w RTX 6xxx, oraz nowe wyższe ceny. :E

Jak teraz podrożał RTX 5090, to w następnej generacji podrożeją modele niższe, które zaoferują większy wzrost wydajności od obecnych modeli. 

Jesteśmy skazani na Kurteczkę i jego produkt, lecz zawsze jest z tego wyjście, zmienić hobby. :hihot:

 

tenor.gif

 

 

Niestety tak prawdopodobnie będzie, zwłaszcza że dojdzie nowy oraz droższy proces 3nm i znów 6090 400-500$ w górę a pozostałe modele +100-200$

Opublikowano (edytowane)
17 minut temu, Spychcio napisał(a):

Niestety tak prawdopodobnie będzie, zwłaszcza że dojdzie nowy oraz droższy proces 3nm i znów 6090 400-500$ w górę a pozostałe modele +100-200$

Ostatnio jak Nvidia nie czuła oddechu konkurencji na karku, to na bezczela graczom walnęła proces Samsunga będący upudrowanym 10nm jak dostępne już było TSMC 7nm.
Przyznam, że nie szukałem, a może ktoś widział jakieś sensowne info o różnicach w procesie 3nm vs. 4nm w przypadku układów o charakterystyce gamingowych GPU, a nie tylko ogólnie?
Jak różnica jest typu 10% to Nvidia może po prostu kompletnie olać ten proces skoro nikt z AMD lub Intela i tak im nie podskoczy w GPU do gier. Dadzą kostki GDDR7 3GB, jakieś AI które rewolucyjnie potrafi posprzątać ikonki na pulpicie i przewidzieć zużycie kabli w myszce i klawiaturze i starczy.

Edytowane przez VRman
Opublikowano
41 minut temu, RTX5090 napisał(a):

czas sprzedać 4090

ktoś chce 4090 z blokiem wodnym ale bez gwarancji :D

Przestań pitolić. Siedź na tym co masz.

Godzinę temu, DżonyBi napisał(a):

Testowalem 4090 Aorusa i nie chce mi sie rozpisywac, ale bardzo sie rozczarowalem. Tam wszystko bylo nie tak, lacznie z Gigabyte Control Center.

 

Szeroki cooler, gdzie mialem problem z zamknieciem obudowy, agresywna domyslna krzywa wentyli, ktore zyly wlasnym zyciem. Nawet ten glupi wyswietlacz na karcie lapal zwiechy. I nie, nie mialem wadliwego egzemplarza, po prostu paździerz. Nigdy wiecej Gigabyte.

To żeś mnie zniechęcił.
Wersja Aorus miała być moim pierwszym wyborem.
Mam obecnie 3080 Ti Gigabyte OC. Wcześniej miałem 3080 od PNY.
Gigabyte przy PNY to oaza ciszy.

Opublikowano (edytowane)
9 minut temu, Umpero napisał(a):

To żeś mnie zniechęcił.
Wersja Aorus miała być moim pierwszym wyborem

To jest moje zdanie na podstawie jednej karty, ale tak sie zniechecilem, ze nie mam ochoty juz probowac z innymi kartami od GB. Mozesz wyprobowac Aorusa 5080 czy 5090 - to moze byc inna para kaloszy.

Edytowane przez DżonyBi
Opublikowano
48 minut temu, Doamdor napisał(a):

Dlatego dla ciebie jest RTX 5070, a dla mnie RTX 5090. :piwko:

A miej sobie nawet tego RTX 5090, naprawdę. Mi osobiście znudziła się ta walka "o lepszą przyszłość dla graczy".  Po pierwsze dlatego, że na przestrzeni lat dostałem wystarczającą ilość dowodów, że kijem Wisły nie zawrócę a po drugie to i tak jest już za późno.

 

Co do mnie to ja się zatrzymałem na RTX 3080 i dalej nie idę. Kiedyś jak Intel w końcu ogarnie stery to może sobie kupię jakąś ich kartę z DP 2.1 do zabawy ale to tyle.

  • Upvote 3
Opublikowano
5 minut temu, Pentium D napisał(a):

Przy kupie też dużo much się kręci, ale czy to znaczy że kupa jest dobra? Linus już pokazywał, że jest ghosting przy tych fejkowych klatkach.

Pierwszy będę wylewał pomyje na artefakty i inne problemy z FG, ale trzeba być uczciwym i napisać to:


Mógł pomylić wady o których mówi  z dwoma innymi, nie mającymi nic wspólnego z generowaniem klatek. Dowodził braku swojej wiedzy ignorancji wiele razy. Może jakby tam był Steve z Hardware Unboxed, to jeszcze by miało sens posłuchać co mówi, ale nie Linus. 
Zresztą nawet jeśli, to i tak jest nadal nadzieja, że ten generator będzie przydatniejszy niż DLSS3.x 

 

Opublikowano
7 godzin temu, VRman napisał(a):

Zaraz, zaraz. To istniały w ogóle karty w wersji Noctua bez ceny z kosmosu? 

 

Mam do tej pory 3080 Noctua i była względnie tania. Kosztowała jakieś 300 zł więcej niż inne wersje. 4080 to już była różnica ponad 1000 zł, więc sporo.

Opublikowano
3 godziny temu, maxmaster027 napisał(a):

u masz również widoczny latency 42ms. ~240-250fps jak dasz 6:40 min. Dlatego to o czym mówisz nie ma racji bytu. Ten nowy DLSS 4.0 jest po prostu duzo lepszy od DLSS 3. Polecam zapoznac sie z fimem. 

Latency 4090 vs. 5090, też od Linusa:

 

dsgsdg.jpg

I właśnie dlatego MFG jest bezużyteczne.

Opublikowano
1 godzinę temu, Doamdor napisał(a):

Niższy proces technologiczny nie będzie tańszy, a patrząc jakie oni mają parcie na AI, to dostaniemy jeszcze więcej AI w RTX 6xxx, oraz nowe wyższe ceny. :E

Jak teraz podrożał RTX 5090, to w następnej generacji podrożeją modele niższe, które zaoferują większy wzrost wydajności od obecnych modeli. 

Jesteśmy skazani na Kurteczkę i jego produkt, lecz zawsze jest z tego wyjście, zmienić hobby. :hihot:

 

 

 

3nm ta sama cena, ale 2nm to min 1.5x wyższa cena. Mowa o TSMC. Ceny 5nm i 3nm w 2025 i tak wzrosną o kilka procent.

  • Upvote 1
Opublikowano (edytowane)
8 minut temu, sideband napisał(a):

3nm ta sama cena, ale 2nm to min 1.5x wyższa cena. Mowa o TSMC. Ceny 5nm i 3nm w 2025 i tak wzrosną o kilka procent.

Oj tam 6xxx w 3 nm 

 

6070 6 tyś

6080 9 tyś

6090 15 tyś :E

 

+ vat i marża :wariat:

 

Edytowane przez Brolly
Opublikowano

Tu na forum powinno się założyć 2 tematy odnośnie 50XX, jak na BSN'ie odnośnie gier - jeden temat skierowany na HYPE, gdzie ludzie nagrzani na karty sobie dyskutują jakie modele kupią, pokazują fotki, wymieniają się doświadczeniami, zachwalają itd.; oraz drugi temat skierowany na KRYTYKĘ, gdzie inni ludzie będą dyskutować jakie to karty za drogie, za wolne, byle jakie i ogólnie do dupy. Miałoby to większy sens. A zamiast tego jeden czy dwóch panów którzy się cieszą że kupią sobie nową kartę pozostają bez odpowiedzi i reakcji na swoje posty, które często giną w gąszczu narzekań jakie to wszystko jest złe. Szyny też były złe.

 

image.png.117dd20126e21a5c8820c9d2adcbbd54.png

 

image.png.c16664f0eb9e9d35820643c9212992e0.png

  • Like 3
Opublikowano
36 minut temu, kalderon napisał(a):

Latency 4090 vs. 5090, też od Linusa:

 

dsgsdg.jpg

I właśnie dlatego MFG jest bezużyteczne.


Nie wiem skad wziałeś ten urywek, 
youtube.com/watch?v=3a8dScJg6O0&t=258s
linus.thumb.png.567b88504893c83a3fb591fa7c908044.png

 

W każdym bądź razie latency oscyluje i nie jest ciągłe. +-4ms. Używac tego oczywiscie nie trzeba, mysle że kazdy będzie tego używał jeżeli ms bedzie poniżej 50-60, szczególnie w grach fabularnych.

23 minuty temu, Brolly napisał(a):

Oj tam 6xxx w 3 nm 

 

6070 6 tyś

6080 9 tyś

6090 15 tyś :E

 

+ vat i marża :wariat:

 

O panie 6090 w 3nm xD Toż to będzie potworek. Pewnie koło 30k CUDA, albo i wieciej, RT x2 itp itd. 
Aczkolwiek AI twierdzi, że blackwell juz jest w 3nm :) i to obydwie

copilot1.png.b0b279382f3a40600b4738286a6daab8.png

 

22222.thumb.jpg.2dbf80ee8b867d7f3f59d97b3f39db45.jpg

  • Haha 3

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Ok jak ktoś ogarnie jakąś fajną promkę na większy tv to niech cytuje i mnie wzywa. A jak jest naprawdę zdolny to ddr5 też mogą być 
    • Mam jeszcze jeden temat założony na swoim profilu który dodałem wczoraj opisujący naprawdę obszernie moje spadki/micro stuttering, może z tego jesteś wstanie wywnioskować gdzie mam szukać winowajcy. W tym przypadku po prostu postanowiłem najpierw w 100% wyeliminować winę tego problemu z strony jakiś moich złych ustawień lub jego braku gdzie procek się przegrzewa.  Odpowiadając do twojego komentarza:  W panelu sterowania od samego początku testowałem wysoka wydajność oraz najwyższa wydajność, nie było sytuacji żeby było oszczędzanie energii itd, tak samo w sterowniku Nvidia. Jeżeli chodzi o spadki z winy ustawień graficznych to grając w gry esportowe pokroju CS2/VALORANT/LOL/FORTNITE/OVERWATCH2/RAINBOW SIX SIEGE mam tutaj ustawienia na niskie i dalej te dziwne spadki bez żadnego obciążenia/dużej akcji na ekranie występują regularnie. E-cores wyłączyłem teraz na próbę i posprawdzam czy jest jakaś różnica. Okej czyli patrząc na screen tam gdzie są 2 strzałki w tych 2 tabelkach mam zmieniać tak? Kompletnie nie ogarniam tego i nawet oglądając przykładowo poradnik do UV tych procków od TechLipton czułem się jakbym oglądał czarną magię. Jakieś konkretne ustawienia pod ten procek? Bawić się swoją drogą ustawieniami Cpu Lite Load? Na zagranicznych forach czy Reddicie wiele osób poleca tam potestować i ciekaw jestem co lepsze czy kompletnie tego nie ruszać.  Edit: dopiero po mojej wiadomości zobaczyłem te 2 linki, co do pierwszego jest to identyczna wersja biosu oraz ta sama płyta którą posiadam, robiłem ustawienia z tego poradnika 1:1 i ten irytujący micro stutter dalej się pojawiał ( mówię o tym CPU LITE LOAD na MODE 15 itd, tylko nie wiem dlaczego w poradniku zostawił włączony CEP skoro ta funkcja jako pierwsza powinna być wyłączana podczas UV z tego co czytałem na forach MSI )
    • ale nie ma zadnego bledu. gra sie wylacza i  mam pulpit. po prostu
    • Cześć! Poszukuję sensownych monitorów do triple 32" 2560x1440. Muszą być płaskie i najlepiej na matrycy IPS. Odświeżanie minimum 120-144Hz, gsync/freesync. VA jest sporo, ale opinie już różne choć oczywiście nie wykluczam całkowicie tylko ciężko znów o płaskie na tej matrycy.  Budżet około 1000 zł sztuka.  Z góry dzięki za pomoc 🙂   
    • Zarzynasz sobie wydajność. Możesz wszystko dać na ultra ale nie zasięg widzenia oraz LOD - to są dwie najbardziej obciążające CPU opcje w grze.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...