Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano

Dla mnie osobiście 80 klateczek zapewnia fajne wrażenia z gry. Więcej jest fajnie mieć, ale dla mnie nie jest to must have. Na 4090 przy moim oledzie 120hz, zdecydowanie wolałem 80 natywnych klatek, od generowanych fejkowo 120.

Opublikowano
Teraz, galakty napisał(a):

Ale to dalej nie są prawdziwe klatki i frametime nie spada magicznie xD Wręcz rośnie przy x4 względem x2...

Jasne, ale chodzi o to, że jeśli jednak ten FG będzie działał świetnie przy wyższych ilościach klatek, to będzie w grze w 120fps możliwa różnica między  prawdziwymi klatkami rozmytymi w ruchu, a wygenerowanymi i ułomnymi klatkami, ale za to bez rozmycia w ruchu. I tutaj nawet z kilkoma artefaktami może być sumarycznie znacznie lepiej, a input lag w grach typu Wieśmin czy RDR2 nie będzie aż tak wielkim problemem jak startujemy ze 120fps (prawdziwych) przed FG. 

Opublikowano (edytowane)

Ale po co tego używać w grach jak Wiedźmin? Przecież to typowo do strzelanek i esportu jest, a nie gier AAA :E 

 

Mocno na siłę, w sensie spoko że będzie taka możliwość, ale wolałbym więcej mocy w rasterze niż sztuczne klatki. Naprawdę aż tak się zatrzymaliśmy w rozwoju, że bez sztuczek programowych nie damy rady? 

 

Pomijam totalnie fakt, że mało gier ma FG!

Edytowane przez galakty
Opublikowano (edytowane)
14 minut temu, galakty napisał(a):

Ale po co tego używać w grach jak Wiedźmin? Przecież to typowo do strzelanek i esportu jest, a nie gier AAA :E 

 

Mocno na siłę, w sensie spoko że będzie taka możliwość, ale wolałbym więcej mocy w rasterze niż sztuczne klatki. Naprawdę aż tak się zatrzymaliśmy w rozwoju, że bez sztuczek programowych nie damy rady? 

 

Pomijam totalnie fakt, że mało gier ma FG!

Ja też bym wolał prawdziwe, ale mamy co mamy.

Oczywiście, że bez AI się by dało poprawić wydajność, ale Nvidia po prostu nie widzi potrzeby, żeby robić GPU do gier. Skoro i tak już inwestują tyle w AI, to wystarczy powiedzieć działowi marketingu, że mają tak to przedstawić, że niby to super sprawa dla graczy i pora na CSa.

Jasne, że rozwój jest wolniejszy i droższy, ale jak coś kosztuje 50$ + 200$ marży, to wzrost ceny z 50 na 100$ nie musi oznaczać zmiany ceny z 250 na 500$ za GPU.  To tylko przykład, oczywiście, nie mówię, że Nvidia ma 400% na każdym GPU.

Jednak jeśli za taki sam chip mogą zarobić więcej dając chip klientom kupującym dla AI, to Nvidia po prostu nie widzi powodu, żeby się wysilać. Intel kuleje w DX 9/10/11 i ich dział discreet GPU ledwo zipie, AMD już nawet nie udaje, że walczy, to po co się wysilać.

 

Apropo. Ktoś liczył ile segment AI zjada powierzchni takiego 4070 czy 4090? W 5xxx pewnie jeszcze więcej.

 

A tu jest  coś o GDDR7 i tam jest mowa o obniżonym czasie dostępu (latency). To mi brzmi zbyt pięknie, żeby było prawdziwe. Pamięci projektowane pod maksymalną przepustowość nigdy nie miewają poprawy w latency a tu nagle mają mieć? Bardzo ciekawe. Oby się potwierdziło.

 

Edytowane przez VRman
Opublikowano (edytowane)
18 minut temu, Tester Wrażeń napisał(a):

Chciałbym zobaczyć obraz przy x20 XD

Nie chciałbyś... przed chwilą to sprawdziłem na laptopowym RTX 4090 i efekt jest katastrofalny. Ghosting taki, że rozmydla wszystko, co widać na ekranie + input lag na poziomie 160 ms, generalnie niegrywalne. 

Ale muszę przyznać, że ten LSFG 3.0 w przypadku x3 i x4 działa o wiele lepiej od poprzednika. Nadal jest ogromne smużenie i opóźnienia, ale już bez tragedii. 

Edytowane przez Gasparo
  • Haha 1
Opublikowano
1 godzinę temu, green1985 napisał(a):

Nie wiem czy już było, ale na tym fragmencie filmu widać wyraźnie artefakty generowane przez MFG. Zobaczymy jak z czasem z tego wybrną. Czego by nie zrobili, dla mnie ta generacja do pominięcia, przede wszystkim brak gier, dla których warto by było znowu dokładać 5-6 tyś. zł. Może KCD2, ew. dojdzie parę gierek z biegiem czasu, ale wątpię, by to uzasadniało zmianę. No i umówmy się, do przeskoku 3090 -> 4090, gdzie 4090 wygrywało czystą mocą, to w tym przypadku daleko. FG? Próbowałem w TLOU i szybko wyłączyłem, co chwilę ghosting zabijający totalnie imersję. Dopóki tego nie ogarną, to ja za fejk klatki dziękuję.

 

 

Takie cuda to tylko jak się zmienia proces produkcyjny na mniejszy.

Do tego przy 3090-> 4090 doszła zmiana ze słabego procesu Samsunga na o wiele lepszy TSMC więc tam kop był w zasadzie podwójny.

  • Upvote 1
Opublikowano (edytowane)
12 minut temu, Phoenix. napisał(a):

Szybciutko dodaja karty do zakladek :D Chyba nie braknie.

No nie tak szybciutko.
5090 dalej tylko trzy sztuki.
Może to oznaczać, że ich dostępność będzie pieruńsko kulawa.
Pewnie większość gdzieś pod stołem zakontraktowana dla AI firemek przez dostawców.
5090 w naszych domach zobaczymy jak świnia niebo.

Edytowane przez Umpero
  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • W ciągu 3 tyg. przerobiłem: pad ---->>> zabawka Esperanza za 100zł --->>> PXN 900 V2 ---->>>> Moza R3  Jak solidniej protestuję to napiszę. Na wielki minus, że nie ma łopatologicznie, obrazkowo (dla takich nieogarów jak ja  ) opisanego jak podłączyć koło do bazy.... Chłop 1,5 godziny kombinował i tak zrobił źle. Instrukcja po angielsku, po polsku, filmy na YT a i tak źle. Dla osób mało uważnych czy słabych w kwestiach przykręcania, mocowania i doczepiania, a do tego zmęczonych nie ma dokładnie opisanego w instrukcji. Najpierw trafiłem na jakieś filmiki do R5 i szukałem prostokąta  . Na filmie na YT ktoś coś mówił o jakiejś śrubie, że ma być pionowo  . W końcu przeczytałem kolejny raz instrukcję i zaskoczyłem, że trzeba założyć wg pierścieni. No i założyłem. Tak mi się przynajmniej wydawało.... Podpiąłem do komputera i bazę program widział, ale nie koło. Oczywiście na początku nawet nie ogarnąłem, że to co innego. Odłączyłem USB i podłączyłem. Myślałem, że coś jest nie tak z kierownicą. No i kolejny raz ją wyjąłem i przyjrzałem się tym pierścieniom i odkryłem, że nie ma po 6 po obu stronach, jak wcześniej myślałem tylko są 6 i 4 tak trzeba włożyć do bazy...  No i kliknęło dosłownie i w przenośni. Wcześniej miałem włożone tak, że wystawały te pierścienie. Od razu mi się nasunęło niecenzuralne skojarzenie...     Czyli jeszcze raz - jak ktoś będzie takim nieogarem jak ja to wkładamy 6 pierścieni na 6 miejsc na nie w bazie i 4 na 4 i tylko tak  W instrukcji zdecydowanie powinno to być bardziej obrazkowo     Potem problem z Omsi. Działa FFB ale nie były widziane wszystkie przyciski, ale i to ogarnąłem. Generalnie nie zagrałem jeszcze w żadną grę. Nawet nie ustawiłem tej kierownicy w żadnej grze a zabrało mi to 5 godzin. Fakt, że łącznie z przykręceniem do stojaka i różnym ustawianiem kątów kierownicy i pedałów, przykręcaniem wszystkiego itp ale jednak dużo czasu.   To co już mi się mega podoba to jej wielkość. Akurat bardzo potrzebowałem takiej kompaktowej bazy bo gram przed TV na fotelu wypoczynkowym więc ułożenie jest mocno niestandardowe. To ogromny plus, że baza jest taka mała. Dużo mniejsza np. od Trustmastera czy Logitecha. A siła FFB taka, że za głowę się złapałem  Po zabawie z aktualizacją na PXN (dodajmy nieudaną aktualizacją) to tutaj to jest mega zrobione, bo można nawet zaktualizować sobie do określonej wersji. Natomiast mały minus, że nie ma mapowania przycisków do klawiatury czy myszy co jest w padach. A właśnie tu by to się mega przydało do Omsi. Bo Windows nie widzi wszystkich przycisków. No i zobaczymy jeszcze jak będzie w Fernbusie     
    • Natywna jest dla zarządu, a w tym wątku co generacja DLSS, to jest "pa tera". Ale wiecie, że jak już wjedzie to DLSS 5 całe na biało, to klękajcie narody.
    • Za drogo, 14400F to wydajność 12400F + 4 małe rdzenie do nabijania punktów w benchmarkach, a że 12400F to w zasadzie poziom 5600 to w zasadzie nic poza DDR5 nie ratuje tego zestawu.  Minecraft to gra która siedzi na jednym rdzeniu procesora a GPU służy do wyświetlania obrazu na monitorze. ATX to głównie kabelek. A Vero jest za drogie, w tej samej cenie co 650W Vero L6 jest XPG Kyber 750W, ATX 3.0 i jednak lepsza jednostka.
    • Ludzie uszkadzają sprzęt elektroniczny mechanicznie z własnej winny i tu się nic nie zmieniło  Ode mnie podpity majster odbierał telewizor i wychodząc przez drzwi rozwalił matrycę   Ale to nie byłeś Ty  Jak masz sztywną budę, płytę/slot pci-express oraz dobrze usztywnioną kartę to żadna podpórka nie jest potrzebna. Wszystkie najdłuższe i najcięższe karty u mnie nie opadają i z 5090 jest dokładnie to samo 
    • No właśnie, kolejne Next Fest to coraz większy zalew śmieci. Owszem, wśród najpopularniejszych zdarzają się rzeczy ciekawe - ale zastanawiam się czasem, ile ginie w gąszczu tytułów. Chociaż może skoro giną, to tylko na to zasługują... ciekawe, ile osób przeczesuje sumiennie cały katalog lub choćby gry z najbardziej interesujących je gatunków.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...