Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano

Dla mnie osobiście 80 klateczek zapewnia fajne wrażenia z gry. Więcej jest fajnie mieć, ale dla mnie nie jest to must have. Na 4090 przy moim oledzie 120hz, zdecydowanie wolałem 80 natywnych klatek, od generowanych fejkowo 120.

Opublikowano
Teraz, galakty napisał(a):

Ale to dalej nie są prawdziwe klatki i frametime nie spada magicznie xD Wręcz rośnie przy x4 względem x2...

Jasne, ale chodzi o to, że jeśli jednak ten FG będzie działał świetnie przy wyższych ilościach klatek, to będzie w grze w 120fps możliwa różnica między  prawdziwymi klatkami rozmytymi w ruchu, a wygenerowanymi i ułomnymi klatkami, ale za to bez rozmycia w ruchu. I tutaj nawet z kilkoma artefaktami może być sumarycznie znacznie lepiej, a input lag w grach typu Wieśmin czy RDR2 nie będzie aż tak wielkim problemem jak startujemy ze 120fps (prawdziwych) przed FG. 

Opublikowano (edytowane)

Ale po co tego używać w grach jak Wiedźmin? Przecież to typowo do strzelanek i esportu jest, a nie gier AAA :E 

 

Mocno na siłę, w sensie spoko że będzie taka możliwość, ale wolałbym więcej mocy w rasterze niż sztuczne klatki. Naprawdę aż tak się zatrzymaliśmy w rozwoju, że bez sztuczek programowych nie damy rady? 

 

Pomijam totalnie fakt, że mało gier ma FG!

Edytowane przez galakty
Opublikowano (edytowane)
14 minut temu, galakty napisał(a):

Ale po co tego używać w grach jak Wiedźmin? Przecież to typowo do strzelanek i esportu jest, a nie gier AAA :E 

 

Mocno na siłę, w sensie spoko że będzie taka możliwość, ale wolałbym więcej mocy w rasterze niż sztuczne klatki. Naprawdę aż tak się zatrzymaliśmy w rozwoju, że bez sztuczek programowych nie damy rady? 

 

Pomijam totalnie fakt, że mało gier ma FG!

Ja też bym wolał prawdziwe, ale mamy co mamy.

Oczywiście, że bez AI się by dało poprawić wydajność, ale Nvidia po prostu nie widzi potrzeby, żeby robić GPU do gier. Skoro i tak już inwestują tyle w AI, to wystarczy powiedzieć działowi marketingu, że mają tak to przedstawić, że niby to super sprawa dla graczy i pora na CSa.

Jasne, że rozwój jest wolniejszy i droższy, ale jak coś kosztuje 50$ + 200$ marży, to wzrost ceny z 50 na 100$ nie musi oznaczać zmiany ceny z 250 na 500$ za GPU.  To tylko przykład, oczywiście, nie mówię, że Nvidia ma 400% na każdym GPU.

Jednak jeśli za taki sam chip mogą zarobić więcej dając chip klientom kupującym dla AI, to Nvidia po prostu nie widzi powodu, żeby się wysilać. Intel kuleje w DX 9/10/11 i ich dział discreet GPU ledwo zipie, AMD już nawet nie udaje, że walczy, to po co się wysilać.

 

Apropo. Ktoś liczył ile segment AI zjada powierzchni takiego 4070 czy 4090? W 5xxx pewnie jeszcze więcej.

 

A tu jest  coś o GDDR7 i tam jest mowa o obniżonym czasie dostępu (latency). To mi brzmi zbyt pięknie, żeby było prawdziwe. Pamięci projektowane pod maksymalną przepustowość nigdy nie miewają poprawy w latency a tu nagle mają mieć? Bardzo ciekawe. Oby się potwierdziło.

 

Edytowane przez VRman
Opublikowano

A właśnie. Pojawiła się nowa aktualizacja do Lossless Scalling, która oferuje opcję ustawienia generatora klatek od 2 do 20. 

 

Tym sposobem mając 60 FPS ustawiamy generator na tryb x8 i magicznie robi się 480 klatek. 

 

NVIDIA się chowa. 

 

  • Haha 2
  • Upvote 1
Opublikowano (edytowane)
18 minut temu, Tester Wrażeń napisał(a):

Chciałbym zobaczyć obraz przy x20 XD

Nie chciałbyś... przed chwilą to sprawdziłem na laptopowym RTX 4090 i efekt jest katastrofalny. Ghosting taki, że rozmydla wszystko, co widać na ekranie + input lag na poziomie 160 ms, generalnie niegrywalne. 

Ale muszę przyznać, że ten LSFG 3.0 w przypadku x3 i x4 działa o wiele lepiej od poprzednika. Nadal jest ogromne smużenie i opóźnienia, ale już bez tragedii. 

Edytowane przez Gasparo
  • Haha 1
Opublikowano
1 godzinę temu, green1985 napisał(a):

Nie wiem czy już było, ale na tym fragmencie filmu widać wyraźnie artefakty generowane przez MFG. Zobaczymy jak z czasem z tego wybrną. Czego by nie zrobili, dla mnie ta generacja do pominięcia, przede wszystkim brak gier, dla których warto by było znowu dokładać 5-6 tyś. zł. Może KCD2, ew. dojdzie parę gierek z biegiem czasu, ale wątpię, by to uzasadniało zmianę. No i umówmy się, do przeskoku 3090 -> 4090, gdzie 4090 wygrywało czystą mocą, to w tym przypadku daleko. FG? Próbowałem w TLOU i szybko wyłączyłem, co chwilę ghosting zabijający totalnie imersję. Dopóki tego nie ogarną, to ja za fejk klatki dziękuję.

 

 

Takie cuda to tylko jak się zmienia proces produkcyjny na mniejszy.

Do tego przy 3090-> 4090 doszła zmiana ze słabego procesu Samsunga na o wiele lepszy TSMC więc tam kop był w zasadzie podwójny.

  • Upvote 1
Opublikowano (edytowane)
12 minut temu, Phoenix. napisał(a):

Szybciutko dodaja karty do zakladek :D Chyba nie braknie.

No nie tak szybciutko.
5090 dalej tylko trzy sztuki.
Może to oznaczać, że ich dostępność będzie pieruńsko kulawa.
Pewnie większość gdzieś pod stołem zakontraktowana dla AI firemek przez dostawców.
5090 w naszych domach zobaczymy jak świnia niebo.

Edytowane przez Umpero
  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   2 użytkowników


  • Popularne tematy

  • Najnowsze posty

    • Ile potrwa PL2 w Twoim przykładzie? Nie ma jednoznacznej odpowiedzi w sekundach, bo zależy od fizycznej reakcji procesora, taktowania, napięcia i chłodzenia. Przy dobrym chłodzeniu (>250 W), procesor może utrzymywać PL2 nawet dłużej niż „Tau”, bo algorytm liczy średnią, a chwilowe szczyty nie spowodują natychmiastowego zejścia. Jeśli obciążenie jest stabilne na 250 W → średnia rośnie → po pewnym czasie (ok. 1–2× Tau) algorytm zacznie redukować moc w kierunku PL1. tylko Szacunkowo: Tau krótsze (np. 125) → PL2 zaczyna schodzić szybciej, średnia reaguje szybciej → może spaść do PL1 w kilkudziesięciu sekundach. Tau dłuższe (np. 253) → algorytm reaguje wolniej → PL2 może trwać znacznie dłużej, nawet >100 s, zanim moc spadnie w kierunku PL1, mimo że średnia z Tau zaczyna być wyższa od PL1.   Najlepiej robić samemu tety i się przekonać, bo każdy krzem cpu, cooler, konfiguracja, obciążenie itd jest inne.
    • Dla mnie to kolejny skok na kasę Iana Bella. Koleś zawsze obiecuje złote góry. Później mało materiałów reklamowych ale wygląda to całkiem ok. A do premiery jest tak szybko, że nikt się nie zdąży połapać, że to przypudrowany gniot i hajs się zgadza. 
    • @janek25 Tau Ci się tu trochę z PL1/PL2 zlewa, więc rozbijmy to na części pierwsze 😉 - 125 / 253 W – to są PL1 / PL2 (TDP / short turbo). - Tau – to zupełnie osobny parametr w sekundach (np. 28 s, 56 s), a nie „125/253”. Załóżmy więc „książkowy” przypadek Intela: - PL1 = 125 W - PL2 = 253 W - Tau = 56 s - Obciążenie ~250 W non‑stop - Chłodzenie realnie ogarnia >250 W (czyli nie wchodzisz w limit temperatury, tylko w limity mocy). ### Co się wtedy dzieje? 1. Na starcie testu CPU idzie ~250 W (okolice PL2). 2. Algorytm liczy średnią moc z „okna czasowego” Tau: - dla stałych 250 W średnia rośnie wg wykładniczej krzywej. - moment, kiedy średnia dojdzie do PL1 (125 W) wypada mniej więcej po: - t ≈ Tau * ln(2) ≈ 0,7 * Tau - przy Tau = 56 s → ~40 sekund. 3. Około tych kilkudziesięciu sekund CPU zacznie powoli zrzucać zegary, żeby średnia nie przekraczała PL1. 4. Po kilku Tau (3–5×Tau, czyli ~3–5 minut) ustali się na mocy bliskiej PL1, czyli okolice 125 W, o ile BIOS faktycznie szanuje limity Intela. ### A co z chłodzeniem 250 W+? Jeśli: - BIOS ma PL1=125, PL2=253, Tau=56 _i nie są podniesione_, - chłodzenie wyrabia, to i tak długoterminowo zejdzie do ~125 W – bo to wymusza algorytm PL1+Tau, a nie termika. Żeby 250 W „leciało wiecznie”, musi być: - PL1 = PL2 = 253 W albo - PL1 mocno podbite powyżej 125 W albo - Tau ustawione na mega wysokie + „fabryczne OC” płyty (co większość Z690/Z790 robi: PL1=PL2, Tau=max/unlimited). --- Czyli odpowiadając wprost na Twoje pytanie dla scenariusza *czysto po spec Intela*: - przy 125/253 i Tau=56 s oraz stałych 250 W: - po ~40 s algorytm zacznie ściągać moc, - po kilku minutach ustali się mniej więcej w okolicach PL1 ≈ 125 W, - chłodzenie 250 W+ tylko gwarantuje, że nie ograniczy Cię temperatura, ale nie znosi PL1/Tau. Jak podasz, jaka to dokładnie płyta i jakie masz faktycznie wpisane PL1/PL2/Tau w BIOSie, mogę Ci powiedzieć, czy Twój CPU w ogóle „zna” te 125/253, czy jedzie „na chama” PL1=PL2 🙂 gpt-5.1-2025-11-13
    • czyli ile bedzie trwał Tau jeśli jest 125/253 i obciążę 250 wat?do ilu spadnie po jaki  czasie jesli chłodzenie jest 250w+?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...