Skocz do zawartości

SebastianFM

Użytkownik
  • Postów

    628
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez SebastianFM

  1. Nowy FG ma mieć wyższą wydajność. Przy generowaniu klatek nie będzie używany model Transformer tylko 2 nowe zoptymalizowane modele, jeden do przetwarzania OFA a drugi do generowania klatek pośrednich. Do tej pory był używany tylko jeden model do generowania a przetwarzanie OFA było realizowane za pomocą obliczeń na shaderach. Użycie modelu Transformer na pewno będzie miało większy wpływ na wydajność w przypadku RR niż DLSS ponieważ RR wykonuje znacznie więcej obliczeń na rdzeniach Tensor.
  2. 7500 to nie jest połowa 13000. 😁
  3. W ogóle nie powinniście wyciągać wniosków dotyczących wydajności w grach na podstawie TFLOPS m. in. dlatego, że to są 2 różne architektury. @CajraX, 15% to będzie minimum więc nie wiem o co ci chodzi z tą świnią. 😁
  4. Są już gry, w których prawdziwej rasteryzacji jest tyle co kot napłakał, np. Cyberpunk 2077 z włączonym PT. Na pokazanym przeze mnie zrzucie z profilera prawdziwej rasteryzacji jest jeszcze mniej niż na tym wykresie, ponieważ w późniejszych etapach tworzenia klatki tak naprawdę to nie jest rasteryzacja tylko jest renderowany prostokąt na całym ekranie z użyciem Pixel shader'a wykonującego obliczenia dla każdego piksela ekranu, co mogłoby zostać zastąpione odpowiednim Compute shader'em. Tak jak napisał @sideband, w nowych grach większość pracy GPU to cieniowanie (czyli obliczenia) a nie rasteryzacja. Na poniższym zrzucie z Nsight Graphics widać ile w Cyberpunk 2077 z włączonym PT zajmuje m. in. samo śledzenie promieni (wykres RTCORE Throughput), rasteryzacja (wykres Pixel Warps) i DLSS Ray Reconstruction (wykres Actions, napisy NVIDIA).
  5. @JacekRTX, zorientuj się jaki jest prawdziwy pobór mocy, np. w grach to znacznie mniej niż te 253 W.
  6. Ty się tak nie ciesz na zapas, ponieważ jak na razie nie wiadomo jaki wpływ na wydajność będzie miało użycie nowego modelu Transformer. Najbardziej się martwię o Ray Reconstruction, ponieważ w tym przypadku jest wykonywanych najwięcej obliczeń na rdzeniach Tensor. NVIDIA podała, że nowy model wymaga 4 razy więcej obliczeń.
  7. Nie ma tak, albo kupujesz albo @tomcug ci z powrotem zmieni nazwę na RTX4090. 😁
  8. @galakty, to zależy, jak ktoś liczy na 50% wyższą wydajność w rasteryzacji to się na pewno zawiedzie, jednak to nie tak, że żadnego wzrostu nie będzie. Skądś się wzięło na wykresach NVIDIA dla RTX 5080 to 33% w FarCry 6 i 35% w A Plague Tale: Requiem.
  9. @VRman, ja napisałem, że FG korzysta z AI w małym stopniu i pokazałem dokładnie w jakim. Przyznam, że RTX 5080 FE trochę kusi. 😁
  10. Na tej stronie jest film o DLSS 4, w którym Bryan Catanzaro mówi (od 0:42) o tym, że w FG zwiększono wydajność i zmniejszono użycie pamięci a nowy model został wprowadzony do DLSS Ray Reconstruction, DLSS Super Resolution - Beta i DLAA - też Beta. Dalej Edward Liu mówi o tym, że nowy FG używa dwóch osobnych modeli do przetwarzania Optical Flow i Frame Generation. Nie ma natomiast nigdzie mowy o tym, że przy FG jest używany model Transformer.
  11. Tak jak napisałem, FG i MFG będzie ulepszone, ale nie przez użycie nowego modelu AI. W ogóle FG to w małym stopniu korzysta z AI. Przechwyciłem profilerem użycie jednostek podczas samego generowania klatki pośredniej, które na RTX 4070 Ti w rozdzielczości 1440p zajmuje około 2,7 ms. Na najniższym wykresie widoczne użycie rdzeni Tensor.
  12. "By incorporating the new DLSS transformer AI model, other features like DLSS Ray Reconstruction, DLSS Super Resolution, and DLAA image quality will be enhanced. Plus, DLSS Multi Frame Generation will ensure GeForce RTX 50 Series gamers can enjoy these effects with smoother frame rates and increased detail levels and resolutions." https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ray-tracing-rtx-games/ @Kadajo, przynajmniej z tego cytatu wynika, że FG nie będzie korzystał z nowego modelu choć to nie wyklucza, że jakość generowanych klatek pośrednich zostanie poprawiona.
  13. NVIDIA podaje PC Latency, a to opóźnienie uwzględnia dużo więcej rzeczy niż tylko czas renderowania klatki przez kartę graficzną.
  14. @galakty, to jakość obrazu ma się polepszyć a wydajność to raczej odwrotnie, ponieważ nowe modele mają wymagać więcej obliczeń.
  15. @galakty, tak, poprzednie generacje też mają dostać ulepszony DLSS i RR.
  16. @galakty, jakaś poprawa pewnie będzie dzięki nowemu DLSS Ray Reconstruction korzystającemu z nowego modelu.
  17. @areczek1987, jakie NDA i dlaczego w ogóle o tym wspominasz? Przecież ja piszę na podstawie wypowiedzi Jensena i informacji na stronie NVIDIA. Na Reddit też już o tym piszą.
  18. Nie tylko konsole. W Turing'u dodano jednostkę INT, która nie wpływa na TFLOPS a na wydajność w grach już tak. GTX 1080 ma 8,87 TFLOPS natomiast RTX 2080 ma 10,07 TFLOPS, w grach średnio o 26% więcej FPS. W RTX 50x0 będzie taka sama sytuacja.
  19. RTX 5080 w porównaniu z RTX 4080 ma o 10,5% więcej jednostek obliczeniowych. Częstotliwość została zwiększona tylko nieznacznie. Coś innego jednak musi wpływać na zwiększenie wydajności w grach i to nawet tych niekorzystających z RT. Oczywiście piszę tutaj o prawdziwej wydajności w rasteryzacji. Według mnie będzie ona wyższa co najmniej o 25% - 30%, w zależności od gry. Aktualnie zastanawiam się, czy NVIDIA nie dodała znowu osobnych jednostek INT tak jak to miało miejsce w architekturze Turing. Huang podczas zapowiedzi nowych RTX na konferencji powiedział "125 shader TFLOPS there's actually a concurrent shader TFLOPS, as well as an integer unit of equal performance, so two dual shaders, one is for floating point, one is for integer." Raczej się nie pomylił. Dwa podwójne? 😁
  20. Tutaj akurat nie masz racji. FG zawsze zwiększy opóźnienie, to wynika po prostu z tego jak działa. Przy korzystaniu z FG naprzemiennie są wyświetlane prawdziwe klatki i te pośrednie wygenerowane przez FG czyli po wyrenderowaniu klatki obrazu zamiast ją od razu wyświetlić to wyświetlana jest klatka pośrednia a ta prawdziwa dopiero po pewnym czasie.
  21. Według NVIDIA to RTX 5080 ma być o 33% wydajniejszy od RTX 4080 w Far Cry 6 z włączonym RT. Sprawdziłem profilerem, że ta gra tylko w niewielkim stopniu korzysta z rdzeni RT do obliczania cieni i odbić, więc ten wzrost wydajności nie wynika z wydajniejszego RT.
  22. Ja też uważam, że ten sprzętowy frame pacing to ściema. To tylko kolejne głupie tłumaczenie NVIDIA takie samo jak to, że RTX 3090 jest za słaby do FG.
  23. Umknęło ci, że dyskusja była na temat Reflex 2. Skąd ty możesz wiedzieć czy nowa funkcja Frame Warp okaże się rzeczywiście pomocna zamiast generować więcej problemów niż dawać korzyści?
  24. Właśnie widać. Zauważ, że tylko twoje "najnowsze działania" będą szybciej odzwierciedlane a nie wszystko, np. ruch przeciwników itp. Niby na jakiej zasadzie? Już pierwsza wersja Reflex działa w ten sposób, że każda klatka obrazu jest renderowana przez GPU niezwłocznie po tym jak CPU skończy ją obliczać. A może z tym o 75% to im chodzi, że teraz jest np. 2 ms opóźnienia a będzie 0,5 ms opóźnienia.
  25. Tą płynność przy tak dużym opóźnieniu to można sobie wsadzić wiesz gdzie. 😁 Ty w ogóle wiesz o czym piszesz? Według mnie to tylko nabierasz się na marketingowe bzdury. 1. Co to według ciebie znaczy, że daje pierszeństwo myszce? 2. Reflex 2 ma przekształcać klatkę obrazu już po jej wyrenderowaniu uwzględniając m. in. ruch myszką. Po pierwsze to będzie to trwało określoną ilość czasu więc zwiększy opóźnienie, zmniejszy ilość FPS. Po drugie to AI nie przewidzi ruchu przeciwników więc prawdziwe opóźnienie się nie zmniejszy.
×
×
  • Dodaj nową pozycję...