-
Postów
2 580 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez sideband
-
A nie zmienia się FOV?
-
Masz rozciągnięty obraz i nadal widzisz mniej na 4:3 na monitorze 16:9 Rozciągnięcie na poziomie wyświetlacza nie ma żadnego wpływu na CPU.
-
Mniej widocznych obiektów na ekranie spada ilość draw calls co przekłada się na niższe obciążenie CPU Obliczenia się nie zmieniają tylko jest ich mniej.
-
Lumen to GI i odbicia. Tylko sprzętowy lumen posiada odbicia na RT, GI nie wykorzystuje RT w żadnym wypadku. W takim Stalker 2 jest programowy by nie zamordować już całkiem wydajności. Nanite psuje wydajność i nie ma to nic do strimingu danych. To lepiej wygląda jak ta Mafia.
-
Jak wyłączysz Nanite i Lumen
-
CRT znacznie bardziej męczy oczy i banie. Promieniowanie wytwarzane przez CRT jest n-razy większe i tutaj żadne odświeżanie nie pomoże.
-
A która gra na UE5 działa dobrze? Musisz przestać wykorzystywać funkcjonalności z UE5 to zacznie dobrze działać, ale i tak od strony CPU ten silnik to porażka. Tutaj devsi nic nie wymyśla chyba, że będą się mocno ograniczać w tworzeniu gry. Z UE4.2x wcale nie było lepiej jak włączyłeś SSRTGI mordowanie sprzętu. Żaden magiczny developer nie poprawi tego silnika chyba w danym zespole są programiści z prawdziwego zdarzenia i potrafią stworzyć własne implementację i dodać je do silnika. Ale pewnych ograniczeń i tak nie poprawią. Praktycznie pod każdym filmem na kanale o UE leci gruba krytyka( forum to norma od lat) w kwestii najważniejszych funkcjonalności, że nie działa jak powinno. Już się boje jak będzie działać i wyglądać nowy Tombik na UE5.
-
Ale cudów nie będzie i dziwię się, że nie przeskakują od razu na 5.6, który przynosi większy boost. Chyba, że są problemy z kompatybilnością i stąd decyzja.
-
Tylko UE 5.5.3 to nadal słabizna
-
Podkręcanie pamięci DDR5 (Wszystkie platformy)
sideband odpowiedział(a) na KamileN temat w Pamięci RAM
Przecież ten majster wielokrotnie pitolił głupoty w kwestii timingów i wpływu na wydajność niezależnie od platforma. Żeby w ogóle takie kwestie prawidłowo stwierdzać to trzeba potrafić robić testy CPU w grach i to bez błędów pomiarowych. -
To teraz wymyśliłeś Filtr antyrefleksyjny musi być wykonany z bardziej twardego materiału i koniec tematu.
-
Żadnym radiatorem nic nie wskórasz. Wyższa jasność niższa żywotność matrycy i szybsze wypalenia.
-
Tylko te wszystkie "sterowniki" są zbędne nic nie wnoszą i wszystkie pochodzą od Intela
-
Serial IO I2C Host Controller, ale to jest zbędne
-
Można robić rzeźbę apką od MS
-
Czego nie ma? Możesz w grze skalibrować na niższą jasność w HDR jeżeli masz regulacji w monitorze.
-
Na XP takie rzeczy nie przypominam sobie
-
Dorzuć latarki po rogach będzie w sam raz
-
Nie baw się w ROPsona Akurat "rdzenie" RT zajmują niewiele krzemu i to nie one odpowiadają za takie grzanie. Ktoś kiedyś prześwietlał GPU od NV i pokazał dokładnie gdzie są RT Core na Beyond3d W RT/PT masz lepiej dopchane SP/ALU stąd wyższy pobór mocy. Poza tym w GPU masz wiele jednostek/bloków FFU, które spełniają ścisłe określone zdanie TMU i ROP, cały bok od geometrii łącznie tesselatorami to też FFU spełniają ściśle określone zadanie i nie da ich wykorzystać do innych zadań Masz też SFU, które wykonują inne obliczenia arytmetyczne, których nie wykonują ALU. Także nie można mówić o jakimś marnowaniu krzemu.
-
Oni nie testują pokrycia kolorów w HDR przy wysokich jasnościach jedynie Rtings to robi Tutaj WOLED zawsze miał problem ze względu na dodatkowy biały piksel. Patrząc na wyniki G5 dystans zmniejszony do QD, ale nadal to nie to
-
Co mają tensory do RT
-
Powrót do przeszłości. Astral to jest co najwyżej ładniejszy od imadła.
-
Dostaniesz figę z makiem Każda gra i nawet miejsce testowe mają różną ilość obliczeń INT. Dlatego na poziomie jednej gry mogę można pokazać 1.4x i 1.2x 5090 vs 4090. Żadnego magicznego wzrostu wydajności nie będzie.
-
Głównie z tego wynika kop w Blackwellu dlatego jest tak nierówny. Teraz tylko dodali, że nie wszystkie obliczenia INT dostają kopa 2x. Co do pierwszego to GDDR7 sama w sobie mają wbudowane ECC także każda karta z GDDR7 ma w "gratisie" ECC, które nie obniża wydajności. EDR już było przy 6X czyli w skrócie po przekręceniu pamięci nie ma zwiechy czy artefaktów tylko spada wydajność
-
Wleciała aktualizacja whitepaper dla Blackwella dwie ciekawostki: For GDDR7 memories, ECC (Error Correction Code) capability is built into the DRAM die itself and is always enabled on GeForce RTX GPUs with GDDR7 memory. Single-bit error correction (SEC) is supported. No performance hit occurs with built-in ECC always enabled, and therefore no need for a toggle switch to turn on/off ECC in NVIDIA software. Also note that RTX Blackwell GPUs with GDDR7 support EDR (Error Detection and Replay) technology, similar to our GPUs with GDDR6x. The number of possible integer operations in Blackwell GB20x GPUs are doubled for many integer instructions compared to Ada, by fully unifying the INT32 cores with the FP32 cores, as depicted in Figure 6 below. However, the unified cores can only operate as either FP32 or INT32 cores in any given clock cycle. While many common INT operations can run at up to 2x throughput, not all INT operations can attain 2x speedups
