JeRRyF3D 1 726 Opublikowano 17 Lipca Opublikowano 17 Lipca (edytowane) Czas na monitory pińcet albo tysionc. Edytowane 17 Lipca przez JeRRyF3D
sideband 1 775 Opublikowano 17 Lipca Opublikowano 17 Lipca 24 minuty temu, Kadajo napisał(a): Poczekajcie na Rubina i FGx16 to dopiero będą czary i zakrzywienia czasoprzestrzeni Nie sądzę
skypan 1 753 Opublikowano 17 Lipca Opublikowano 17 Lipca 1 godzinę temu, JeRRyF3D napisał(a): Czas na monitory pińcet albo tysionc. I wtedy też przeczytam: Jak ktoś nie widzi różnicy między 500 FPS a 1000 to jest ślepy 2
VRman 2 641 Opublikowano 18 Lipca Opublikowano 18 Lipca (edytowane) W dniu 17.07.2025 o 19:30, SebastianFM napisał(a): aha, nie miałeś racji. Przypomnę, co napisałeś, skoro ty tego nie pamiętasz i piszesz teraz o czymś innym. W dniu 16.07.2025 o 15:22, VRman napisał(a): Jak widać dostęp do wektorów ruchu itp. to bardzo przydatna rzecz, ale kosztowna. Na potwierdzenie, że tak nie jest, masz test @tomcug'a, w którym porównał wydajność FG i Smooth Motion. Ja nigdzie nie pisałem o porównywaniu do smooth motion. Mi chodziło o zasadę działania a nie to jak to obecnie wygląda. A skoro framerate wyraźnie spada, to jest to kosztowne. Można dywagować nad definicją. Dla jednego 1%, a dla innego 20%, a jeszcze innego 50%. Cytat , generowanie 180 pośrednich klatek tylko 19% czasu. Według mnie to jest dobry wynik 19 tu, 25% gdzie indziej. Dla mnie i 19% to bardzo dużo. 25% to już wręcz ogromny koszt. W dniu 17.07.2025 o 21:29, skypan napisał(a): I wtedy też przeczytam: Jak ktoś nie widzi różnicy między 500 FPS a 1000 to jest ślepy Spróbuję to napisać najmniej kontrowersyjnie i jasno określić o co chodzi: Będzie zerowa w wolnym, bardzo niewielka w szybkim i wyraźna w bardzo szybkim ruchu. Nie będzie natomiast różnicą jak rozmyta plama vs. obiekt. To nie ta kategoria różnicy. Oczywiście, że mowa o patrzeniu gdzie trzeba, bo nie śledząc ruchomego obrazu to sobie można równie dobrze testować to, patrząc obok monitora zamiast na niego. Wymagana byłaby gra, typ gry, miejsce w grze/gamaplayu gdzie w ogóle występuje tego typu ruch, ustawienia, sprzęt (jak myszka 8K) Na dużym ekranie w 4K albo i 8K (jak pominąć brak sprzętu który to by uciągnął) i grając z bliska - w np. szybkim side scrollerze różnicę zobaczy każdy. Gracz mainstreamowy może nawet nie mieć gdzie tej różnicy dojrzeć przez pół roku od zakupu monitora, nawet jakby FG cudownie ulepszono. Edytowane 18 Lipca przez VRman
Sheenek 330 Opublikowano 18 Lipca Opublikowano 18 Lipca Widze ze wchodzimy w SciFi, 8k, 1k klateczek. Jeszcze tylko PT i mozna grac🤣 Mysle ze @userKAMIL tez by nie pogardzil😉
skypan 1 753 Opublikowano 19 Lipca Opublikowano 19 Lipca 10 godzin temu, VRman napisał(a): Spróbuję to napisać najmniej kontrowersyjnie i jasno określić o co chodzi: To był tzw. żart sytuacyjny
VRman 2 641 Opublikowano 19 Lipca Opublikowano 19 Lipca (edytowane) "i choćbym żarty słyszał, się śmiechu nie ulęknę" czy jak to szło Spoiler To jest wolny ruch. NIE OGLĄDAĆ NA TELEFONIE bo guzik zobaczycie na tym. Ale skoro to czysta fizyka/matematyka, to 2x szybszy ruch niż na tym teście, będzie odpowiadał 2x dłuższemu czasowi trwania klatki na ekranie, czyli frame persistence. Czyli w szybkim ruchu realna różnica będzie taka: Nawet na Monitors Unboxed w testach OLEDów pokazują, że jednak stroboskopowy LCD TN 540Hz wypada lepiej. Nie dlatego, że 500>540Hz robi różnicę, tylko właśnie przez czas wyświetlania klatki. 480-500Hz OLED jednak wystarczy do pewnie 80-90% typów ruchu jakby uśrednić z wszystkich gier (odrzucając te kompletnie statyczne oczywiście). Tak tylko chciałem dać znać na przyszłość, żebyście nie uważali, że 1000Hz OLEDy, jak/jeśli się pojawią, to będzie tylko i wyłącznie audio-voodoo. Czy będzie to potrzebne/przydatne każdemu? Nie. Czy różnica będzie wystarczająca dla wymagających, aby dopłacić i czy będzie warta dopłaty? Owszem. Nawet 10 000 nie jest wcale takie głupie, bo pozwoliłoby wyeliminować problem "stroboscope effect". Dziś gdy patrzymy na środek ekranu i pokręcimy kamerą, to zobacymy wiele obrazów na raz. Tzw. "sieczkę". Zamiast tego w rzeczywistości widzielibyśmy rozmyty obraz. Można to też zobaczyć po prostu robiąc kółka myszką na pulpicie. Mi akurat ta wada nie przeszkadza, i "tylko" 1000Hz nazwałbym moim idealnym "ultimate display", choć pewnie skończę granie w gry zanim wejdą na rynek, ciesząc się 500-tką, którą mam nadzieję kupić za rok czy dwa. https://blurbusters.com/gtg-versus-mprt-frequently-asked-questions-about-display-pixel-response/ Kto chce niech sobie przeczyta pod spojlerem. Dzielę się info, do niczego nie przekonuję i że się nie zgadzacie z niczym też nie piszcie, bo wiem. Szkoda zaśmiecać. OK? To fajnie. Edytowane 19 Lipca przez VRman
Kadajo 7 412 Opublikowano 19 Lipca Opublikowano 19 Lipca Tutaj nie chodzi o przekonywanie, to nie wiara. Tu chodzi o percepcje. Niektórzy po prostu nie są w stanie wyłapać takich rzeczy. Możesz do nich codziennie encyklopedie na ten temat wysyłać i tracisz tylko czas i energie bo nic nie zmieniasz. 1
galakty 3 332 Opublikowano 19 Lipca Opublikowano 19 Lipca Ale co nas obchodzi LCD ze stroboskopem jak chcemy ładny obraz a nie super coś tam wychodzące tylko w testach?
galakty 3 332 Opublikowano 19 Lipca Opublikowano 19 Lipca Wyjdą microledy to pogadamy, póki co OLED the best. 1
Wu70 739 Opublikowano 19 Lipca Opublikowano 19 Lipca W 700 czy 1000Hz to i tak będą brylować OLEDy więc wszystko co najlepsze w jednym 1
VRman 2 641 Opublikowano 20 Lipca Opublikowano 20 Lipca (edytowane) W dniu 19.07.2025 o 11:31, galakty napisał(a): Ale co nas obchodzi LCD ze stroboskopem jak chcemy ładny obraz a nie super coś tam wychodzące tylko w testach? Spoiler Bo te LCD ze stroboskopem pokazuje nie to, co potrafi LCD ze stroboskopem, a to jak działa "frame persistence" a raczej jak działa ludzkie oko vs. długość wyświetlanej klatki? Masz dziś żyletę na Asusie 540 z ULMB włączonym, to możesz na niego spojrzeć i przeniesieść wnioski w przyszłości na np. OLEDa 750 czy 1000Hz. Pozwijałem, bo offtop W dniu 19.07.2025 o 11:25, Kadajo napisał(a): Tutaj nie chodzi o przekonywanie, to nie wiara. Tu chodzi o percepcje. Niektórzy po prostu nie są w stanie wyłapać takich rzeczy. Możesz do nich codziennie encyklopedie na ten temat wysyłać i tracisz tylko czas i energie bo nic nie zmieniasz. Spoiler Jak się w czymś mylę, to chciałbym aby mi ktoś wytłumaczył gdzie i czemu, żebym się już nie mylił. To raz. Dwa, że uzbrojonym w takie info można lepiej wybrać sobie wyświetlacz w przyszłości. Trzy, że wiedza u choć jednego forumowicza więcej może się przydać w przyszłych dyskusjach. Przed chwilą cytowałem w wątku o OLEDach, jak ktoś narzeka na smużenie monitora IPS. A przecież wiele osób nadal twierdzi, że 120Hz to już starczy "i nic mi nie smuży" - choć mają VA (dużo gorzej niż IPS) Także kiedyś "144Hz to fanaberia" - powiedział konsolowiec grający w 30fps na TV VA. Potem "240Hz to fanaberia i na co to komu". Teraz "500Hz to fanaberia, na co to komu. Jeszcze niech zrobią tysiunc, hłe hłe hłe hłe, dobrze mówię, co nie chłopaki?" Co do wyłapania takich rzeczy - nie wejdę w ten temat-rzekę znowu za głęboko Trzeba mieć gdzie to dojrzeć (na czym - w grze z capem na 280fps zalet ekranu 1000Hz się nie dojrzy, chyba, że jakimś wyjątkowo dobrym FG). Osób które faktycznie nie widzą, jest promil, ale one w ogóle nic w ruchu nie widzą, bo mowa o osobach z wadą wzroku lub starych dziadach (ale starszych niż my tutaj, np. 80, a nie jak my 40-50) bo ta zdolność płynnego poruszania okiem z wiekiem niestety zanika. Podałem przykład. To nie "w testach". Test po prostu pokazuje szybki ruch. W grach różnie bywa. Może ktoś grać w gry, gdzie nie ma nigdy szybkiego ruchu. Może to być gracz e-sport, który używa metody patrzenia się zawsze w środek ekranu przy celowaniu i tylko "przyciąga" przeciwników z rogu ekranu pod celownik (nie mam pojęcia jak tak można, mnie nie pytaj ) Może grać w grę z TAA. Może nie zdawać sobie sprawy z tego co traci (ten punkt jest ważniejszy niż się 99,99% ludzi wydaje). Do tego odpowiednia moc kompa, ustawienia. To skomplikowany temat, ale przyczyny niewidzenia da się jasno wykazać i wyizolować. Nie róbmy z ludzi inwalidów, że "oj tam, ja nie widzę". Bo tak to trochę jakbyś sugerował, że tylko wyjątkowi/dziwni/będący w skrajnej mniejszości potrafią dostrzec. Zobacz na tych co faktycznie mieli okazję się pobawić lepszym. Goście z HU i Monitors Unboxed jeszcze 2 lata temu potrafili powiedzieć "excellent motion clarity" omawiając LCDika 180Hz bez stroboskopu. A dziś mają kategorię "ultimate motion clarity" w tabelce i pokazują porównania, na których OLED 500Hz przegrywa z LCD 540Hz z ULMB. Ich opinie ewoluowały w miarę ekspozycji na to "lepsze". Tak samo będzie u wielu osób. Szczególnie po tym punkcie krytycznym za X lat, gdy jasność MicroLEDów załatwi wady BFI, albo FG będzie działać idealnie i większość developerów gier zacznie zwracać uwagę na to, aby ich gra potrafiła być wyświetlana wyraźnie nawet w szybkim ruchu. Wtedy ten promil "dziwnych/wymagających/nawiedzonych/tu_wstaw_resztę_określeń" zamieni się w połowę graczy albo i większość. Nie sądzę aby to nastąpiło w ciągu dekady, ale kiedyś nastąpi. Na razie jest 500Hz i cieszmy się, że w końcu mainstream zaczyna mieć dostęp do naprawdę gamingowych ekranów, a nie "gamingowych" bo mają diody RGB i HDR. Edytowane 20 Lipca przez VRman
HappyLittleGamer 191 Opublikowano 1 Sierpnia Opublikowano 1 Sierpnia https://videocardz.com/newz/intel-xess2-now-supported-by-amd-and-nvidia-gpus A ciekawe czy ten XeSS będzie wyglądał lepiej na GPU Intela niż pozostałych. Wydaje mi się że wszyscy mają to w pupie że na Intelu wygląda lepiej bo nikt nie robi takich testów tylko testują na Nvidii i AMD
cichy45 607 Opublikowano 12 Sierpnia Opublikowano 12 Sierpnia Przetestowałem to XESS FG na RTX 3090 i działa minimalnie szybciej niż FSR FG Wygląda w sumie OK ale ja tam nie widzę w praktyce różnicy miedzy DLSS FG a resztą, więc ciężko mi porównać bez stop klatki. Dramatu nie było na ekranie.
Phoenix. 4 727 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia https://videocardz.com/newz/nvidia-releases-dlss-310-4-0-sdk 1
leven 539 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia Pliki wprowadzone ręcznie i tak ma pokazywać ?
Kabor 460 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia (edytowane) 17 minut temu, leven napisał(a): Pliki wprowadzone ręcznie i tak ma pokazywać ? Jak pokazuje preset K to wykorzystuje DLSS4. Jednak czy podmiana ręczna w W3 plików na DLSS4 coś daje to nie jestem pewien. W3 natywnie nie korzysta z DLSS4 więc i tak trzeba wymusić takie coś w APP, lub NVInspector (czy innym programie). Wtedy chyba (nie jestem 100% powinien ale na bank jak zaznaczysz opcję używaj najnowszych - tak ustawiam w NVInspector) podmienia w locie i używa najnowszej wersji prosto ze sterownika. Edytowane 27 Sierpnia przez Kabor
leven 539 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia (edytowane) I tak właśnie jest to zrobione. W NPI: https://github.com/Orbmu2k/nvidiaProfileInspector/releases Raczej pytałem o 310.3.0 EDIT: mój ekran ma HDR i to jest obsługiwane w W3: Coś mi się wydaje, że trzeba sterownik ustawić od nowa Edytowane 27 Sierpnia przez leven
Kabor 460 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia (edytowane) Pokazuje Tobie 310.3.0 - więc nie używa 310.4.0 - więc jest tak jak przypuszczam. Podmiana pliku w grze która natywnie nie wspiera DLSS4 nie ma sensu ponieważ wymuszasz i tak podmianę w locie na najnowszą wersję. A w sterowniku który masz u siebie najnowsza wersją jest 310.3.0 dlatego taką wersję pokazuje. Więc trzeba poczekać na nowe sterowniki które będą zawierać w sobie 310.4.0. Przy grze która korzysta z DLSS4 natywnie podmiana pewnie miała by sens (pod warunkiem nie włączania w programach najnowszej dostępnej bo wtedy i tak podmieniał by tylko na najnowszą wersję w sterowniku czyli 310.3.0). Podkreślam, że to tylko moje przypuszczenia. Edytowane 27 Sierpnia przez Kabor
Phoenix. 4 727 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia W takim cyberku podmiana pliku na nowszy i wbicie presetu na sztywno skutkuje bledami i wcale nie wchodzi preset K wiec nie w kazdej grze grzebanie przyniesie efekt gdzie gra ma natywnie transformera. Trzeba sprawdzic zawsze
JohnyWol 81 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia @levenPytanie zasadnicze. Czy po ręcznej podmianie plikow wyłączyłeś napisanie w aplikacji Nvidia czy ewentualnie nVidia Profile Inspector, DLSS Swapper czy innej apki ktora wykorzystywales do podmiany? Bo jeśli nie to pewnie bedzie wlasnie nadpisywanie wersja 310.3.0. Trzeba by przestawić na ustawienia domyślne dla Wiedźmina i wtedy powinno być OK czyli powinno pokazać wtedy wersję 310.4.0.
Kyle 200 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia 2 godziny temu, Phoenix. napisał(a): W takim cyberku podmiana pliku na nowszy i wbicie presetu na sztywno skutkuje bledami i wcale nie wchodzi preset K wiec nie w kazdej grze grzebanie przyniesie efekt gdzie gra ma natywnie transformera. Trzeba sprawdzic zawsze W ShadowOfTheTombRaider (mam starą wersję) wystarczy w aplikacji nVidia wybrać najnowszy DLSS, by działał DLSS4. Co ciekawe podmiana pliku w grze absolutnie nie ma na nic wpływu
sideband 1 775 Opublikowano 27 Sierpnia Opublikowano 27 Sierpnia Podmień w Last of US Part 1 to nawet gry nie odpalisz
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się