Skocz do zawartości

Monitory OLED - temat zbiorczy


Rekomendowane odpowiedzi

Opublikowano


Im więcej ludzi umiejących z monitora skorzystać, będzie miało okazję potestować 500Hz OLEDy tym więcej będzie reakcji jak ta wyżej, która jest jakoś dziwnie podobna do tej niżej w sensie oceny czy 500Hz się przydaje i jak bardzo:

 

 

I z czasem coraz mniej ignorantów będzie wypisywało debilizmy typu "na cyferki Hz nie patrz, bo to marketingowa papka dla debili" czy "nikomu poza profesjonalistami w esporcie nie potrzeba więcej niż 240Hz"

 

 

 

 

Opublikowano (edytowane)
13 godzin temu, VRman napisał(a):

I z czasem coraz mniej ignorantów będzie wypisywało debilizmy typu "na cyferki Hz nie patrz, bo to marketingowa papka dla debili" czy "nikomu poza profesjonalistami w esporcie nie potrzeba więcej niż 240Hz"

Rozumiem że masz ww. monitor 480Hz i gpu które potrafi ogarnąć takowy bez używania mfg? Jakie masz osobiste doświadczenia? Warto kupić?

Czy jednak dalej podniecasz się marketingowymi filmikami z yt?

 

Edytowane przez kamilos69
  • Like 1
Opublikowano (edytowane)

To jest nieistotne. Istotne jest, że to 500Hz to "magia", to coś, co drastycznie zmienia jakość obrazu podczas gry. Bardziej niż przejście z 1440p na 8K bym powiedział.

 

Co do nigdy - wystarczyłaby chęć. Od producentów kart, OSu po przede wszystkim developera, który do gier gdzie to się przyda (side scrollery, wszyskie gry sterowane myszką, wyścigi z kamerę inną niż ze środka (bo przy tej kamerze i tak zalet nie będzie widać, gdy wnętrze auta zasłania 2/3) i tak dalej.

 

Fajnie, że się pojawiają side-scrollery z obsługą 500fps.

 

Nadzieja w generatorach klatek. 

W tym, że zostaną ulepszone pod względem kosztu (dziś 20-30% to przesada) i jakości (ani te od AMD ani od NV nie są nawet blisko możliwości, ale problem polega na tym, że trzeba te obliczenia wykonać błyskawicznie z a tym jest problem, więc nie ma co porównywać do interpolatorów offline jak SVP dla filmów, które znamy od nastu lat)

Godzinę temu, kamilos69 napisał(a):

Rozumiem że masz ww. monitor 480Hz i gpu które potrafi ogarnąć takowy bez używania mfg? Jakie masz osobiste doświadczenia? Warto kupić?

Czy jednak dalej podniecasz się marketingowymi filmikami z yt?

 

Masz filmik na Digital Foundry. Po prostu posłuchaj uważnie co John mówi.

 

A co do moich opinii itp. to w spojler, bo niektórych boli głowa od wiedzy i wolą zostać ignorantami. Moje teksty o obrazie w ruchu powodują u nich migrenę, która często rodzi agresję, którą potem czują się w obowiązku wylać na forum. ;) Spojler zadba o zdrowie i spokój. ;)

Spoiler

Sam na 480+ jeszcze nie grałem, ale to co robi tą "magię" o której on wspomina to żyleta w ruchu. Ja to oglądam na codzień, więc daruj sobie te durnoty "podniecasz się marketingowymi filmikami z yt". DF gada co chcą na zamówienie, owszem, ale to łysy i w temacie z którego jest kasa w ten czy inny sposób. John jest z nich wszystkich najnormalniejszy od zawsze, jedyny u którego widać, że faktycznie ma pasję i lubi gry. Jakby to był marketing to by nie było to w jakimś podrzędnym podcaście i nie było na temat czegoś, co i tak się nie sprzeda, więc reklamodawcy by się nie opłacało ich "przekupować". Po prostu w pewnym momencie minimalizowania rozmycia w szybkim ruchu, przekraczasz pewne minimum i zamiast plamy czy innej sieczki, zaczynasz widzieć obraz. I wtedy masz do czynienia ze wszystkim tym, o czym mówi John na filmiku - że nie widzisz animacji. Widzisz jakbyś oglądał faktycznie się poruszający obiekt. Do tego dodaje odrobinę fakt, że sama liczba klatek pomaga, ale to jest już mały ułamek całości tej "magii". Gdy śledzisz szybko się poruszający obiekt, to będziesz go widział tak samo przy 500Hz jak i przy 50Hz, zakładając, że w obu przypadkach masz żyletę w ruchu. Różnica się pojawi gdy oko nie śledzi dokładnie ruchomego obiektu, gdy patrzysz na coś innego lub gdy jesteś w trakcie "namierzania" okiem tego co się rusza, co trwa ułamek sekundy, ale już pomiędzy 60 a 120fps możesz zobaczyć różnicę wynikającą tylko z samej ilości klatek. Przy grach typu wyścigi z kamerą ze zderzaka albo future racery gdzie lecisz 900km/h, więcej klatek pomoże, bo granica odczucia prędkości przy 60Hz na przykład  skończy Ci się przy 100km/h, 120Hz przy 200km/h a przy 500Hz odczujesz i 500km/h. Nie mówię o świadomej ocenie jak szybko w grze lecisz/jedziesz, tylko jak "czujesz" ruch. 

W future racerze w 60Hz z obrazem ostrym w ruchu gra się lepiej niż w 120Hz w trybie sample-and-hold (czyli np. na OLED 120Hz). Natomiast porównując ostre 60Hz do ostrego 120Hz, poprawia się uczucie pędu i obraz przy ekstremalnych prędkościach daje mózgowi więcej informacji. 
Ani litera tego posta nie dotyczy spraw typu skill, responsywność, input lag. Mowa tylko i wyłącznie o tym, że 480+Hz na OLEDzie, gdy jest podany sygnał odpowiedniej jakości (prawdziwe 480fps lub frame gen bez wad) to jest to przepaść. W 240Hz na OLEDzie masz dobry obraz w wolnym i średnio-wolnym ruchu. Przy graniu w coś, gdzie jest dużo szybkiego ruchu, różnica pomiędzy 480 a 240 będzie moim zdaniem większa niż pomiędzy 60 a 120 w tych samych scenach, bo 60 a 120 nie zmienia niczego w kwestii tego czy coś widzisz. Odpowiedź brzmi "nie" i w 60 i w 120. Zbyt szybki ruch = plama. 

Dlatego przejście z 240 na 480, w tej konkretnej kwestii jest przełomem. I na pewno przydatną funkcją, o ile tylko jest się w stanie puścić na monitor odpowiedni sygnał. To jest tak dalekie od "ściema marketingowa", że się dalej nie da. 

Rozumiem jednak, że wynika to z tego, że przez dekady były ściemy: z czasem reakcji podawanym w papierowej specyfikacji, z monitorami VA 200Hz (to gówno jest do 60Hz za wolne) czy do IPSów 360Hz, które są za wolne nawet do 200fps, więc różnica pomiędzy 120 a 360 na LCD to ułamek tego czym ta różnica jest w rzeczywistości. 

 

Ten temat jest tak często mylnie rozumiany, że Hardware Unboxed i ich kanał Monitors Unboxed zaczął dodawać objaśnienie i przy każdej recce monitorów OLED HFR teraz powtarzają jak krowa na rowie: Jak gra puszcza na monitor 120fps to czy masz OLEDa 120Hz czy OLEDa 100000000Hz, nie będzie żadnej różnicy.

 

Pytanie więc "czy warto" jest zależne od "a masz jak puścić tam te 400+ klatek?". Bo jak grasz w gry z PT i masz 50-70fps i MFG ma być z tylu, to nawet RTX 9090 z MFG x10 gówno da, bo i tak obraz w ruchu już przed "wejściem w monitor" będzie "popsuty". 

Natomiast jeśli dopracują MFG tak, żeby było wyraźniej i o wiele mniej artefaktów itp. w np. źródle 150fps, i wprowadzą np. MFG x5, x6, x8, to wielu (w tym ja) uzna, że jednak woli grać w DLSS z realną 1080p ale w 150>500fps niż w natywnym 4K ale w 120fps. Bo w grach się ruszamy. Jeśli przez większą część czasu w danej grze oglądasz obraz ruchomy, to w 500fps zobaczysz więcej przy graniu w 360p niż w 60fps (w sample and hold) w 8K. I nie będzie to miało nic do czynienia z preferencjami i wymaganiami gracza. Obiektywnie. Tak samo ja nie będę nikomu wciskał na siłę, że do gry tekstowej czy szachów przyda się 500Hz. Albo mniej ekstremalny przykład: do strategii czy gier ekonomicznych, gdzie obraz się przesuwa raz na kilka minut, a przez 99% czasu ogląda statyczną mapkę. Choć tu mogą być strategie typu RTS, gdzie się mapkę przesuwa bardzo często- i tutaj już zdecydowania "żyleta w ruchu" się przydaje bardzo.

 

Edytowane przez VRman
Opublikowano

"ale to już było"

Spoiler

Ludzie nie chcą migotania, choćby i 240Hz. Bo oni widzieli migotanie w 60Hz i koniec. Nie chcą dożywotnio. Nie przegadasz.

To raz.

 

Dwa, że bez miliona FPS musisz wyłączać obraz. Zakładając, że celujemy w 2ms na klatkę, to w 120Hz musisz mieć obraz wyłączony przez 6ms i włączony przez 2ms. 

Na to OLEDy są o wiele za ciemne. Do tego pojawił się HDR i wielu ludzi się zakochało w tej zwiększonej jasności. 

 

Osobiście wolę wybór. Dajcie mi na monitorze trzy tryby:

- sample and hold do pracy w edytorze tekstu, Excelu itp.

- low persistence (BFI/ strobo itp.)

- HFR 480+Hz

 

Jak ktoś chce to sobie dobierze. Byle każdy z trybów został zaimplementowany poprawnie. Osobiście wolałbym 150fps w trybie BFI/strobo niż konieczność FG/MFG do 500fps, nawet jakbym przez to skończył z jasnością poniżej tego co potrzebne do HDR i grania w dzień (światło słoneczne w pokoju)

 

MicroLED by rozwiązał sprawę, ale to raczej nie przed 2050tym.

 

 

PS. Plazmy to jednak inna liga niż CRT. Legendarna jakość obrazu w ruchu wynikała tylko z tego, że LCD było tragiczne i do tego ludzie porównywali.

 

Opublikowano
2 godziny temu, kamilos69 napisał(a):

Rozumiem że masz ww. monitor 480Hz i gpu które potrafi ogarnąć takowy bez używania mfg? Jakie masz osobiste doświadczenia? Warto kupić?

Czy jednak dalej podniecasz się marketingowymi filmikami z yt?

 

No ale to jest właśnie właściwy sposób na wykorzystanie mfg.

W tej chwili mam monitor 165Hz wiec korzystam z FG i to realnie poprawia mi komfort grania. Jak wymienie monitor na 240Hz (zamówiony mam 280Hz) to zamierzam korzystać z mfg. Na tyle ile próbowałem to działa to nieźle ale to raczej bajer dla szybszych monitorów 

Opublikowano

Jakie białe? :E Masz sztucznie wygenerowana klatkę pomiędzy prawdziwymi. Jak zrobisz screena akurat na tej klatce to po prostu zobaczysz, że jest z arterfaktami i dziwnymi anomaliami, ale w ruchu aż tak bardzo tego nie widać.

Opublikowano (edytowane)
W dniu 11.10.2025 o 14:18, Dimazz napisał(a):

ktoś korzysta dłużej z generatora klatek?  Czy to nie powoduje zmęczenia wzroku trochę jak PWM w monitorach skoro między normalnymi klatkami masz wstawiane białe. 

Ja korzystam.

Pomijając już zwróconą wyżej przez innych głupotę o białych klatkach to włączenie FG (MFG) powoduję, że mniej się oczy męczą. Przykładowo ostatnio testowałem DL BEAST i przy wyłączonych DLSS i FG miałem około 70 FPS - to dawało wrażenie szarpania przez co oczy się szybko męczą. Włączenie DLSS i FG dawało natomiast 220 FPS - obraz pełniutki - oczy się mniej męczą. 

Edytowane przez Kabor
  • Haha 1
Opublikowano (edytowane)
23 minuty temu, galakty napisał(a):

A mnie oczy bolą od artefaktów i głupot w tym wątku ;)

Każdy ma inną tolerancje na inne rzeczy ;-).

 

Ja w single spokojnie korzystam z MFG. Ale ja wiem jak DLSS/FG wpływa na opóźnienia i czy wkleja jakieś białe/czarne klatki ;-).

 

Ogólnie DLLS traktuje jako możliwość ustawienia nienatywnej rozdzielczości na monitorze i np. nie wymagam/uważam, że natywna w 4K ma być identyczna jak 4K z DLSS. Tak wszędzie gloryfikowane CRT i pisanie, że można ustawić różne rozdziałki to fajna sprawa była.  Tylko nikt już nie pamięta, że rozdzielczość 1024 i tak dawała lepszą jakość obrazu niż 800.

Natomiast mając monitor 240Hz uważam fajną sprawą włączenie MFGx3 i zatkanie go pod korek mając bazowych w okolicach 100 FPS.

 

Dla mnie artefakty < wyższy FPS.

 

W przykładacie z DL BEAST.

W 4K nativ mam około 70 FPS. Dla mnie wrażenie niepłynnej gry jest bardzo duże - można stwierdzić oczy krwawią ;-)

W 4K z DLSS Q - około 100 FPS - już jest akceptowalnie.

W 4K z DLSS Q, MFGx3 220 FPS (jak ustawie - 3 maks to MFG ściana więcej więc na około tylu lub troszkę więcej się blokują teraz dokładnie nie pamiętam)- jak to niektórzy nazywają "masełko". Artefakty z DLSS i FG mi nie rzucają się w oczy (nie przeszkadzają). Laga w tej sytuacji też nie czuje. Więc wybieram tą opcję.

Edytowane przez Kabor
  • Upvote 1
Opublikowano (edytowane)

 lekki offtop - obserwacja youtuberów i co z tego można wywróżyć w temacie przyszłości OLEDów

Spoiler

 

Eh.. miałem nadzieję, że się mainstream trochę obudził, ale jednak nie.

 

 

Tutaj przykład gościa z 270 tysiącami subskrybujących. Nie raz trafia to r/harardware na reddicie.

 

Jest więc mocno opiniotwórczy, a tu

 

 

no niestety. Nadal pokutuje brak wiedzy o procach i o zaletach HFRu.

 

- 5600 starcza do gier - bzdura. Ten procesor nadaje się już tylko do budowania retro. W roku 2025 jego zakup do PC to nieporozumienie i z takimi wymaganiami to już lepiej kupić konsolę. edit: a to jest 5500. Mówienie że takie coś od biedy starczy do gier w 2025 powinno być karalne ;)

- 9800x3d jest 10% szybszy od 7800x3d - nieprawda, blisko bzdury

- 7600 wystarczy chyba, że gonisz za ekstremalnie wysokim fps  = kompletna bzdura

 

przydatne tylko do gier competetive - kompletna bzdura

 

Esktremalnie wysoki FPS to 500+,  a i tak nie nazwałbym tego w sposób sugerujący, że przyda się tylko nielicznym.

 

9800x3d w batlu na high nie potrafi utrzymać 200fps. To nie jest ani ekstremalnie wysoki ani nawet wysoki fps. To jest to, co powinno być określane jako minimum. 

9800x3d na high kończy się na 150fps jeśli ktoś chciałby zapiąć v-sync (czyli nie wolno dopuścić do spadków poniżej) w ustawieniach high.

144Hz to jest gówno, a nie żaden HFR i nazywanie 150+ "superwysokim framerate'm dla grających w strzelanki online" to jest jakieś nieporozumienie.

Do tego są gry na Unreal Engine jak Buggerlands 4, gdzie 9800x3d nawet ma problem ze 100fps, a na 7600 to se pograsz w fps "konsolowym" conajwyżej.

 

Gość z kanału Zwormz to samo - powyżej 120fps nazywa "extremely high fps" i "true high refresh experience"

 

No to chyba sobie na popularyzację HFR poczekamy dłużej :(

Tak na spadki cen 240tek jak i na pojawienie się 500-tek w cenach jakie mamy obecnie w 240tkach. 

 

 

 

Edytowane przez VRman
Opublikowano
45 minut temu, VRman napisał(a):

5600 starcza do gier - bzdura

kupilem go za grosze i dla mnie to huge upgrade, ktory widac. Nie w kontekscie 500+ fps a w kontekscie utrzymania fps powyzerj 60 nawet ok 100 czy 144 z usztucznianiem albo obnizonyim ustawierniami wiec dla moich gier i niskcih ustawien "starcza do gier"

  • Upvote 2

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Zacznij od formata i zainstalowania podstawowych rzeczy, msi center i tam tylko sterowniki do chpisetu i nic więcej, stery do grafy trochę starsze i testuj. Żadnych light, razerów i co przyjdzie Ci jeszcze do głowy, tym bardziej programów monitorujących, bo to też potrafi działać negatywnie na gry jak i na psychikę  .W obecnym stanie możesz jeszcze wrzucić ss z latencymoon. Czy w ww grach różnicę robią ustawienia graficzne? Tzn. czy jak dasz wszystko na low to jest taki sam efekt jak na Twoich ustawieniach? Czy jak ograniczysz liczę klatek do 60fps, to też jest problem? Ja wiem że w grach online trzeba mieć więcej, ale z ciekawości możesz zobaczyć. Oczywiście blokujesz klatki o te 3 mniej, niż masz odświeżanie monitora? A tak na marginesie możesz poczytać  https://forum.ithardware.pl/topic/8975-stuttering-latencymon/ https://forum.ithardware.pl/topic/8444-stuttering-w-grach/#comments tylko tutaj są procki od AMD czy ludzie sobie z tym poradzili to nie wiem, trzeba się zagłębić, aaa jeszcze mamy jednego kolegę którego stuttery już długo męczą i sobie z tym nie poradził, też na AMD.      
    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...