Skocz do zawartości

Monitory OLED - temat zbiorczy


Rekomendowane odpowiedzi

Opublikowano
1 godzinę temu, dagedy napisał(a):

Windows VRR

Tego sie po prostu nie uzywa ;)

Godzinę temu, galakty napisał(a):

Serio nawet na pulpicie migocze? xD 

Bo to programywy badziew microsoftu. I nie wiem jak teraz ale pierwotnie to bylo do gier dx11.

  • Upvote 2
Opublikowano
Godzinę temu, galakty napisał(a):

Serio nawet na pulpicie migocze? xD

Serio, jak masz włączony VRR to wystarczy ruszyć kursorem, po wyłączeniu zero migotania, przynajmniej na ww. tytułach. Zaczynam dzisiaj TLOU, ale dam znać po paru godzinach.

 

4 minuty temu, Phoenix. napisał(a):

Tego sie po prostu nie uzywa ;)

oj tak, +1 

Opublikowano (edytowane)
22 godziny temu, galakty napisał(a):

Jakieś efekty uboczne? Rozrywanie ekranu itp?

Nie ma rozrywania ponieważ gram wtedy ze standardową synchronizacją. Różnica jest tak jak w innych monitorach pomiędzy gsync a standardową synchronizacją. Przy gsync obraz wydaje się troszkę płynniejszy. Przy standardowej synchronizacji imput lag jest większy - trzeba czekać aż klatka trafi na okno kiedy może się wyświetlić. Jednak, że matryca w monitorze ma 240 Hz to czas opóźnienia to max 4ms - więc nie ma tragedii.

 

Mam TV LG C1 oraz monitor LG 32GS95UV-B - migotanie w TV jest dużo mniej widoczne - gram na nim w gry na padzie (Horizon, TLOU, GOW, ER, DD2 i inne) i nie zdążyło mi się jeszcze w tym TV wyłączyć gsync bo przeszkadzało mi migotanie. Oczywiście jak się przyjrzę (zwłaszcza w ekranach ładowania) to je widać jednak dość słabo i nie przeszkadza w ogólnej rozrywce. 

 

Natomiast na monitorze zależnie od gry efekt mi nie przeszkadza (jest mało widoczny) lub nie da się grać bo strasznie irytuje.

 

Przykładowo BF 2042 - migotanie mi nie przeszkadza (w czasie gry nie widzę, czasami w lobby widzę).

 

ER - tutaj też nie zauważam migotania - nawet w nocy gdy są ciemne sceny. Może jest to efekt blokady FPS w silniku na 60FPS i, że jest stały.

 

Ostatnio też testowałem Mafia DE - tutaj też migotania nie zauważyłem.

 

Natomiast w DI2 migotanie czy to w menu czy w grze jest tak widoczne, że musiałem wyłączyć gsync.

 

Podobnie w Hades 2 - mimo, że gra utrzymuje stałe 240 FPS - obraz upierdliwie miga.

 

Raz na domowym kompie musiałem zainstalować trueview autodesk - jedyna aplikacją w której w pulpicie było widać migotanie (i to dość mocne).

 

 

Co do monitora LG 32GS95UV-B jest to WLED 4K - czcionki mi w nim nie przeszkadzają.

 

 

Mimo wad OLEDów i tak uważam je za najlepsze do rozrywki i nie chcę wracać już do LCDków.

 

Edytowane przez Kabor
  • Upvote 1
Opublikowano
4 godziny temu, some1 napisał(a):

Kupicie w końcu QD-OLED to się przekonacie, że czcionki wcale nie wyglądają szczególnie lepiej :)

 

Chyba, że będzie przesiadka na 4k.

 

Bardzo podobnie dopiero 2160p robi robotę w obu przypadkach ;) W takim wypadku nie ma do czego się przyczepić niezależnie - QD czy WOLED.

Opublikowano
Opublikowano
18 godzin temu, Nex1M napisał(a):

Mozna liczyc na ogarniety vrr flickering? Na lepsze czcionki? Na normalny uklad pixeli? I znosna jasnosc w sdr?

Co do samsunga to nie wiem, bo się nie interesuje. Co do LG 1. pewnie dalej będzie 2. Nie 3. Tak 300+ nit full screen z białym bez mla.

Opublikowano
W dniu 17.01.2025 o 15:02, sideband napisał(a):

Sprawdzałem do swojego(321UPX) to już jest ;)

Testowałeś? Jest różnica? 

Ja czekam na update mojego 321UP, podobno ma być niedługo.

Dziwne, że model URX nie dostał jeszcze.

Opublikowano (edytowane)

Akurat właśnie robiłem update. Nie wiem czy przez wygaszanie ekranu po 2min albo w tym sofcie wygasza ekran po pewnym czasie podczas wgrywania softu i wstał po 10min - był lekki stresik :E

 

Zaraz sprawdzę nawet na filmach z HDR pobór mocy gdzie wyraźnie był niższy w trybie 1000 ;)

 

Edit:

Dokładnie to samo co było sporo niższa jasność i wyraźnie niższy pobór mocy w trybie 1000. Także te pomiary oparte na filmach testowych z tftcentral można o kant dupy rozbić.

W jasnych scenach tryb 1000 nadal zauważalnie ciemniejszy ;) Tutaj ABL działa zupełnie inaczej niż TV WOLED gdzie jest duży ABL na białym, ale puszcza ładny wygar w HDR. QD wygar na białym w SDR, a piękne cięcie jasności w HDR. Także w SDR daje osiągnąć ponad 2x pobór mocy jak w HDR ma to sens :E

 

 

Edytowane przez sideband
  • Thanks 1
Opublikowano
Godzinę temu, sideband napisał(a):

Akurat właśnie robiłem update. Nie wiem czy przez wygaszanie ekranu po 2min albo w tym sofcie wygasza ekran po pewnym czasie podczas wgrywania softu i wstał po 10min - był lekki stresik :E

 

Zaraz sprawdzę nawet na filmach z HDR pobór mocy gdzie wyraźnie był niższy w trybie 1000 ;)

 

Edit:

Dokładnie to samo co było sporo niższa jasność i wyraźnie niższy pobór mocy w trybie 1000. Także te pomiary oparte na filmach testowych z tftcentral można o kant dupy rozbić.

W jasnych scenach tryb 1000 nadal zauważalnie ciemniejszy ;) Tutaj ABL działa zupełnie inaczej niż TV WOLED gdzie jest duży ABL na białym, ale puszcza ładny wygar w HDR. QD wygar na białym w SDR, a piękne cięcie jasności w HDR. Także w SDR daje osiągnąć ponad 2x pobór mocy jak w HDR ma to sens :E

 

 

Tak niestety jest HDR True black 400, jest tym trybem, którego uzwajac nie uświadczysz przyciemniania obrazu. To wlasciwy tryb ktorego powinno sie uzywac. Najlepiej tez miec najnowszego windowsa wspiera on HDR troche lepiej, daje mozliwosc nawet ustawienia tapet z HDR. Jednak to nie jest poziom z PS5 w dalszym ciagu, HDR nie jest tak naturalny jak tam, przez co wlasnie przestalem go uzywac.

Opublikowano (edytowane)
W dniu 19.01.2025 o 13:50, galakty napisał(a):

przecież to idzie nerwicy dostać jak zmiana koloru tła powoduje skok jasności :E 

 

Na Dellu nie ma opcji wyłączyć ABL, należę do grupy, która dostaje szału dokładnie z tego powodu. Siedzę na TR400 no i jest ok, może dlatego że to mój pierwszy OLED i HDR

 

 

Edytowane przez dagedy
  • Sad 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Na oryginalnych oringach nie ma szans tego zrobić, żeby było szczelne. Testowo wrzuciłem trochę grubsze z innych złączek i wygląda na szczelne, w następnym tygodniu będę miał już wszystkie części to będzie loop składany. Z minusów, nie da rady tego pogiąć więc wszystko będzie na prostych rurkach, z dużą ilością złączek kątowych 90. Kolejny minus to średnica wewnatrz, standardowe rurki mam w wymiarach 16\12 a te są 16\9.5 więc możliwe że przepływ spadnie, ale wszystko będzie na 2xd5 na zewnętrznej chłodnicy mora IV 600 poza komputerem, więc można podkręcić obroty na d5. Jak wszystko się uda z tymi rurkami to wrzucę efekt końcowy, jeśli nie to będę na zwykłych płaskich rurkach robił.
    • https://www.bankier.pl/wiadomosc/UOKiK-wszczal-postepowanie-wyjasniajace-dot-ograniczenia-konkurencji-przy-sprzedazy-sprzetu-elektronicznego-9075242.html   Bardzo szybko korpo go sprowadzą do pionu  zmowy cenowe są cały czas w XXIw. Korpo są w wielu obszarach dogadane. Albo wyślą genialnie opłacanych prawników na niego albo pogadają z kim potrzeba z władz, albo skuteczniej ukryją dogadywanie się  Jedna z bardzo niewielu spraw co wypłynęła w temacie urządzania ludziom nowego "raju" przez korpo. 
    • Tu pełna zgoda i zrozumiałe podejście. Też uważam, że to by było najlepsze, ale widzę dwa sensowne powody, przez które autorzy testów mogą mieć inna zdanie: 1. Jest naprawdę cała masa laików, którzy kompletnie nie rozumieją czemu wyniki w 720p i 1080p są lepsze aby ocenić realne możliwości procesora. Wyobraź sobie, że robisz test przez trzy dni, masa roboty, wychodzi Ci, że 14800X3D wyprzedza Intela 999AI o 90%, cieszysz się, że jest taki wielki postęp, że coś fajnego, a potem widzisz jak jakiś filmik youtubera na YT z milionem wyświetleń mówi o Twoim teście i pada "ten gość potwierdził, że różnica to tylko 2%, więc nie ma co dopłacać". Cała praca w błoto i do tego masa ludzi ogłupiona bzdurami. 2. Zasoby. Czas. Jeśli takie wyniki interesują np. 20% Twoich widzów/czytelników, a w tym czasie możesz spożytkować czas lepiej, to możesz uznać, że testy w 1080p wystarczą.   Optymalnie by chyba było zrobić tak - testy w 720p/1080 - wybrać te, gdzie są duże różnice - zrobić w tych grach testy w 1440p i 4K - dostęp do tego dać za okienkiem "klikam, ale rozumiem, że testowanie wydajności proca ma sens tylko w 1080p" czy coś   Ale cóż. Testujący i tak zrobią jak uważają, czy nam się to podoba czy nie. No to już zależy od gry. Tak samo można nagiąć w drugą stronę, że Ryzen 5600 + 5070ti będzie szybszy niż 9800x3D plus rtx 4070 (bez Ti). Znowu dla niektórych graczy grających w  mniej mainstreamowych grach/ustawieniach/itp. znacznie lepiej wypadnie 9800x3d i 4070 niż Ryzen 7600 + 5090.  Sam do takich należałem przez poprzednie 25 lat i będę należał nadal, choć gdyby nie VR, to monitory z Pulsarem mogłyby tu sporo zmienić. Do tej pory było często tak, że jak zabraknie proca, to nic się nie da zrobić, albo tniesz detale, które psują całą imersję (pop-in) a w przypadku niemocy GPU można było iść na (owszem, często okropne) kompromisy. Wspomniałem o Pulsarze, bo spadek poniżej  X (gdzie X=fps i X=Hz na monitorze) nie oznacza takiej katastrofy, jak przy graniu z v-sync ON i stroboskopem. Z VR to już trochę skomplikowane, bo nadal liczy się przede wszystkim CPU, tylko że jak grasz w modowane gry albo jakiegoś MSFSa to 9800x3D + 2060 niekoniecznie musi wypaść lepiej od Ryzena 3600 z 5090tką, bo na jednym dasz radę pograć w 144p (bez zera!  a na drugim się porzygasz, bo nie utrzymasz FPSu komfortowego dla VRu choćby nie wiem co robić.   
    • https://videocardz.com/newz/gigabyte-launches-flagship-x870e-aorus-xtreme-x3d-ai-top-motherboard-at-1099
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...