Skocz do zawartości

Monitory OLED - temat zbiorczy


Rekomendowane odpowiedzi

Opublikowano
18 godzin temu, Sirias napisał(a):

Powiem szczerze, że bardziej od migotania (które da się ograniczyć mocno nakładając limit fps) to bardziej frustrujący jest gamma shift w ciemnych grach na który ciężko coś poradzić.

Zmniejsz jasnosc do 50%, a na migotanie nic nie poradzisz taka Ci sie wersja trafiła. No u mnie jest ok. I zaskoczony jestem że komus migoce. 

Opublikowano
54 minuty temu, maxmaster027 napisał(a):

Zmniejsz jasnosc do 50%, a na migotanie nic nie poradzisz taka Ci sie wersja trafiła. No u mnie jest ok. I zaskoczony jestem że komus migoce. 

Nie wiesz o czym mówisz zarówno jeżeli chodzi o migotanie jak i zmianę gammy w zależności od odświeżania. Nie ma to nic wspólnego z konkretną sztuką tylko wszystkie WOLED tak mają.

Gammę można skorygować pod konkretne odświeżanie, ale to i tak rzeźba.

Opublikowano
17 minut temu, sideband napisał(a):

Nie wiesz o czym mówisz zarówno jeżeli chodzi o migotanie jak i zmianę gammy w zależności od odświeżania. Nie ma to nic wspólnego z konkretną sztuką tylko wszystkie WOLED tak mają.

Gammę można skorygować pod konkretne odświeżanie, ale to i tak rzeźba.

ACha no ja mam QD OLED i nie migoce, obraz jest ok, natomiast w TV na LCD bardzo migotalo a bylo 120hz i wlasnie szczegolnie z VRR na szarym tle. Wiec to pewnie zależy jaki oled i w jakiej technologii

Opublikowano
2 minuty temu, maxmaster027 napisał(a):

ACha no ja mam QD OLED i nie migoce, obraz jest ok, natomiast w TV na LCD bardzo migotalo a bylo 120hz i wlasnie szczegolnie z VRR na szarym tle. Wiec to pewnie zależy jaki oled i w jakiej technologii

QD migotają znacznie mniej i do tego brak zmiany gammy w zależności od odświeżania ;)

Opublikowano
Teraz, sideband napisał(a):

QD migotają znacznie mniej i do tego brak zmiany gammy w zależności od odświeżania ;)

A no wlasnie to by sie zgadzalo. A jaka zalete maja WOLED w takim razie? Bo to chyba to ze maja diode biała i lepsza biel czyli pewnie wieksza jasność okupiona najwyraźniej migotaniem

Opublikowano
6 minut temu, maxmaster027 napisał(a):

A no wlasnie to by sie zgadzalo. A jaka zalete maja WOLED w takim razie? Bo to chyba to ze maja diode biała i lepsza biel czyli pewnie wieksza jasność okupiona najwyraźniej migotaniem

Teoretycznie wyższa żywotność na wysokich jasnościach.

Biały piksel dają wyższą jasność, ale zarazem psuje kolory w HDR przy najwyższych jasnościach. Nie ma nic do jakości bieli.

Stricte w bieli nie ma większych różnic tylko w QD brak polaryzatora powoduje, że praktycznie nie zmienia się pkt bieli w zależności od kąta patrzenia i na większym ekranie WOLED z polaryzatorem będzie miał przekłamania bieli ;) Brak polaryzatora powoduje problemy z czernią kiedy światło pada bezpośrednio na ekran każde rozwiązanie ma plusy i minusy.

Nie wiem czy Tandem rozwiązał problem color bandingu jeżeli nie to dochodzi jeszcze color banding na WOLED.

 

Opublikowano
2 minuty temu, sideband napisał(a):

Nie wiem czy Tandem rozwiązał problem color bandingu jeżeli nie to dochodzi jeszcze color banding na WOLED.

O muszę sprawdzić po robocie, bo na 1gen nawet pulpit Windowsa oryginalny miał banding 

Opublikowano

Pany, cały czas zastanawiam się nad ponownym zakupem OLED od MSI :hmm:, ale tym razem w tej nowszej wersji 322URX.

Jest niezła promocja na MediaExpert i z ratami od maja wyszło by koło 3900, zamiast 4199 :hmm:.

 

https://www.mediaexpert.pl/komputery-i-tablety/monitory-led/monitor-msi-mpg-322urx-qd-oled-31-5-3840x2160px-240hz-0-03-ms-gtg

 

Tylko czy za chwilę firmy nie ogłoszą nowszych modeli i zostanę ze starym, gdy w tej cenie będzie świeży :heu:

 

Opublikowano

CURX to zakrzywiony, a takiego nie chcę, zwłaszcza, że OLED ma takie kąty widzenia, że mija się to z sensem.

Za to 312URX, można mieć faktycznie za 3500-3600, ale jak brać to chyba już nowszy z DP 2.1 i oficjalnym wsparciem dla Nvidia Gsync :hmm:

Opublikowano (edytowane)

Chciałoby się komuś opisać woled vs qdoled vs qled? Kolega chce kupić tv. Krzyknąłem, że oled to game changer, na co inny zapytał, czy porównuje zwykły led (nie qled) do oled, po czym dodał, że między qled, a oled nie ma już tak wielkiej różnicy. No i faktycznie z qled nie miałem kontaktu. 

Edytowane przez j4z
Opublikowano
22 godziny temu, PaVLo napisał(a):

Za to 312URX, można mieć faktycznie za 3500-3600, ale jak brać to chyba już nowszy z DP 2.1 i oficjalnym wsparciem dla Nvidia Gsync :hmm:

Z tych poprzednich tylko Aorus FO32UP2 wyszedł z DP 2.1 i teraz na promocji z kodem jest.

 

https://www.mediaexpert.pl/komputery-i-tablety/monitory-led/monitor-gigabyte-aorus-fo32u2p-31-5-3840x2160px-240hz-0-03-ms-gtg

 

Oficjalnie nie ma podanego gsync, ale normalnie działa. 

Z tego co czytałem to ten nowy urx ma matową matrycę. Aorus nie ma całkiem matowej a lekko błyszcząca. 

  • Like 1
Opublikowano
Godzinę temu, j4z napisał(a):

No i faktycznie z qled nie miałem kontaktu

QLED to marketingowa ściema Samsunga z czasów, kiedy nie mieli tak rozwiniętych OLEDów. Nic to z oledem nie ma wspólnego, po prostu bardziej kolorowy LCD.

 

WOLED vs QD-OLED to cały ten wątek i masa podobnych w internecie. QD to matryce Samsunga a Woled jest od LG. Każdy ma swoje wady i zalety.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Na oryginalnych oringach nie ma szans tego zrobić, żeby było szczelne. Testowo wrzuciłem trochę grubsze z innych złączek i wygląda na szczelne, w następnym tygodniu będę miał już wszystkie części to będzie loop składany. Z minusów, nie da rady tego pogiąć więc wszystko będzie na prostych rurkach, z dużą ilością złączek kątowych 90. Kolejny minus to średnica wewnatrz, standardowe rurki mam w wymiarach 16\12 a te są 16\9.5 więc możliwe że przepływ spadnie, ale wszystko będzie na 2xd5 na zewnętrznej chłodnicy mora IV 600 poza komputerem, więc można podkręcić obroty na d5. Jak wszystko się uda z tymi rurkami to wrzucę efekt końcowy, jeśli nie to będę na zwykłych płaskich rurkach robił.
    • https://www.bankier.pl/wiadomosc/UOKiK-wszczal-postepowanie-wyjasniajace-dot-ograniczenia-konkurencji-przy-sprzedazy-sprzetu-elektronicznego-9075242.html   Bardzo szybko korpo go sprowadzą do pionu  zmowy cenowe są cały czas w XXIw. Korpo są w wielu obszarach dogadane. Albo wyślą genialnie opłacanych prawników na niego albo pogadają z kim potrzeba z władz, albo skuteczniej ukryją dogadywanie się  Jedna z bardzo niewielu spraw co wypłynęła w temacie urządzania ludziom nowego "raju" przez korpo. 
    • Tu pełna zgoda i zrozumiałe podejście. Też uważam, że to by było najlepsze, ale widzę dwa sensowne powody, przez które autorzy testów mogą mieć inna zdanie: 1. Jest naprawdę cała masa laików, którzy kompletnie nie rozumieją czemu wyniki w 720p i 1080p są lepsze aby ocenić realne możliwości procesora. Wyobraź sobie, że robisz test przez trzy dni, masa roboty, wychodzi Ci, że 14800X3D wyprzedza Intela 999AI o 90%, cieszysz się, że jest taki wielki postęp, że coś fajnego, a potem widzisz jak jakiś filmik youtubera na YT z milionem wyświetleń mówi o Twoim teście i pada "ten gość potwierdził, że różnica to tylko 2%, więc nie ma co dopłacać". Cała praca w błoto i do tego masa ludzi ogłupiona bzdurami. 2. Zasoby. Czas. Jeśli takie wyniki interesują np. 20% Twoich widzów/czytelników, a w tym czasie możesz spożytkować czas lepiej, to możesz uznać, że testy w 1080p wystarczą.   Optymalnie by chyba było zrobić tak - testy w 720p/1080 - wybrać te, gdzie są duże różnice - zrobić w tych grach testy w 1440p i 4K - dostęp do tego dać za okienkiem "klikam, ale rozumiem, że testowanie wydajności proca ma sens tylko w 1080p" czy coś   Ale cóż. Testujący i tak zrobią jak uważają, czy nam się to podoba czy nie. No to już zależy od gry. Tak samo można nagiąć w drugą stronę, że Ryzen 5600 + 5070ti będzie szybszy niż 9800x3D plus rtx 4070 (bez Ti). Znowu dla niektórych graczy grających w  mniej mainstreamowych grach/ustawieniach/itp. znacznie lepiej wypadnie 9800x3d i 4070 niż Ryzen 7600 + 5090.  Sam do takich należałem przez poprzednie 25 lat i będę należał nadal, choć gdyby nie VR, to monitory z Pulsarem mogłyby tu sporo zmienić. Do tej pory było często tak, że jak zabraknie proca, to nic się nie da zrobić, albo tniesz detale, które psują całą imersję (pop-in) a w przypadku niemocy GPU można było iść na (owszem, często okropne) kompromisy. Wspomniałem o Pulsarze, bo spadek poniżej  X (gdzie X=fps i X=Hz na monitorze) nie oznacza takiej katastrofy, jak przy graniu z v-sync ON i stroboskopem. Z VR to już trochę skomplikowane, bo nadal liczy się przede wszystkim CPU, tylko że jak grasz w modowane gry albo jakiegoś MSFSa to 9800x3D + 2060 niekoniecznie musi wypaść lepiej od Ryzena 3600 z 5090tką, bo na jednym dasz radę pograć w 144p (bez zera!  a na drugim się porzygasz, bo nie utrzymasz FPSu komfortowego dla VRu choćby nie wiem co robić.   
    • https://videocardz.com/newz/gigabyte-launches-flagship-x870e-aorus-xtreme-x3d-ai-top-motherboard-at-1099
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...