Kyle
Użytkownik-
Postów
1 458 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Kyle
-
... czujnik się zaciął (żart). Ciekawostka:
-
Nie wiem jakie możliwości ustawień ma technologia subpikselowego AA dla czcionek na Linux.
-
Powiedz jej, że pracujące mechanicznie elementy się po prostu zużywają. Sprzęgło, czy dwumasa ma określoną trwałość, po której te elementy są zużyte. Możesz dodać, że podobnie jest np. z filtrem DPF - niby nie jest to taka "część mechaniczna", ale po np. 160 000 kilometrów, się to potrafi po prostu ROZPADAĆ.
-
Mój monitor (podświetlenie LED) na ustawieniu 50% dawał ~200cd, a po 6 latach daje tą jasność przy 56%. W obu przypadkach ekran skalibrowany do D65 (6500K). Przy czytaniu (większość czasu pracy) jasność mam ustawioną na rejony 60cd, a tylko do filmów/gier/referencyjne oglądanie zdjęć ustawiam jasność na 200cd (przy czym monitor pracuje przy tej jasności sumarycznie zdecydowanie krócej, niż przy 60cd). Także zachęcam do wyciągnięcia wniosków
-
Jasność będzie niższa (niż nowego egzemplarza tego modelu). Temperatura barwowa będzie pewnie bliżej zimniejszych kolorów (wyższa temp. barwowa) więc trzeba by to zrekalibrować ... a wówczas znowu nieco spadnie jasność, bo na LCD temp. barwową ustawia się przez "przysłanianie matrycą" emitowanego światła z (zaniebieszczonego na skutek zużycia) podświetlenia. Jak duży będzie to spadek jasności ostatecznie, to by trzeba zmierzyć. Wiele zależy od tego ile godzin, przy jak dużej jasności był monitor użytkowany.
-
Może @wallec nie kupuje tego, tylko pracuje w jakimś sklepie i bierze sprzęt "do testów"
-
I ta wymiana z LGA1700, na LGA1851? Teraz tyle zachodu na całą operację (wymiana, kupno, sprzedaż).
-
Najlepiej przy którejś z mocy przetestowanych na powyższym teście i9 14900K.
-
To jest niesamowite, co Intel robi z tymi napięciami na "stock". Co prawda takie napięcie to zwykle jakiś chwilowy wyskok, ale jednak wysoko.
-
Więc pozostaje rozwiązanie siłowe: OLED (dowolnego typu) 31,5" 6K lub 26,5" 5K i wyłączone ClearType ps. tak bardziej serio, to jak wspomniałem już przy 4K @ 31,5" brak cleartype widzę, że wygląda na LCD zupełnie OK (więc na OLED też powinno)
-
Teraz to każdy monitor pokrywa niemal 100% sRGB (zwykle wielkość gamutu jest większa, więc bez kalibracji i oprofilowania i tak się nie obejdzie, jak materiały sRGB mają być bez przekłamań wyświetlane). Wybierz sobie jakiś monitor na IPS 2560x1440 z regulacją góra-dół. ps. "2K" to 2000 ... bierze się to od ilości pikseli w poziomie. Także "monitor 2K" to monitor praktycznie 1920x1080/2048x1080. Natomiast monitor 2560x1440 należałoby określić jako "2,5K".
-
Problem nie tyle jest w ekranie, co w ClearType, nieogarniającym danego ułożenia subpikseli - przydała by się jakaś modernizacja ClearType. Alternatywą jest wyłączenie ClearType - na LCD 31,5" 3840x2160 wygląda to spoko, więc na OLED/WOLED/SROLED z takim lub wyższym PPI też powinno.
-
Chłodzenie CPU powietrzne z RGB lub wyświetlaczem od strony okna
Kyle odpowiedział(a) na j4z temat w Chłodzenie, obudowy, zasilacze i modyfikacje
Obaj macie rację. Po prostu dobre AiO potrafi odebrać więcej tym blokiem z cieczą, od dobrego chłodzenia klasycznego. To ma znaczenie przy większych mocach. -
Grałem w Borderlands 3 - ot po prostu gra ma swój specyficzny "klimacik". Można zagrać.
-
I w tym problem. Tym czasem powinien być realny postęp, a nie kilka procent do przodu. Popatrz na wyniki i3 14100 (4 duże rdzenie + SMT) i Core 3 205 (4 duże rdzenie bez SMT + 4 małe rdzenie) - można?
-
Core Ultra 7 265K (20 rdzeni logicznych ... i fizycznych), powinien się nazywać Core Ultra 5 245K, bo to naturalny następca i5 14600K (20 rdzeni logicznych). Przy Core 3 205 Intel (następca i3 14100) zrobił to już jak należy.
-
W chwili zwrotu tego procesora do sklepów, kod powinien być blokowany, to by ukróciło część cebularskiej januszerki.
-
I to pisze ktoś, kto twierdzi, że tearing wyklucza płynność:
-
Będę kombinował jak uzyskać na czymś takim najlepszy efekt Kto wie, ... może nawet przeproszę się z tymi FrameGeneratorami
-
VRR synchronizuje dynamicznie/ciągle odświeżanie z fps, nawet pomimo jego zmienności (Vsync tego nie robi i jak FPS spadnie, to Hz już nie spadnie). Jeśli przy VRR wystąpiła by znaczna różnica czasu renderowania klatek, które są obok siebie, to stutter powinien wystąpić.
-
Stutter zależy od znacznej różnicy czasu renderowania i wyświetlania sąsiadujących (lub przynajmniej blisko leżących) klatek.
-
Tak, tutaj dokładnie tak mam. W każdej grze. Vsync 60Hz + limit 60fps w sterach @ stałe 60fps (trzeba się trochę pobawić by ustawienia w danej grze odpowiednio dobrać, by nie było spadku nawet na chwilę poniżej 60fps) i nie ma stutteringu. ps. nie używaj FastSync, jeśli priorytetem jest płynność
-
Oczywiście że używam. The Last Of Us Part 1, Part 2, Shadow Of The Tomb Raider, World War Z (Vulkan) ... XDDDDDDDDD ... któryś z Was coś źle zrozumiał, więc może zacytujcie miejsce, gdzie napisałem jakobym nie używał synchronizacji i nie miał teraingu.
-
No akurat o występujących problemach z płynnością, kiedy są znaczne zmiany fps przy FreeSync, to akurat nie ja pisałem
-
Dokładnie się mylicie. "Tearing" (czyli "rozrywanie obrazu") a płynność to różne zjawiska. U mnie nie ma stutteringu, ale nie używam FastSync. Stuttering to był na grze DaysGone, bez jakiejkolwiek synchronizacji i limitów fps (fps oscylował powyżej 70, a odświeżanie było 60Hz). Po ograniczeniu fps do odświeżania (limit 60fps@60Hz + Vsync) ten stuttering znikał.
