Skocz do zawartości

Monitory OLED - temat zbiorczy


Rekomendowane odpowiedzi

Opublikowano
15 godzin temu, Phoenix. napisał(a):

Najgorszy oled jakikolwiek wyszedl za 1600zl ?? Gdzie za 2299zl jest nowy AOC qdoled :E 

Dużo jest do przodu ten aoc jak i gigabyte o którym wspominałem? Wydawała się spoko oferta jak następca stoi za 2500 a i przed dogadaniem myślałem że to ten. Gw to raczej nie mus przy tych oled :P

Co by nie było raczej będzie jakiś następca dla szybkiej tn bo w minileda aoc też raczej średnio było iść w moim przypadku. No nic zobaczy się i najwyżej jeszcze trochę zejdzie :P

 

https://www.rtings.com/monitor/tools/compare/lg-27gr95qe-b-vs-lg-27gs95qe-b/36349/49556?threshold=0.2

 

Opublikowano

Jeszcze, czego nie zauważyłem wczoraj, znacznie wzrosło zużycie prundu na GPU w idle, z 5-6W w 2,5K do 20-22 w 4K.

Spory skok, nie spodziewałem się tego.

Taki pobór miałem czasami gdy oglądałem filmy 4K na poprzednim monitorze.

Nie przejmowałbym się tym, ale przy tak niskich obrotach wentylatorów budy po jakimś czasie karta przekracza 55 stopni i uruchamia wentylatory, aby się schłodzić i tak w kółko.

Ogólnie nie podoba mi się to, bo takie skoki i spadki temperatury o prawie 15 stopni (wentylatory pracują, dopóki temperatura nie spadnie do 40 stopni) co kilka minut raczej nie służy elektronice.

Opublikowano
18 minut temu, Kadajo napisał(a):

Jeszcze, czego nie zauważyłem wczoraj, znacznie wzrosło zużycie prundu na GPU w idle, z 5-6W w 2,5K do 20-22 w 4K.

Spory skok, nie spodziewałem się tego.

Taki pobór miałem czasami gdy oglądałem filmy 4K na poprzednim monitorze.

Nie przejmowałbym się tym, ale przy tak niskich obrotach wentylatorów budy po jakimś czasie karta przekracza 55 stopni i uruchamia wentylatory, aby się schłodzić i tak w kółko.

Ogólnie nie podoba mi się to, bo takie skoki i spadki temperatury o prawie 15 stopni (wentylatory pracują, dopóki temperatura nie spadnie do 40 stopni) co kilka minut raczej nie służy elektronice.

i tak masz niezle u mnie na radeonie w 1440p 240hz skacze 25-30W na 4K 120hz 35-50W

Opublikowano (edytowane)

@Kadajo Ustaw sobie 60hz na pulpicie :E

 

A tak na serio to jest powód z którego przywróciłem wentyle w idle. Próbowałem wyłączać część, ale musi być jakiś obieg powietrza, aby owiewało gpu. Co by nie było szczególnie jak masz w lato ciepłej to po prostu chodząc po netach, youtube itd. z czasem gpu będzie łapać tempy.

 

U mnie sporo dają w tej kwestii 2 wentyle na spodzie budy i lekko wiejące na gpu.

Edytowane przez lukadd
Opublikowano

Słuchajcie tego.

 

Jak wiecie w panelu Nvidii możemy zmieniać głębię bitów kolorków. 8bpc, 10bpc, 12bpc.

Domyślnie sterownik ustawia mi 8bpc (sam panel w monitorze jest 10 bitowy).

image.thumb.png.5d58bd5705e0aa05cb430b7540aedd75.png

 

I teraz, jak wymusimy 10 albo 12 w sterowniku, bach mamy te 22W w idle.

Zmieniamy na 8bpc i spada do 14.

 

Próbowałem wyłapać różnice w gradiencie kolorów na testach Aidy, ale nie widzę różnicy w przejściach miedzy 8 a 12.

Ustawiłem wiec 8 i problem zasilania rozwiązany.

Jak pisze tego posta już widzę ze temperatura GPU spadła poniżej 48 stopni.

 

Edit

Teraz w idle widzę nawet 11W... ale skacze pomiędzy 11-15

 

 

 

Nie rozumiem jeszcze jednego.

Z jakiegoś powodu po zmianie monitora mój CPU teraz w idle spada nawet do 6W, buja się miedzy 6-9

Wcześniej było 9-13... i żeby osiągnąć 6 musiałem w Windows wybierać plan "power save"

Teraz jak wybiorę "power save" to CPU w idle oscyluje miedzy 4-5W

 

Co to się wyprawia :E

 

Opublikowano
2 godziny temu, Kadajo napisał(a):

(sam panel w monitorze jest 12bitowy).

Gdzie to wyczytales?? 12bit to sa tresci Dolby Vision czego monitor nie obsluguje.

2 godziny temu, Kadajo napisał(a):

12 w sterowniku,

12bit w PC jest bezuzyteczne wiec nie warto sobie tym glowy zawracac.

  • Upvote 1
Opublikowano

Tylko pytam :D

 

Mały update.

 

Włączenie opcji w Windows co prawda powoduje przycięcie palety kolorów natomiast automatycznie wymusza 10 bitów wiec znowu pobór prądu leci do góry (nawet tam piszą w nawiasie, że może to zwiększyć zużycie energii).

 

Co wiec zrobiłem ?

Wymusiłem z panelu Nvidii 8bit, co automatycznie wyłączyło nasza opcje w Windows i przywróciło szeroki gamut.

Zmniejszyłem ręcznie nasycenie kolor w panelu Nv z 50% na 44%:

 

ebd3dafdb7d2792fe43a8686c32c1cc2.thumb.png.ee1878a9cf47114a6c5526de99e08ff8.png

 

Kolory teraz mniej więcej są nasycone jak przy standardowym gamucie.

Zobaczymy, jak się teraz będzie wszytko sprawować.

Opublikowano

@Kadajo

 

Ja dobrze rozumiem że przesiadłeś się z 1440p na 4k?

 

Jaki spadek wydajności na 4070 ti ? grasz w jakieś gierki multi typu BF itf?

 

Pytam bo kumpel ma 1440p i 7900 XTX a chciał by zobaczyć tego 27 cali 4K on sporo gra w BF itd i boi się że za dużo klatek mu zje, a FSR i DLSS chyba robi jakiś input lag czy nie ?

 

Może by kupił 5080 super 24 gb jak wyjdzie.

  • Upvote 1
Opublikowano

Tak, przeskoczyłem na 4K

Jeśli chodzi o BF2024 to ja grałem w 82 FPS wiec na to mi jeszcze mocy starczyło, włączyłem DLSS Quality i jazda.

Ogólnie RTX 4070 Ti mocy jako tako starcza jeśli będziemy się bawić DLSS lub obniżać detale, ale gorzej z ilością pamięci, bo ja mam 12GB wersje. Tutaj już jest lipa.

Ostatecznie można zejść na 2,5K skalowanie działa zadziwiająco dobrze.

 

Jak wyjdzie 5080 z 24GB pamięci to nawet ja się zacznę zastanawiać, chociaż raczej będę czekać na nowe karty.

Tak czy siak, moje kolejne GPU musi mieć co najmniej 24GB pamięci i być tak szybkie jak nie szybsze od 4090.

I nie pożerać 400W.

  • Upvote 1
Opublikowano (edytowane)
13 minut temu, Brolly napisał(a):

Pytam bo kumpel ma 1440p i 7900 XTX a chciał by zobaczyć tego 27 cali 4K on sporo gra w BF itd i boi się że za dużo klatek mu zje, a FSR i DLSS chyba robi jakiś input lag czy nie ?

Generator klatek wprowadza laga nie DLSS. Ogólnie DLSS zwiększa ilość klatek to powoduje więcej FPS i masz dzięki temu mniejszy imput lag.

 

13 minut temu, Brolly napisał(a):

Ja dobrze rozumiem że przesiadłeś się z 1440p na 4k?

 

Jaki spadek wydajności na 4070 ti ? grasz w jakieś gierki multi typu BF itf?

Ja po prostu jak zmieniłem monitor z 1440p na 4k to w BF włączyłem DLSS quality wiec wydajność podobna do 1440p.

Edytowane przez Kabor
  • Upvote 2
Opublikowano
22 minuty temu, Kabor napisał(a):

Ja po prostu jak zmieniłem monitor z 1440p na 4k to w BF włączyłem DLSS quality wiec wydajność podobna do 1440p

BF ma tak stary DLSS, ktory wyglada po prostu okropnie. mam nadzieje, ze dodadza transformera do nowego bfa.

Opublikowano (edytowane)
40 minut temu, Phoenix. napisał(a):

BF ma tak stary DLSS, ktory wyglada po prostu okropnie. mam nadzieje, ze dodadza transformera do nowego bfa.

 

18 minut temu, Kadajo napisał(a):

Heheh nawet zapomniałem ze w BF2042 nie ma Transformera :E

Naprawdę w 4K DLSS wygląda znacznie lepiej.

https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/

 

Więc można wymusić z NV AP.

image.thumb.png.d64a3f9e2c8c2cfb5a17bd81200eb593.png

 

Ja wymuszam z poziomu inspectora.

 

Bana nie dostałem jeszcze za to ;-)

 

Edytowane przez Kabor
  • Upvote 1
Opublikowano
Godzinę temu, Kadajo napisał(a):

4K

Godzinę temu, Kadajo napisał(a):

moje kolejne GPU musi mieć co najmniej 24GB pamięci i być tak szybkie jak nie szybsze od 4090

Populacja PCMR zwiększa się :doping:

  • Haha 2
Opublikowano
1 godzinę temu, Kadajo napisał(a):

Tylko pytam :D

 

Mały update.

 

Włączenie opcji w Windows co prawda powoduje przycięcie palety kolorów natomiast automatycznie wymusza 10 bitów wiec znowu pobór prądu leci do góry (nawet tam piszą w nawiasie, że może to zwiększyć zużycie energii).

 

Co wiec zrobiłem ?

Wymusiłem z panelu Nvidii 8bit, co automatycznie wyłączyło nasza opcje w Windows i przywróciło szeroki gamut.

Zmniejszyłem ręcznie nasycenie kolor w panelu Nv z 50% na 44%:

 

Kolory teraz mniej więcej są nasycone jak przy standardowym gamucie.

Zobaczymy, jak się teraz będzie wszytko sprawować.

Nic niczego nie wymusza niezależnie od tryby możesz wbić 8/10/12bit. Pełny gamut plus zjechane kolory w CP to masz pięknie rozjechane kolory :E Ale skoro tego nie widzisz to wcale nie dziwię się, że nie dostrzegasz innych wada tej matrycy :E

12bit to 10bit+dithering przy WOLED może ciut pomóc z color bandingiem.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • @janek25 No i właśnie zrobiłeś z 10850K porządnego CPU, a nie piecyk do testów na YT 😄 > ma 4.7 czyli 100 odkrecone ale wataz spadł z 40% wraz z uV Czyli: - all‑core 4.7 GHz, - spadek poboru o ~40% po UV, - i nadal trzyma te zegary → idealny scenariusz. Te „brakujące” waty to były w 90% śmieciowe waty – dużo ciepła, mało FPS. > Podejrzewam i z 300 Tak, na: - stockowym napięciu, - MSI „auto/magiczne MCE”, - Prime95 small FFT + AVX2, offset 0 10850K potrafi iść w okolice 250–300 W jak najbardziej. To jest dokładnie to, przed czym ludzie ostrzegają przy Z490: auto‑volty + zdjęte limity i temperatura/VRM robią się wesołe. Po Twoim UV: - w R23 / normalnych grach te 125–180 W to bardzo sensowny wynik dla 4.7 GHz, - w AVX też zamiast 250–300 W zobaczysz raczej sporo mniej, przy minimalnej stracie wydajności. Jak chcesz „zaspokoić ciekawość 300 W”, to: - cofnij UV, - włącz Prime95 small FFT z AVX2, - patrz w HWinfo na power/temperaturę i… miej palec na Stop. Do zabawy OK, do życia – to co masz teraz (4.7 + UV + ~125–180 W) to złoty środek. gpt-5.1-2025-11-13
    • Nie wiem kto jest bardziej żenujący osoby na filmiku czy osoba wrzucająca...
    • To nie żart. To był dla mnie najlepszy Alien ostatnich lat. Powiew świeżości.
    • ma 4.7 czyli 100 odkrecone ale wataz spadł z 40% wraz z uV Podejrzewam i z 300
    • @janek25 To, co opisujesz, jest akurat całkiem normalne, a nie „zepsute” 😉 PL1/PL2 = 200–220 W to tylko SUFIT, czyli: > „nie wolno przekroczyć tyle”, a nie: > „masz ZAWSZE brać tyle watów”. Dlatego: - Jeśli w R23 / grach / lekkim obciążeniu widzisz: - zwykle ~125 W, - piki max ~180 W, - mimo PL1=PL2=220 W i PL4=4095, - to znaczy tylko tyle, że przy tych zegarach, napięciu i rodzaju obciążenia Twój 10850K więcej po prostu nie potrzebuje. Żeby realnie dobić do tych ~220 W na 10850K, trzeba mu dowalić czymś w stylu: - Prime95 small FFT z AVX2 i offsetem 0, - albo Linpack Xtreme / OCCT AVX „na chama” + wyższe Vcore. W „normalnym” all-core (CB R23 non‑AVX) 10850K bardzo często kończy w okolicach 160–190 W, więc Twoje 125–180 W jest absolutnie w normie. Jeśli chcesz się upewnić, że to nie limit Cię przycina: 1. Odpal HWinfo → patrz na: - `IA: Power Limit Exceeded` / `PL1/PL2` / `EDP OTHER` / `THERMAL`. 2. Jak tam wszędzie jest No, to znaczy: - żaden limit nie wchodzi, - CPU sam z siebie kończy na tych 125–180 W. Jak powiesz, na jakim teście widzisz te 125–180 W (CB R23? Prime? jaka temp?), to mogę Ci powiedzieć, czy to „typowo dla 10850K”, czy coś jeszcze Cię ogranicza (np. current limit / Lite Load / temp). gpt-5.1-2025-11-13
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...