Skocz do zawartości

Kyle

Użytkownik
  • Postów

    780
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Kyle

  1. Gdyby rozwiązano problem z odbiciami światła w QD-OLED od wewn. części matrycy (co powoduje rozjaśnienie czerni w dzień) to QD-OLED byłoby świetnym wyborem (z ich nieźle wyglądającym rozpraszaniem refleksów od powierzchni), a tak ... bardziej bym się skłaniał w kierunku matowego WOLED. Zna ktoś jakiś niedrogi (do ~4 kPLN) OLED 31,5" 3840x2160 ASUS ROG STRIX na WOLED z matową (lub inną dobrze rozpraszającą) powierzchnią? Bo jest niby ASUS PG32UCDP, ale cena 6400zł lekko odjechana.
  2. Drugi kabel można sprawdzić miernikiem i porównać z pierwszym, czy odpowiednie przewody są w identycznych miejscach. Zawsze lepiej podłączyć wszystkie kable (popłyną mniejsze prądy), ale pod warunkiem, że są pewne/prawidłowe.
  3. Nadal i7 13700K jest szybszy w grach od Core 9 Ultra 285K i Ryzen 9950X: https://www.techpowerup.com/review/intel-core-ultra-5-245k/18.html Natomiast przy obliczeniach bardziej "pro", co może przedstawiać pomiar z Cinebench Multicore, istotnie np. Core Ultra 7 265K jest pomiędzy 14700K a 13900K. Także co masz na myśli? Że posiadacz jakiegoś i3/i5 z 2022 roku na LGA1700, ma wymieniać na Core Ultra lub Ryzen AM5? ... a może że na RaptorLake nie pograsz, bo za wolny do gier? Prędzej procesory na LGA1851 będą "passe" niż na LGA1700 czy nawet AM4, bo: jak masz stary komp. na LGA1700/AM4 to jest sens go modernizować nowszym CPU (szczególnie LGA1700 bo obsługuje PCI-E 5.0) jak składasz nowy komp. od zera, to lepiej kupić AM5 zamiast LGA1851, bo AM5 ma przyszłość
  4. Co prowadzi nas do wniosku, że w części gier nie da się zrobić poprawnego porównania.
  5. Fajnie widać pewne spadki jakości na newlargicznych elementach (w TheLastOfUsPart2 jakieś fale na wodzie, albo struny gitary) kiedy ustawimy 4K i zmieniamy tryb DLSS z wyższego, na niższy. Dokładnie tak. Możliwie najbardziej surowa wersja bez postprocessAA.
  6. Punktem odniesienia powinna być zawsze klatka rastrowa najbardziej zbliżona do wektorowej postaci. Najlepiej to uzyskać, renderując do bardzo wysokiej rozdzielczości (np. 7680x4320) i przeskalować to do wielokrotnie niższej (np. 2560x1440 - to będzie ten wzorzec jakościowy) przy pomocy skalowania Lanczos. Następnie ustawiamy natywną na 2560x1440, odpalamy różne metody renderingu ("natywne" 2560x1440, następnie 2560x1440 DLSS Quality itd. itp.) i porównujemy do naszego wzorca, czyli 2560x1440 zrobionego z "8K".
  7. Ja się dzisiaj nie mogę kłócić, bo jest gorąco, więc też to olewam (tak jest chłodniej)
  8. Dokładnie ... i jeszcze najlepiej bez włączonej przeglądarki w tle (która zjada VRAM i zaburzy wyniki)
  9. Kwestia buforowania, to jeszcze inny temat, jednak nawet po 20-30 minutach, można przełączyć tryb renderowania i będzie mniejsze zużycie VRAM w 3840x2160 DLSS UltraPerformance niż w 3840x2160 bez TAA/SMAA/BDSMAA . ... no ale mam odpalić ShadowOfTheTomb 4 You i sprawdzić ponownie? ps. różnica w jakości między oryginalnym DLSS a DLSS4 w ShadowOfThe Tombraider jest dziko duża.
  10. No i prawidłowo. Przy wyłączeniu DLSS, czyli taki full natywny, bez TAA i innego AA, powinno być więcej niż "jakość" ale mniej niż DLAA.
  11. Proponuję używać pojęcia "bazowej". Wiadomo, że użycie VRAM w 3840x2160 DLSS UltraPerformance jest większe, niż w 1280x720 bez DLSS.
  12. To zależy (np. różnicy w obrazie pomiędzy kolejnymi klatkami = szybkości ruchu). Generalnie DLSS ciężko spłycać do pojęcia "skalowanie", a czemu, to wystarczy sobie porównać jak wygląda obraz przeskalowany z 1280x720 do 3840x2160 w jakimś photoshop przy skalowaniu sześciennym, a jak wygląda obraz 3840x2160 DLSS UltraPerformance.
  13. Nie prawda, bo się porównuje do rozdzielczości natywnej/wyjściowej
  14. Mi tam zawsze użycie VRAM spadało po włączeniu DLSS.
  15. Na niektórych powłokach jest tak, że pod dużym (ekstremalnie) kątem jest lusterko, a na wprost mat. Tutaj liczyłem na podobny efekt (na wprost że będzie dobrze rozpraszać). Czyli tak ... na tym WOLED Glossy ASUS TrueBlack wygląda na to, że jest słabo z rozpraszaniem refleksów. Jednak czy na ASUS Glossy QD-OLED jest lepiej (wg. filmu wygląda na to, że tak, ale widzieliście na żywo?)? Z kolei bardzo źle jest z tą czernią na QD-OLED w dzień?
  16. ... aż tak fatalnie? Tam niby jest jakaś powłoka rozpraszająca przecież(jest ?). Z drugiej strony powłoka na QD-OLED pomimo że też glossy, to jednak na poniższym filmie sprawia wrażenie, że znacznie lepiej rozprasza, niż na tym TrueBlack WOLED - może ktoś potwierdzić, kto widział na żywo?: Osobiście bym wolał 34" 5120x2160
  17. Kyle

    14600k wysoka temperatura

    @wallec takie właśnie temperatury widywałem u testujących, jak zmierzyłeś. Dobrze to wygląda. ps. jak robicie testy temperatur dla danej mocy, to proponuję utrzymanie obciążenia aż do stabilizacji temperatury, bo przy jednym renderze w cinebench r23 to proc się nie zdąży nagrzać Jeśli macie procesory i5 14600K, to można by ustawić bezpieczne (nie przekraczające specyfikacji) PL1=125W, PL2=125W (czyli stałą moc) i puścić 10 minutowe obciążenie w Cinebench R23 multicore i porównać Wasze wyniki temperatur. Po 10 minutach jeszcze może się do końca nie ustabilizuje, ale i tak lepszy to wgląd w temperatury, niż pojedynczy render, który trwa sekundy.
  18. Kyle

    14600k wysoka temperatura

    Grzeje moc (110W w przypadku testu kolegi), nie ważne czy "zrobiona" dzięki AVX, czy inaczej. Tutaj mieli następujące temperatury: https://www.techpowerup.com/review/intel-core-i5-14600k/24.html 86,6 stopnia i z tego co pamiętam oni ustawiają PL2=PL1 dla procesorów "K", czyli by wynikało że tą temperaturę mieli przy 181W. ... teraz widzę, że tylko 174W: https://www.techpowerup.com/review/intel-core-i5-14600k/22.html - coraz dziwniejsze to, bo ludzie na forum często i gęsto mieli pobór ponad 200W bez limitów (na i5 14600K), a na techpowerup nawet nie dobiło do ustawionego limitu 181W.
  19. Tylko po to by zaktualizować BIOS, kupować UPS, to tak średnio Natomiast gdybyś chciał UPS dla tego, że masz zaniki zasilania i Twoja cierpliwość się skończyła, to lepiej już kupić porządny UPS z czystym sinusem (ale cena wówczas też jest odpowiednia).
  20. Kyle

    14600k wysoka temperatura

    @leven Jak na 110W to te 80 stopni czy aby na pewno nie jest zbyt wysoką wartością? Przyznaję, że tylko przez chwilę testowałem procesor na LGA1700 przy 110W (PL2=110W dla i7 14700) ale pod jedno-wieżowym powietrznym (Noctua NH-U14s) i nie nagrzał się do tak wysokich temp. Długo masz już to AiO?
  21. Kyle

    14600k wysoka temperatura

    Tutaj kolega ma problemy z Ryzen: - jak się coś źle ustawi, lub zmontuje, to ze wszystkim są problemy.
  22. Tak, krzywe wentylatorów (choćby obudowy) to już trzeba samemu zoptymalizować. Ja radzę zaktualizować, bo to eliminuje często błędy i ... nowe luki bezpieczeństwa. Minus taki, że jak zabraknie prądu w czasie aktualizacji, to będzie problem (najbezpieczniej robić to przez UPS).
  23. AMD zwykle domyślnie ustawiają się prawidłowo (moje doświadczenia na podstawie płyt ASRock B450 i Ryzen na AM4) - czyli nic nie musiałem grzebać. Domyślnie PBO powinno być OFF, natomiast PPT 88W - do sprawdzenia w HWinfo. Także wystarczyć powinien świeży BIOS i domyślne ustawienia BIOS.
  24. Jak na IDLE to gorąco. Normalne temperatury w IDLE to są może z 3x stopni (musiałbym sprawdzić ile jest na jakimś Ryzen 5500GT pod chłodzeniem BOX, czyli kaszaniastym, ale chyba coś koło tego) Ja bym wyłączył wszelkie PBO, UV i inne modne bzdety. Po rozbiciu mocy na 2 chiplety, faktycznie temp. mogą spaść, ale i tak masz za gorąco. Przecież ten procesor (Ryzen 7900 bez X) to jest "lód". Problemy z oddawaniem (transfer ciepła) to ma może jednochipletowy Ryzen 7600X z PPT chyba ponad 140W ... a nie dwuchipletowy 7900 z PPT 88W. Na screenie@polak7gt widzę Ryzen 7900 bez X (to jest lodowy CPU z PPT 88W - jak się go nie rozstroi przy pomocy UV/PBO to powinien chodzić jak złoto na niskich temp. szczególnie w Cinebench R23 multicore).
  25. Intel popełnił trochę błędów równocześnie, których popełniać nie musiał: ponownie zmienił podstawkę z LGA1700 na 1851 - z powodu pazerności - gdyby LGA1700 było dalej w planach wspierane (np. jeszcze 3 lata) to nie byłoby na forach zwrotu "LGA1700 jest już martwa bierz więc AM5" od dekady nie dbają o to, by domyślnie ich procesory działały zgodnie ze specyfikacją (ściągnięte domyślnie limity mocy przez producentów płyt) - ile mniej procesorów by padło, gdyby nie były tak pałowane przez nawet nieświadomych użyszkodników? niespecjalnie słuchają sugestii użytkowników, którzy nie bardzo chcieli małych i dużych rdzeni w desktop wadliwe wafle krzemowe, z których powstała część procesorów 13 generacji - to faktycznie był wypadek, jednak skoro chcieli robić na nich procesory, by całych wafli nie kasować, to powinni robić z tych wadliwych wafli tylko najniższe procesory, z maksymalną rezerwą pod wzgl. taktowania dla zachowania stabilności nawet po niemałej degradacji (dawać je powinni do i3/i5, a nie i7/i9) Nie wliczam samego problemu wadliwych wafli (a jedynie kwestię ich spożytkowania) czy wadliwych BIOS ładujących degradujące napięcie - bo to są wypadki, na które nie mieli świadomego wpływu.
×
×
  • Dodaj nową pozycję...