-
Postów
3 933 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
106
Treść opublikowana przez tomcug
-
Trudno, żeby nie było szybciej po podbiciu rdzeni/uncore oraz optymalizacji RAM A ze względu na cyrki, które czasem potrafi odwalać Windows bez E-cojones, bezpieczniej jest wywalić HT, pobór też spadnie.
-
Wszystkie/większość sieciowych shooterów lubią dużo CPU, więc na pewno w COD-ach, CS2, itd., byłaby różnica. Tyle, że +200 MHz to jakieś +2% do wydajności, więc to taka sobie różnica Ale jednak jest.
-
Taka wyszła. Na pewno Raptorowi pomagał fakt pracy z uncore 4,5 GHz zamiast 3,8 GHz. No i średnia to tylko średnia, np. w Spider-Manie ponad 30% wyszło.
-
Nic nie powiemy, bo miejsca testowe i tak są lipne pod CPU w tym wideo. Na podstawie Twojego ulubionego wideo nie wiadomo, czy coś zmieniać z procem, czy nie.
-
Być może magiczne optymalizacje oszukujące w AIDA, chyba każdy producent takie ma Na ASRocku to się nazywa "ZEN5 Gaming Optimizations".
-
Zależy, w co grasz.
-
Nie wallcuś, to tylko świadczy o tym, że chłop dobrał do testów miejsca kładące nacisk na moc GPU, a nie CPU. A to nie miał być test GPU. Takich, którzy nie wiedzą, czym jest test CPU, nie brakuje, więc mnie to nie dziwi.
-
Radeon 9070 (XT) - na jakich pamięciach jest Twoja karta - Hynix/Samsung?
tomcug odpowiedział(a) na radzio_z temat w Karty graficzne
Do 95 stopni jest ok. -
I spadek zegara, więc to +200 tym bardziej jest wtedy nic nie warte
-
Wspomniałeś o wrzucanych wcześniej paździochach z tRCD/tRP po 44, to napisałem o Micronach. Jak wyżej, jeżeli robisz obliczenia dla NASA, to może rzeczywiście potrzebujesz tak absurdalnie długich testów. DDR4 absolutnie tyle nie potrzebują do normalnego domowego użytkowania. Na co dzień używam kompa z podkręconym i zoptymalizowanym RAM DDR5, zestaw nigdy nie widział więcej jak godzinę testów w TestMem5 z profilem od anta z pełną alokacją RAM i przez ponad dwa lata nigdy, absolutnie nigdy się nic nie sypnęło. Tak samo wcześniej używałem zestawu z podkręconymi kostkami B-die, też nie robiłem testów stabilności dla NASA i też nigdy się nic nie sypło. Ostatni raz długie testy robiłem w czasach LGA 775, ale to prehistoria
-
Nie mogą. Możesz albo zaufać ludziom, którzy znają platformę AM5 i kości Hynix oraz wiedzą, że do normalnego domowego użytkowania dłuższe testy RAM są niepotrzebne, albo tradycyjnie teoretyzować, z DDR5 pewnie nie mając żadnego kontaktu. Te ustawienia ze zrzutu wyżej są kilometr od żyletkowania, więc tam nie ma się co sypnąć, a wydajność dają optymalną.
-
Jakiejś bardzo dużej, to może nie, ale kilka procent paździochy na kościach Microna tracą. Robisz obliczenia dla NASA?
-
CL nic nie znaczy Liczą się tRCD i tRP oraz przede wszystkim, jakie kości mają moduły, bo to istotne do OC. CL 30-40-40 jest wolniejsze niż CL 36-36-36
-
Ani teraz, ani nigdy w przyszłości
-
A czy Ryzeny 7000/9000 lecą na max Turbo w obciążeniu wielowątkowym/grach? Może poza najniższymi modelami z Turbo grubo poniżej 5 GHz nie. Więc masz odpowiedź
-
Arrow przeżuty i wypluty, nic nowego wallec Trzeba czekać na Nova.
-
Dawno w to nie grałem, teraz widzę, że połatali VRAM, którego zużycie przy dłuższej rozgrywce leciało w górę, a teraz chyba już nie. Wydajnościowo podobnie jak tuż po premierze, np. na 7900 XTX: 1080p: 106,7 -> 107,4 FPS 1440p: 77,9 -> 79 FPS 2160p: 42,9 -> 43,6 FPS
-
Nic dziwnego, że na premierę nie dali
-
RX 6800 XT się przywitał z RT Dla porównania pierwsza z brzegu mało wymagająca lokalizacja, typu miejsca, które wrzucaliście wcześniej: Dwukrotna różnica w FPS
-
Bez modów w tej gierce po prostu nie ma czerni, przechodziłem bez HDR Rzeczywiście tak jest, na ogół różnica żadna między Lumenem sprzętowym a programowym, jedynie w tej zimowej scenerii trochę widać, ale to i tak jest nic: https://ithardware.pl/testyirecenzje/jak_zoptymalizowac_gry_na_unreal_engine_5-45927.html#toc-anchor-3 Do tego sprzętowy Lumen zabija wykorzystanie sprzętu, na RTX 4080 waty z 300-320 spadają na 180-200, więc nic dziwnego, że FPS leci na pysk
-
I to jest właśnie to, o czym pisałem. Takie nastawy są tylko po to, żeby sztucznie podbić wynik w krótkich testach. Przykładowo benchmark kodowania wideo z krótkim zwiastunem jakiegoś filmu, PL2 napompuje wynik, ale przy dłuższej konwersji np. jakieś 30 minutowego materiału już nic nie pomoże
-
Tyle, że to, co zaznaczyłeś z PL1 125 W i PL2 253 W, funkcjonalnie jest identyczne z moimi ustawieniami PL1=PL2=125 W PL2 wyższe od PL1 utrzyma wyższy pobór przez minutę w grze i tyle zobaczysz z tych dodatkowych watów. PL2 wyższe od PL1 jest dobre tylko do tego, żeby napompować sztucnie wynik w Cinebenchu, koniecznie starszym, bo ten nowy już za długi ma test, żeby ten trick zadziałał
-
Sam zauważyłeś, test NUC-a z danym procesorem, a nie stricte tego procesora. Dawno już nie robiłem testów mobilnych CPU, ale jak robiłem, to zawsze z dostosowaniem PL do TDP ze specyfikacji, a nie wg widzimisię producenta danego laptopa, bo wtedy to jest test laptopów, a nie procesorów.
-
Tak jest w każdym teście CPU, nawet tych, które przysyła Intel, a nie AMD, także tutaj kulą w płot W każdym razie, co proponujesz? Zignorować w ogóle istnienie TDP i do głównych wykresów podawać typowe ustawienia automatyczne (czyli w przypadku Intela rzeczywiście będzie to 181/250 W), a obniżone limity do zestawienia zbiorczego? Ja jestem otwarty na każdą propozycję, ale musisz mieć świadomość, że to nie jest do końca tak, że to są zawsze limity, jakie masz, kiedy nie wchodzisz do BIOS-u. Bo są płyty np. B760, które fabrycznie ustawiają PL1 125 W i tylko PL2 181-253 W. A PL2 niczego do wydajności nie wnosi, po minucie spadnie w grze pobór do 125 W i już tak zostanie do końca rozgrywki.
