Skocz do zawartości

AMD ZEN 5 (SERIA RYZEN 9xxx / SOCKET AM5) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano

To że w swojej ignorancji czegoś nie wiesz, nie znaczy, że to nie istnieje.

Czy to na 7800x3d, a teraz na 9850x3d nie spotkasz się z ograniczeniem wydajnosci przez cpu, bo masz słabe gpu.

W BF6 nawet 9800x3d jest kagańcem dla rtx 4090 w 1440p, załączenie monitorowania parametrów zabiera czas nawet na tym cpu co odbija się na spadkach fps

 

 

  • Haha 1
Opublikowano (edytowane)
28 minut temu, tomcug napisał(a):

Ja gram zawsze z OSD, co więcej łącznie z pomiarem mocy w Afterburner, który rzekomo ma powodować stuttery, i nigdy żadnych problemów na żadnej platformie %-)

Kiedyś amd miało aplikacje na telefon i tam można było odpalać informacje o sprzęcie na żywo. Szkoda że już nie wspierają. Można było ze starego telefonu zrobić sobie dodatkowy ekranik w obudowie z informacjami 😉

Edytowane przez Hard Reset
Opublikowano
11 godzin temu, Sidr napisał(a):

Tak na marginesie. Z ciekawości. Wy jak gracie, to też macie włączone OSD z tymi wszystkimi statystykami?

Mam dostosowane włącz wyłącz nakładkę, jak potrzeba to włączam by za chwilę wyłączyć.

 

obraz.png.6e80d9ddbf95350d96eeeb7cabea90a6.png

  • Like 1
Opublikowano (edytowane)
8 minut temu, SylwesterI. napisał(a):

To że w swojej ignorancji czegoś nie wiesz, nie znaczy, że to nie istnieje.

Czy to na 7800x3d, a teraz na 9850x3d nie spotkasz się z ograniczeniem wydajnosci przez cpu, bo masz słabe gpu.

W BF6 nawet 9800x3d jest kagańcem dla rtx 4090 w 1440p, załączenie monitorowania parametrów zabiera czas nawet na tym cpu co odbija się na spadkach fps

 

 

Cale szczescie, ze problem wystepuje tylko w twojej glowie, a my mamy swiety spokoj i posmiac sie mozna ;) 

Edytowane przez Phoenix.
Opublikowano
23 minuty temu, SylwesterI. napisał(a):

W BF6 nawet 9800x3d jest kagańcem dla rtx 4090 w 1440p, załączenie monitorowania parametrów zabiera czas nawet na tym cpu co odbija się na spadkach fps

Ile na tym tracisz? 1%?

Opublikowano
23 minuty temu, Reddzik napisał(a):

Mam dostosowane włącz wyłącz nakładkę, jak potrzeba to włączam by za chwilę wyłączyć.

 

obraz.png.6e80d9ddbf95350d96eeeb7cabea90a6.png

Kurcze, u nie przełącz nie działało. Musiałem wł/wył na oddzielne guziki ustawić.

Opublikowano
Teraz, tomcug napisał(a):

Ile na tym tracisz? 1%?

Około 20-30fps na 1% i podobnie albo ciut więcej na 0,1% 

Określenie dokladnych wartości w multi bf jest trudne, bo każda rozgrywka jest inna.

Testowalem w ten sposób, że 10-15 gier sprawdzałem z capeframex  z włączonym monitoringiem w msi afterburner lub hwinfo, a kolejne 10-15  z wyłączonym, jest wyraźnie gorzej z włączonym monitoringiem.

Mozna to nawet ustawic ekstremalnie, dac monitorowanie wszystkich rdzeni, napiecia temperatury, obciazenie, do tego wszystkie parametry z czujnikow plyty, gpu .

Wtedy nawet bez capeframex czuc przycinki.

Ale gra musi latac na granicy cpu nie gpu

Opublikowano
12 godzin temu, Sidr napisał(a):

Tak na marginesie. Z ciekawości. Wy jak gracie, to też macie włączone OSD z tymi wszystkimi statystykami?

Zawsze włączony i żadnych dropów jak co niektórzy tutaj sugerują .

  • Like 1
Opublikowano
11 minut temu, SylwesterI. napisał(a):

Około 20-30fps na 1% i podobnie albo ciut więcej na 0,1%

A wizualnie byłeś w stanie odczuć różnicę? Bo te programowe odczyty frametime nie muszą być 100% poprawne.

11 minut temu, SylwesterI. napisał(a):

Mozna to nawet ustawic ekstremalnie, dac monitorowanie wszystkich rdzeni, napiecia temperatury, obciazenie, do tego wszystkie parametry z czujnikow plyty, gpu .

Wtedy nawet bez capeframex czuc przycinki.

To dość oczywiste, że jak przeciążysz CPU liczbą sensorów oraz częstotliwością ich odświeżania, to będzie spadek wydajności. Wtedy nawet w menedżerze zadań widać w spoczynku spore, dodatkowe obciążenie. Co nie zmienia faktu, że przy sensownych ustawieniach żadnych odczuwalnych efektów ubocznych nie ma.

Opublikowano (edytowane)
35 minut temu, tomcug napisał(a):

A wizualnie byłeś w stanie odczuć różnicę? Bo te programowe odczyty frametime nie muszą być 100% poprawne.

 

Jak nie mam włączonego monitoringu to i tak mam 1% fps niższy od średniego, co jest naturalne, ale wtedy przy locku na 225fps, 1% low na poziomie 180-190fps nie jest tak upierdliwy, nie jest idealnie, ale tragedii nie ma.

Natomiast jak włącze monitoring i 1%low spada do 140-150fps to już czuję że gra nie chodzi jak "masełko".

Z tego względu mimo monitora 240hz nie ustawiam locka na 238fps, bo spadki do 180-190fps na 1%low zaczynają męczyć, nie mówiąc o 140fps

 

Odnosnie pomiaru 1% low, konkretnych wartosci, czy są idealnie dokladne, podejrzewam że nie, skoro liczone na cpu, a cpu zarypany pod korek, to i pewnie są przekłamania, co nie zmienia faktu ze low dropi

Edytowane przez SylwesterI.
Opublikowano

To może padłeś ofiarę tego problemu ze spadkami przy odczycie mocy GPU przez Afterburner, o którym niektórzy wspominają. Ja nigdy z tym spadków nie miałem, ale kto wie.

Poza tym odczyty można przecież dostosować, wyłączyć całkowicie niepotrzebne sensory, ustawić odświeżanie na dłuższą wartość, itd. Na pewno dałoby się ten problem rozwiązać. Choć oczywiście gra bez OSD też jest rozwiązaniem.

  • Upvote 2
Opublikowano

To nie to, mam takie spadki przy msiafterburner, przy sensorach w gpu-z, przy wlaczonym hwinfo.

Czy je wlacze razem, czy osobno.

Jak gram i zalezy mi na "maselku" w grze to wtedy wylaczam wszystko co zbedne.

Jak chce sprawdzic temperatury,pobor mocy, napiecia wtedy wlaczam, robie pare rundek, bez spiny, jak wszystko ok, znowu wylaczam

Opublikowano (edytowane)
39 minut temu, MarcoSimone napisał(a):

U siebie tego nie widzę ale zbadam dokładniej temat. 

Często też gram na ograniczeniu do 162 fps bo mam monitor 165Hz i odpalony gsync.

Może to ma wpływ, że niewidzę spadków.

Cpu masz wyżej taktowany, wyższa rozdzielczosc, karta niewiele słabsza no i lock na 162fps.

Więc pewnie różnic nie bedzie, sprawdz na gsync off, lock na 225fps, i 1440p nie wide, wszystko low, pisze o bf6 zebys nie wyskakiwal jak filip z konopi z jakims warzone, czy inna gra.

5 minut temu, Sidr napisał(a):

To może w jakimś minimalnym stopniu wpływać na wydajność. Pamiętam, że jak miałem włączony HWMonitor i cośtam jeszcze, to wynik w cinerbenchu miałem niższy.

Pewnie że wpływa, jak cpu jedzie na granicy wydajnosci to kazde dodakowe obciazenie stanowi problem, w średnim nie widac roznicy, w low widac

Edytowane przez SylwesterI.
  • Upvote 1
Opublikowano
17 minut temu, Sidr napisał(a):

To może w jakimś minimalnym stopniu wpływać na wydajność. Pamiętam, że jak miałem włączony HWMonitor i cośtam jeszcze, to wynik w cinerbenchu miałem niższy.

Dlatego do testu cb wybiera sie wyzszy priorytet, zeby unikac wlasnie tego co piszesz ;) 

  • Like 1
Opublikowano (edytowane)

Trzeba się bliżej przyjrzeć apce "Process Lasso" :woot: niby odciążenie rdzenia nr 0 czy 1 z obliczeń dla GPU poprawia wydajność, płynność... trzeba sprawdzić :)

 

Coś tam znalazłem :hmm:

Oto najczęściej polecane i sprawdzone ustawienia pod gry online (Valorant, CS2, Fortnite, Apex, Warzone, Tarkov, CoD, LoL itp.):

Najważniejsze globalne ustawienia (raz na zawsze)

Options → Power → Active Power Profile → wybierz Bitsum Highest Performance

Options → ProBalance Settings → włącz ProBalance (zostaw domyślne ustawienia)

Options → Gaming Mode → włącz (jeśli grasz głównie przez Steam/Epic – sam wykrywa gry)

Options → SmartTrim → wyłącz (większość ludzi radzi wyłączyć w 2025/26)

Options → Performance Mode / Efficiency Mode → wyłącz jeśli masz procesor Intel 12-15 gen lub AMD Zen 4/Zen 5

Edytowane przez sniper76
Opublikowano (edytowane)
3 godziny temu, Reddzik napisał(a):

Mam dostosowane włącz wyłącz nakładkę, jak potrzeba to włączam by za chwilę wyłączyć.

 

obraz.png.6e80d9ddbf95350d96eeeb7cabea90a6.png

Ja też od czasu do czasu robię sobie podgląd w OSD. Jak pokazuję fotki z jakiejś gry (czyli tylko W3 i ryby :lol2: ) to właśnie wrzucam OSD. Normalnie to mam wyłączony OSD. Z drugiej strony, jak coś się robi za ciepło, to wentylatory zaczynają szybciej kręcić i wtedy je słychać, a to już pod kontrolą FanControla. Teraz, jak piszę i oglądam film, komputera nie słyszę:

 

 

 

 

5.jpg

Edytowane przez leven
  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...