Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano

Cześć, wpadł mi w ręce i9-11900K. Zastanawiam się gdyż:
W 2021 kupiłem (czas covidowy, różna dostępność, facet polecił 10900K, generalnie przystałem, bo niby więcej rdzeni i pamięci, wątków, choć już wtedy była jeszcze 11 chyba dostępna. Nie mam nic do 10900K, tyle że kto by pomyślał, że nie współgra z PCIe 4.0 i to specyfika procka...):

ASUS Z590 WiFi Plus
Intel i9-10900K
32 GB RAM DDR4 3200MHz 4x8
Samsung 970 Pro 512GB (PCIe 3.0)

Potem dokupiłem:

Gainward GeForce RTX 4070 SUPER Ti OC 16GB - od jakiegoś czasu
Monitor Benq 4K 32 cale
DYSKI NVMe:
Samsung 990Pro 2TB (PCIe 4.0)

Nie miałem świadomości, że procesor i9 10900K nie obsługuje PCIe 4.0..., a płyta oczywiście wspiera. Potem to olałem, ale oczywiście zaczęło się od tego, że jak odebrałem komputer to w tym slocie NVMe PCIe 4.0 nie było widać dysku Samsung. Przełożyłem niżej i już działał. Więc to kwestia braku obsługi PCIe 4.0 w procku... dziwne. Generalnie nie gram, sporadycznie jakieś samochody. Bardziej montuję filmy, 4k.
Przeprowadziłem sporo testów i zastanawiam się, która opcja będzie lepsza, a może 11900K zrównoważy wydajność, przez odblokowanie PCIe 4.0 dla dysków i karty graficznej? 

i9-10900K - 10 rdzeni, 20 wątków, 20MB pamięci
i9-11900K - 8 rdzeni, 16 wątków, 16MB pamięci, nowsza grafika integra, zdecydowanie lepsze osiągi pamięci RAM

Testowałem 3DMark, PCMark, Cinebench 2024, AIDA32.
Generalnie 11900K wydaje się lepszy, tzn, tylko różnica jest w wielowątkowych zadaniach.
Stracę dwa jajka i 4MB pamięci i 4 wątki, ale zyskam lepszą przepustowość karty graficznej, (czytałem, że w renderingu na PCIe 3.0 to jest nawet -30%).
W dyskach NVMe na 10900K traciłem połowę transferu dla dysku Samsung 990Pro 2TB.
Zauważyłem znaczną poprawę wyniku pamięci RAM przy 11900K. Dodam, że nie będę kupował nowego komputera, robię to co 8/10 lat średnio. Ten mi wystarcza do moich zastosowań, tylko dzięki 11 generacji zyskałbym używalne PCIe 4.0.
Jeszcze 11900K ma większy Cache L2 4MB, a 10900K ma 2.5MB.
Co sądzicie? Wrzucam wyniki testów.

 

3DMark: 10900K

image.thumb.png.9c7589a953937080b787ef9637aff8d0.pngimage.thumb.png.024e656ec6c35c662bb15e1ab612dd00.pngimage.thumb.png.8281addc98ea856cbbbb14c60437c36b.png

 

3DMark: 11900K:

 

image.thumb.png.286de97f36b1f6d5fa10b0d01eaf7231.pngimage.thumb.png.84004a32146ea6b11276fd3922d0b106.pngimage.thumb.png.5f8d9c045d6f00a6ae9ef6b0622e2e70.png

 

 

 

PCMark: 10900K

 

image.thumb.png.540570a421657ab3644252198674292f.pngimage.thumb.png.6aec85f6284762f975062d0716dc5205.png

 

 

 

PCMark: 11900K:

 

image.thumb.png.5ff95f2ccc9244db598209304d9a3386.pngimage.thumb.png.b701f3ae6184ed4c16eada079a5759c6.png

 

 

 

 

Cinebench 2024 10900K:

 

 

image.thumb.png.ee07a88c4c24ce97294e7959b137c0c3.pngimage.thumb.png.8d0e1fa85484aba92cc96245e0d994b6.pngimage.thumb.png.c0b505f021cbaf2abee51618a7860510.pngimage.thumb.png.31997996484c0ec812cea91cb5c58a5f.png

 

 

CINEBENCH 2024 11900K:

 

image.thumb.png.e3c2d2f93e04c7137b13c934e7a9d4a8.pngimage.thumb.png.9982da6f6a6a5b9b5795fed14a9bd716.pngimage.thumb.png.f60fab789a4f0c35cdf0c827064dbd44.pngimage.thumb.png.54b7986054dd40ceeded3d7506cb54c1.png

 

PAMIĘĆ RAM AIDA64 10900K

 

Zapis.thumb.png.f09006ab0835342552730337c9027b54.pngOpnienie.thumb.png.2c02f6ddfdd2a9ae105d497136c1c3e1.pngOdczyt.thumb.png.ae5ec24ef711acc0e187d53c415e8c19.pngKopia.thumb.png.cd9a2e18c5406bb79f30327ab6a61172.png

 

PAMIĘĆ RAM AIDA64 11900K

 

zapis.thumb.png.029cbe1cfb2cd77c56581b4e0aa483a2.pngopoznienia.thumb.png.232dbe0d02ce4f6d427b5de93681432d.pngodczyt.thumb.png.d9f64cd32e1ac0301430031e11e23af8.pngkopia.thumb.png.26a903d6b9379e5c5de3ab4cd20a2b59.png

 

 

Opublikowano (edytowane)

@Maxforces  Mimo, że tracę 50% na dyskach NVMe i przepustowości karty graficznej?
Zastanawiający jest przy 11900K spory przyrost wydajności, przynajmniej w AIDA32, w porównaniu z tym co miałem na 10900K. Chodzi o zapis, odczyt, kopie i oczekiwanie.

 

 

@Karro "Nie to musi być inna kwestia"

 

Odnośnie 10 generacji w tym i9-10900K niestety tak, ogranicza on PCIe do wersji 3.0, dopiero 11 generacja obsługuje 4.0 dla NVMe i grafiki.

image.thumb.png.9d3de189647ee1c54aa397562b152817.png

 

 

@Karro

 

"co do marków to wyjątkowo coś masz nie tak

Niemozliwe  by cpu z pc były ta słabe"

 

Trudno mi się do tego odnieść, według wyników online wydaje się ok.

Poproszę jeszcze więcej opinii, bo mam mętlik w głowie...

Wierci mi w głowie to PCIe 4.0 które stracę, np. dysk Samsung NVMe na PCIe 3.0 dokładnie działa wolniej o połowę, jak ma 3500 /3500, tak na PCIe 4.0 ma ~7000/~7000, zastanawiam się jaki to ma wpływ na montaż wideo, oraz grafika obsługująca PCIe 4.0, która będzie działać na 3.0.

 

****************************************************************************************

 

Poproszę jeszcze o więcej opinii, bo mam mętlik w głowie...

Wierci mi w głowie to PCIe 4.0 które stracę, np. dysk Samsung NVMe na PCIe 3.0 dokładnie działa wolniej o połowę, jak ma 3500 /3500, tak na PCIe 4.0 ma ~7000/~7000, zastanawiam się jaki to ma wpływ na montaż wideo, oraz grafika obsługująca PCIe 4.0, która będzie działać na 3.0.

Edytowane przez error1983
Opublikowano (edytowane)

Zrobiłem przed chwilą test na 10900K i 11900K w renderingu filmów 4k:

 

Czas filmu 15 minut, dużo ścieżek, audio, wideo, efektów itp.

RENDER:

10900K - 7:24

11900K - 7:32 

 

Za to zastanawia mnie wynik pamięci DDR4 3200MHz na 11900K, jest zdecydowanie lepszy zapis/odczyt/kopia/oczekiwanie

 

10900K - ZAPIS: 33891 MB/sek / ODCZYT: 33185 MB/sek / KOPIA: 31726 MB/sek / OPÓŹNIENIA: 80.0 ns

 

11900K - ZAPIS: 48792 MB/sek / ODCZYT: 46550 MB/sek / KOPIA: 48252 MB/sek / OPÓŹNIENIA: 55.3 ns

 

Jak sądzicie, dlaczego tak jest z tą pamięcią??

Edytowane przez error1983
Opublikowano

Dziękuję wszystkim za zaangażowanie.

Po głębokiej analizie i testach, rzeczywiście 11900K wypada gorzej,

więc zostaje przy 10900K (bo długo jeszcze nie zmienię komputera), a 11900K zwróciłem.

 

Pozdrawiam. :-)

Opublikowano

Maxem jest fizyczna wydajność silikonu - kontrolera pamięci na płycie. 4000 zrobi bez problemu tylko że nie wiem czy różnice będą aż tak widoczne żeby wydawać tyle pieniędzy. Co ciekawe kości 4400CL19 są tańsze...

  • Like 1
Opublikowano
37 minut temu, error1983 napisał(a):

Jaki mi proponujesz?image.thumb.png.764bb6eff5ce28d2a70d8a211244ab21.png

 

image.thumb.png.af6097ed670bb0dec5b4cd390607c533.png

Te by były?

https://www.x-kom.pl/p/1175360-pamiec-ram-ddr4-gskill-32gb-2x16gb-4000mhz-cl18-ripjaws-v.html

 

Czy dostanę takie max 5300, jakie obsługuje płyta?

Sprawdzaj obecne wbijając też główne timingi odpowiednio luźne. Ten tuf to nie wiem czy z490 czy z590 ale warto sprawdzić ile łyka płyta przy odpowiednich jej typach(single side/typ kości). 4000+ na dwustronnych kościach bdie mają problemy płyty przez biosy jak i to że masz więcej tych banków. Nie inwestuj w te pamięci jak nie ma ich na liście wsparcia tylko staraj się znaleźć złoty środek w tym co posiadasz albo myślisz zdobyć. Gra nie warta świeczki może niekiedy być bo za czas nikt ci nie zapłaci a są dużo lepsze drogi jak masz gdzie nadgodziny zostawić.

Ok tuf z590 niby łyka 4k cl19 na samsungach bdie więc jak takie masz to wbij 4000mhz wpisz te pierwsze timingi jak tutaj (OCZYWIŚCIE VCCIO I SYSTEM AGENT PŁYTA CI SAMA USTAWI W CHOLERE WYSOKIE) I wbij napięcie z 1.5v

https://www.asus.com/pl/motherboards-components/motherboards/tuf-gaming/tuf-gaming-z590-plus-wifi/helpdesk_qvl_memory?model2Name=TUF-Gaming-Z590-PLUS-WIFI

  • Like 1
Opublikowano
2 minuty temu, areczek1987 napisał(a):

Sprawdzaj obecne wbijając też główne timingi odpowiednio luźne. Ten tuf to nie wiem czy z490 czy z590 ale warto sprawdzić ile łyka płyta przy odpowiednich jej typach(single side/typ kości). 4000+ na dwustronnych kościach bdie mają problemy płyty przez biosy jak i to że masz więcej tych banków. Nie inwestuj w te pamięci jak nie ma ich na liście wsparcia tylko staraj się znaleźć złoty środek w tym co posiadasz albo myślisz zdobyć. Gra nie warta świeczki może niekiedy być bo za czas nikt ci nie zapłaci a są dużo lepsze drogi jak masz gdzie nadgodziny zostawić.

Dziękuję Ci za wypowiedź. Płyta ma najnowszy możliwy bios, chipset to z590. Błędem było, że kupiłem 4 moduły po 8GB, trochę na raty. Ponoć taki zestaw trudniej podkręcić.  Właśnie zastanawiam się, czy taka wymiana ma sens, i czy rzeczywiście zobaczę różnicę np. w renderingu, montażu wideo. No i te timingi, których do końca nie ogarniam. A czy mógłbyś mi dobrać taki dobry zestaw 2x16? Z dobrymi timingami i wysokimi Mhz. Tak by, miało to sens, chyba, że nie ma?

Opublikowano
Teraz, error1983 napisał(a):

Dziękuję Ci za wypowiedź. Płyta ma najnowszy możliwy bios, chipset to z590. Błędem było, że kupiłem 4 moduły po 8GB, trochę na raty. Ponoć taki zestaw trudniej podkręcić.  Właśnie zastanawiam się, czy taka wymiana ma sens, i czy rzeczywiście zobaczę różnicę np. w renderingu, montażu wideo. No i te timingi, których do końca nie ogarniam. A czy mógłbyś mi dobrać taki dobry zestaw 2x16? Z dobrymi timingami i wysokimi Mhz. Tak by, miało to sens, chyba, że nie ma?

To głupota pchać się w 2x16gb bo swoich za połowę tej ceny nie pogonisz.

  • Like 1
Opublikowano (edytowane)

Już lepiej myśleć o zmianie podstawki (jak interesuje cię amd to ddr5 2x24 sensownie droższe od tych szybkich bdie na tą płytę)lub nawet zostać na tym co masz a wskoczyć na z690/z790 z ddr4 czy nawet niższy chipset z tej serii i jakąś kobyłę co robi faktycznie robotę

No właśnie to przedewszystkim do gierek się robi a rendering to powodzenia z walką z dalszymi rzędami. Tu tylko wymiana przynajmniej płyty i procesora jak chcesz poczuć różnicę.

W dniu 11.06.2025 o 19:21, wallec napisał(a):

 

 

Taką różnicę...

Płyty można tanio wyrwać używki. Za 400 z groszami idzie z790m lighting d4 a widzę i asusa jak cię wifi nie obchodzi. Procesor też z max 1500 a 13gen jeszcze powninen być tańszy bo wszyscy opuszczają ten okręt. Ewentualnie czekać na ostatni wypust procesorów do grania jakie jeszcze na z690/z790 mają wejść.

https://m.olx.pl/d/oferta/procesor-i9-13900k-uzywany-sprawny-CID99-ID15Y1hT.html

 

https://m.olx.pl/d/oferta/procesor-i9-13900f-CID99-ID15jWZr.html

 

https://m.olx.pl/d/oferta/asus-tuf-game-z690-plus-d4-gwarancja-stan-idealny-CID99-ID16bG2t.html

https://m.olx.pl/d/oferta/asus-z690-rog-a-gaming-ddr4-wifi-lga1700-CID99-ID157ClF.html

 

https://m.olx.pl/d/oferta/plyta-glowna-asus-prime-z690m-plus-d4-okazja-CID99-ID1641AG.html

 

Nawet ta wymiana ramu nie da ci tej odczuwalnej aż tak różnicy w tym 4k na 4070ti ( jeśli to nie multi z małymi wymaganiami do karty lub ogrywanie staroci):E Jak z chłodzeniem nie za dobrze(brak mocowania pod nowe am4 i lga1700) to asusy wyższe z tych z'tek mają podwójne otwory pod mocowania z lga 1200. Jak ledwo wyrabia pod 10900k to albo i one do wymiany albo bij się z ustawieniami tego ram Jak wąż w kieszeni.

 

https://m.olx.pl/d/oferta/procesor-intel-i7-13700-z-wbudowana-karta-graficzna-CID99-ID15ZsCn.html

Na 14700 nie mam żadnych ciekawych ofert a ma jeszcze kilka ecores...

Edytowane przez areczek1987
  • Like 1
Opublikowano

Teraz przeczytałem twój pierwszy post i jeśli rendering na karcie daje 30% z zmianą na pcie 4.0 to sam sobie musisz potwierdzić czy tak jest i ewentualnie określić czy ta dopłata jest warta świeczki a może i tak być pytanie czy robisz tego dużo :E

 

Zatrzymałem  się patrząc na cinebencha :P

  • 3 tygodnie później...
Opublikowano (edytowane)

RocketLake bazuje na rdzeniach SunnyCove x86 przeniesionych(1:1) z 10 nm do 14 nm pod nazwą kodową CypressCove. 

 

Rdzeń SkyLake składa się z 217 milionów tranzystorów. 

Rdzeń CypressCove składa się z ~300 milionów tranzystorów, co oznacza, że jest bardziej złożony od Skylake o 38%. 

 

Rdzeń CypressCove x86 (SunnyCove) to kolejny duży skok generacyjny po SkyLake. 

 

CypressCove ma średni wzrost IPC dla pojedynczego wątku (ST) Integer (ALU) o 15-16%, a wzrost FP wynosi ~24%! Na dodatek ma implementację AVX512!(podobną do tej z Zen4 czyli 2x256bit)

 

Ale CometLake, pomimo przestarzałych rdzeni, ma ich o 25% więcej, co przeważa nad zyskami IPC i słabym skalowaniem (szczególnie INT) CypressCove. Problemem w RocketLake jest skalowanie Integer dla wszystkich 8 rdzeni, co daje ~5% zysku w porównaniu do 8 rdzeni Skylake. 

 

Jeśli chodzi o FPU, skalowanie jest znacznie lepsze, ponieważ osiąga wzrost o 16-18%. Problemem jest prawdopodobnie m.in niższa prędkość zegara Ring-Bus.

 

Mikroarchitektura SkyLake pojawiła się w 2015 roku, a prace nad SunnyCove startowały w 2016 roku i trwały do około 2018 roku. Rdzeń Cypress/SunnyCove jest bardziej zaawansowanym rdzeniem x86 niż SkyLake.

 

Przegrywa, ponieważ RocketLake maksymalnie ma do 8 rdzeni względem 10-rdzeniowego Skylake w CometLake.

Czemu tak jest?
Odpowiedź na to jest bardzo prosta.

 

8 rdzeni CypressCove w 14 nm, zajmuje powierzchnię taką jak hipotetyczny 11-rdzeniowy Skylake!!!

 

Gdyby RocketLake miał 10 rdzeni zajmowałby powierzchnię porównywalną z 14 rdzeniami Skylake!!!

 

Praktycznie zawsze, przy dużej rozbudowie rdzenia, przechodzisz na niższy proces litograficzny, który kompensuje większą złożoność projektu (tj. więcej bramek logicznych (tranzystorów)). W przypadku RocketLake proces litograficzny pozostał taki sam jak w CometLake, a to zawsze skutkuje drastycznymi kompromisami, których końcowy efekt wygląda tak jak wygląda.

 

Jeśli chodzi o mnie, gdybym miał wybierać, wziąłbym RocketLake, którym fajnie byłoby się pobawić, bo jestem entuzjastą. CypressCove to zdecydowanie bardziej zaawansowany rdzeń x86, w porównaniu do już wyeksploatowanej i serwowanej do znudzenia przez Intel mikroarchitektury SkyLake. 

 

Ale to zależy od tego, czego oczekujesz i czy te dane mają dla Ciebie znaczenie.

 

RocketLake-S 8 Rdzeni:

1920px-Intel@14nm@Cypress_Cove@Rocket_La

 

Porównanie układu krzemowego CometLake-S 10 rdzeni  do RocketLake-S 8 rdzeni:

Delidded.thumb.jpg.4167053b31cf29fb8093c7af88ffa147.jpg

 

1635457497_46_Intel-Core-i9-12900K-claimed-to-be-the-Worlds-Best-Gaming.webp.a30ff1db4b5bd07e625f2234c887b988.webp

 

 

419b3c63-8fc4-4237-829d-476889c84942_1151x1110.webp

50208125-4f2a-4541-9c3d-b7f05f123a89_1261x1110.webp

 

 

W Cinebench 2024:

ST 1 rdzeń Skylake 78p

MT 10 rdzeni Skylake 792p(+1.8%)

 

ST 1 rdzeń CypressCove 100p(+28%!!!)

MT 8 rdzeni CypressCove 778p

 

EDIT:

sunny-cove_avx512.png

 

Intel Microarchitecture Cache Comparison

Component   Haswell  Skylake  Sunny Cove

L1D Cache      32KiB      32KiB        48KiB

L2 Cache       256KiB    256KiB      512 KiB

L2 TLB           1024         1536
                                                      16 (1G)2048 (4K)
                                                       1024 (2M/4M)
                                                        1024 (1G)

µOP Cache  1.5KµOPs 1.5KµOPs   2.25KµOPs

 

 

Intel Microarchitecture Cache Comparison

Component       Haswell     Skylake    Sunny Cove

ROB                      182             224              352

In-flight loads       72               72                128

In-flight stores.     42               56                72

 

intel-sunny-cove-ipc-claim.png

intel-sunny-cove-mobile-block.png

intel-sunny-cove-mobile-tbl.png

 

E2GW2NWXIAUbdBK.jpg

E2GXRKGXMAQYYDX.jpg

 

Porównanie powierzchni tej samej mikroarchitektury tylko w różnych procesach litograficznych SunnyCove(10nm) i CypressCove(14nm): 

9a96832c-2a4a-4192-b088-62d78dc01b93_638

Edytowane przez AMDK11
  • Like 1
  • Upvote 2
Opublikowano (edytowane)

To jest TigerLake, czyli rdzenie WillowCove(x86 SunnyCove z przeprojektowanym podsystemem cache L2), ale z 1,25 MB pamięci podręcznej L2 (non-Inclusive) zamiast 512 KB (0,5 MB) (Inclusive).

 

CometLake(rdzenie x86 Skylake) ma tak jak poprzednie generacje L2 typu Inclusive. 

 

Pamięć non-Inclusive to ten sam typ pamięci, który zastosowano w Skylake-X, który w części aplikacjach odnotował regresję w porównaniu z oryginalnym Skylake-S.

 

Średni IPC WillowCove z pamięcią podręczną L2 non-Inclusive jest o około 5% niższy niż SunnyCove z pamięcią podręczną L2 Inclusive, ale TigerLake ma znacznie wyższe taktowanie. Podejrzewam, że Intela proces litograficzny 10nm charakteryzował się raczej niskim uzyskiem i słabymi parametrami, aby nadawał się do procesorów stacjonarnych. Woleli skupić produkcję 10nm dla mobilnych układach IceLake(SunnyCove), TigerLake(WillowCove) i serwerowych Xeon.

 

IceLake jak i TigerLake jest niestety tylko na BGA. 

 

Prawdopodobnie RicketLake ma IMC(Kontroler RAM) żywcem przeniesiony z mobilnego IceLake. Kontroler RAM i Ring-Bus są słabym ogniwem RocketLake w skalowaniu dla 8 rdzeni. Ale pojedynczy wątek osiąga konkretny wzrost IPC(Średni IPC INT ~16% i FP ~24%), jakiego można spodziewać się po nowej generacji. 

Edytowane przez AMDK11

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
  • Popularne tematy

  • Najnowsze posty

    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
    • Czy dałoby się w laptopie HP 530 8HTF12864HDY-667E1 Mobile Intel Calistoga-GME i945GME wymienić 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz na 2-rdzeniowy procesor Intel Pentium Dual-Core T4200. Znalazłem zapusty laptop PP33L z popękanym i zepsutym monitorem i uszkodzoną płytą główną i 2-rdzeniowym procesorem Intel Pentium Dual-Core T4200 ale mam sprawny laptop HP 530 ale ma tylko 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz i chciałbym ten procesor wymienić na 2-rdzeniowy. Oryginalnie ten laptop miał 1 GB pamięci RAM i wymieniłem RAM na 4 GB. Jaki system operacyjny najlepiej pasowałby do tego laptopa HP 530. Nie wiem jaki model ma płyta głowna z Laptopa PP33L dlatego że nie dało się tego laptopa uruchomić żeby sprawdzić w BIOSie albo w systemie. Spisałem jakieś liczby z płyty głownej tego laptopa CN-OP-132H-48643-8CB-0220-A00 DP/N OP132H BPB8C0020 002219 DA8B70-LanID GX D-VOA 94V-0 2-1 0842 E0EC 909G8222E M47 REV :  D DA0FM7MB8D0 PWB T012G REV : A00 Weźcie pod uwagę że zero to moze być duża litera o i odwrotnie.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...