Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano
W dniu 14.07.2025 o 19:59, VRman napisał(a):

Znowu ten gość powtarza "N2X".

Myślę, że chyba coś się mu pomyliło z następną wersją, może Zen 6 plus, czy Zen 7. 

Na pewno będzie jakiś wariant N2:

https://www.amd.com/en/newsroom/press-releases/2025-4-14-amd-achieves-first-tsmc-n2-product-silicon-milesto.html

 

Venice to jest właśnie Zen 6 i większość wariantów będzie dzielić chiplety z Olympic Ridge.

Opublikowano (edytowane)

tym razem gość dowozi plotki o niby APU do konsol PS6, ale

 

- Szyna 384bit  brzmi bardzo mało wiarygodnie. Jedyna opcja to gdy obok będzie główna konsola na gorszych bebechach, a ta będzie takim samym PRowym fikołkiem jakim był Xbox Series X, czyli sprzęt kompletnie ignorowany przez developerów, którzy kroją gry pod tę słabszą konsolę. A może nazwą to  PS6pro od razu? W każdym razie jako bazowy model - nie wierzę. Zresztą to by oznaczało 36GB pamięci. Nadal tanio i bez problemu by się przydało w grach, ale wtedy przenośna PS6 i (jeśli w ogóle powstanie) nowy klocek "S" miałyby zbyt dużą różnicę. Jakby bardzo chcieli mogą dać przecież clamshell i dać 16 kostek po 2GB w pierwszym modelu, bo już rok do dwóch lat po premierze PS6, powinny być na rynku kostki 4GB co dałoby 32GB na szynie 256bit bez clamshella.

 

- tylko trzy wydajne rdzenie. Nie wiem do ilu można zwinąć liczbę wątków przydatną dla GPU, ale jak uważam, że wielowątkowość to największa ściema w branży gier ever i dużo mniejsze korzyści niż się wydawa(ło) to jednak tylko 3 rdzenie to trochę mało. Całe stado energooszczędnych rdzeni za to się przyda w kompilowaniu shaderów, dekompresji itp. Myślę, że 4-5 "wydajnych" rdzeni byłoby bardziej wiarygodne.

- to chyba tylko spekulacje, czy to w ogóle będzie układ do konsol

 

 

Edytowane przez VRman
Opublikowano

Obejrzałem ten filmik, bo nie wydawał się warty czasu, więc zostawiłem "do kotleta".

Jeszcze lepiej. 3 rdzenie "duże" ale te pozostałe to nie małe, tylko jakieś duże, ale mniejsze. Wcale nie te energooszczędne.

 

Do tego były plotki o pamięci X3D.

 

16MB L3 i bez X3D? No to by raczej "szału nie robiło" jakby było konsolą. Gość argumentuje, że nazwa kodowa pasuje do wzorca i że design "śmierdzi Cernym na kilometr". 

No nic. Przed premierą PS4 były plotki o procu na ARM. Potem były plotki o tabletowym Klakierze. Te były jeszcze bardziej niewiarygodne, bo czemu mieliby dawać takie gówno do konsoli. A jednak dali. Czyli pewność będziemy mieli pewnie na miesiąc przed masową produkcją chipów do konsoli.

  • Upvote 1
  • 1 miesiąc temu...
Opublikowano (edytowane)
Cytat

AMD opublikowało dziś na YouTube film zatytułowany „Thought Leadership & AMD Vision”, który został natychmiast usunięty kilka godzin później. Była to prezentacja z końca czerwca lub lipca. Słuchałem jej jednym uchem, biegnąc za naszym dzieckiem, i rzeczywiście wydała mi się o wiele bardziej bezpośrednia niż zazwyczaj podczas oficjalnych prezentacji. Prezentacja trwała około 45 minut, a ostatnich pięciu minut nie udało mi się dokończyć – dotyczyła ona kolejnej architektury rackowej AMD.

 

Czy ktoś z Was widział tę prezentację? Czy zauważył jakieś istotne punkty?

 

Kilka ciekawostek, które pamiętam: Współpraca w zakresie x86 ISA Wspomniał, że AMD i Intel współpracują w zakresie bezpieczeństwa, instrukcji macierzowych (chyba to nowość. Wcześniej myślałem, że AMD skupi się na instrukcjach wektorowych) i coś o rozmiarze strony (?).

 

Wspomniał, że Zen6 był w laboratorium od jakiegoś czasu, że działał pod kontrolą Linuksa (chyba miał na myśli, że działał pod kontrolą normalnego systemu operacyjnego), że wyglądał niezwykle dobrze i że z łatwością dotrzyma terminów. Pamiętam, że pomyślałem, iż powiedział tę ostatnią część w sposób sugerujący, że AMD mogłoby wypuścić go wcześniej.

Cytat

Przywództwo intelektualne i wizja AMD – usunięto oficjalną prezentację AMD

Cytat z forum Anandtech:

https://forums-anandtech-com.translate.goog/threads/thought-leadership-amd-vision-removed-official-amd-presentation.2631672/?_x_tr_sl=en&_x_tr_tl=pl&_x_tr_hl=pl&_x_tr_pto=sc

 

Edytowane przez AMDK11
  • 5 tygodni później...
Opublikowano (edytowane)

Ciekawe, ale i... straszące i niepokojące.

 

Cache X3D V-cache znowu ma trafić według przewidytwań tego gościa na filmiku, na górę chipu.

 

Czyżby taki rollercoaster, że na początku spodziewałem się +5-10% względem 9800x3d, potem plotki o TSMC N2X i +20-25% a teraz znowu ciemne chmury scenariusza, że w niektórych grach będzie zero przyrostu albo i regres względem 9800X3D a cały postęp będzie tylko w modelach bez X3D?

 

Szczerze mówiąc, to jak dać tam więcej cache'u niż w 9800x3D to wali mnie komunikacja między chipletami, bo i tak do gier nikt dwu-chipletówki (I/O die + chiplet CPU  + chiplet CPU) nie kupuje.

Edytowane przez VRman
Opublikowano (edytowane)

 

 

Zaoszczędzę Wam i wypiszę co powiedział:

- jego źródła w AMD nie są pewne, ale raczej ta warstwa pod procem nie powinna być problemem

- MLiD mówi tu, że skoro AMD tak się chwaliło rozwiązaniem problemu przy przesunięciu v-cache pod spód, to by się nie cofnęli.

 

 

Dalsza część posta to już tylko mój komentarz

 

No cóż. Mnie to wcale nie uspokoiło.

- te połączenie pomoże każdemu procowi nie-X3D. Jeśli AMD uzna, że to te proce są mainstreamowe to może uznać, że lepiej poprawić ofertę non-X3D kosztem X3D.

- nawet jeśli "cofną się w rozwoju" dając znowu v-cache na górę, to i tak zostają korzyści, takie jak lepsze czasy dostępu do RAMu (nie cache) a do tego albo symboliczne (N3) albo konkretne wzrosty dzięki N2P/N2X, większej puli L3, bo teraz CCD będzie miał 12c zamiast 8c. I być może samego v-cache będzie więcej. 

 

 

Zakładając, że to oznaczałoby np. o 20 czy nawet 25% niższe zegary względem możliwości proca na tym samym procesie, w tej samej architekturze, to i tak nie będzie to 1:1 20-25% wolniej od 9800X3D. Jeśli nawet w niektórych testach Zen6 X3D wypadałby gorzej, to i tak masa ludzi kupi to z powodu dodatkowych jajec.

 

No i na koniec najważniejsze: Intel jest sto lat za AMD w wydajności jednowątkowej w grach. AMD może "cofnąć się w rozwoju" bo po prostu i tak Intel nie będzie miał odpowiedzi. Coprawda są jakieś przecieki, że Intel też ma zamiar dać proca z pamięcią ala V-cache, ale nie wiadomo kiedy, nie wiadomo do kogo będą te warianty kierowane  i ile będą kosztować. Nie wiadomo też jak dużo ich będzie mógł intel trzaskać, bo może to być tylko "halo product"

 

 

W końcu już raz AMD chwaliło się postępem, aby się potem cofnąć w rozwoju i z tego postępu zrezygnować. 

Ja pamiętam co było największą zaletą Athlona 64. 

Pamiętam te 44ns w AIDA64 w teście czasu dostępu do RAMu.

I pamiętam jak to wyglądało później, gdy AMD wywaliło IMC poza proca (I/O die) 

 

Zakładanie, że jakieś wielkie korpo zawsze będzie się trzymało głosu rozsądku z perspektywy graczy, to błąd.

 

Ale nadzieję mam. Na razie są dwie niewiadome. Czy faktycznie jakimś cudem będzie N2X i czy ta nowa metoda łączenia chipletu z I/O die nie popsuje zegarów. W końcu ma być pod 7GHz i  ponad 6GHz all-core.  Szkoda jakby zamiast 7GHz skończyło się na 5.7GHz w 10800X3D. 

 

Edytowane przez VRman
  • 3 tygodnie później...
Opublikowano

Od początku pisałem, że to jakiś kretynizm, bo proces nie będzie dostępny nawet w pobliżu daty, o których mówił MliD.

 

Pisałem, że to albo jakaś totalna bzdura, albo taki proc wyjdzie duuuużo później.

No i surprise surprise...

 

 

image.thumb.png.6db355e8ffb3bfc6e804954cfa1eedd9.png

 

 

Patrząc na to, wcale to nie wygląda jak 2027 dla mainstreamowych procków do gier. Raczej jak czas premiery najdroższych i małych układów. OK, Zen 6 jest mały, ale chodzi mi o sprzęty mobilne. 

N2X ma być po pierwszej wersji A16...

 

No sorry, ale jak to ma być delay to raczej nie z bzdurnej połowy roku 2026 (o której MLiD bzdurzył kilka miesięcy temu) na początek 2027, o czym mówił niedawno. To wygląda raczej na 2028. Może bardzo późny 2027, ale wątpię czy TSMC "marnowałoby" wafle na coś tak "taniego" jak proce do gierek. No chyba, że AMD poleci po bandzie i wykastruje wszystkie wersje X3D poniżej pełnej wersji 12c tak, że nie będzie to miało żadnego sensu, a jakikolwiek realny postęp to dopiero w wersji 12-core i tutaj dowalą koszmarną cenę. No to może w 2027 w takiej opcji. 

 

Od tego czasu gdy pojawiły się u niego pierwsze ploty o Zen 6 zacząłem oglądać ten kanał regularnie i z każdym następnym video dochodzę do wniosku, że gość może nie jest debilem, może ma wtyki, ale wygaduje takie debilizmy, że bania mała - w tematach na których się nie zna. Ale jeśli tak, to może jego interpretacje dokumentów AMD, na których też się nie zna, są obarczone takim samym balastem bzdur. 

 

Ktoś tu na forum pisał latem, że nie ma sensu kupować 9800x3d, bo za niecały rok Zen6 to lepiej poczekać na 10800X3D :E

taa...

 

 

Opublikowano
16 godzin temu, VRman napisał(a):

No sorry, ale jak to ma być delay to raczej nie z bzdurnej połowy roku 2026 (o której MLiD bzdurzył kilka miesięcy temu) na początek 2027, o czym mówił niedawno. To wygląda raczej na 2028.

Prezentacja bedzie na CES, a Zen6 w 2026r wiec bedzie w takim procesie jaki bedzie w danej chwili dostepny ;)  

Opublikowano (edytowane)

Dokładnie. Dlatego pisałem w lipcu:

W dniu 12.07.2025 o 21:32, VRman napisał(a):

Zatem jakim cudem Zen 6 ma korzystać z procesu dostępnego rok-dwa później?

OT o procesach
 

Spoiler

Zen 6 może być w 2026r. ale ciekawe co zrobią z Zen 6 X3D dla graczy. Czy to zupełna bzdura tego MLiDa czy faktycznie doszło do obsuwy. W tym drugim przypadku możliwe, że na początek dostalibyśmy low-end i laptopy, a następcę 9800X3D sporo później.

Na moje bardziej prawdopodobne, że nigdy planu na 2026 i Zena w N2X nie było.

Ciekawe ile zostanie z tych magicznych taktowań jeśli to będzie jednak coś gorszego niż N2X. 

 

BTW.

Strasznie cięęęęęęęęężko idzie z tymi tranzystorami GAA. Pamiętam jak były zapowiedzi ok. 2020r. na 2024r. Ja sobie już wtedy, widząc coraz większe poślizgi, zakładałem, że trzeba będzie doliczyć ze dwa lata. A tu jeszcze dalej. N7, N6, N5, N4, N3 to pod pewnymi względami kalka Intelowskiego 14+++ i plus.

Samsung niby dał radę wcześniej, ale iluzorycznie. Wydajność nie taka rewelacyjna jak miała być i uzysk tragicznie słaby. 

 

Ściana niestety coraz bardziej odczuwalna. Najpierw z wyścigu odpadli ci mniejsi, jeśli tak można nazwać IBMa, potem GloFo AMD, teraz chyba odpada Intel, Samsung ledwo zipie, a nawet lider ma ciężko pchać to dalej.

No nic, góra za 4-5 w końcu powinniśmy się doczekać tego w procach i kartach do gier. Gorzej niż 4-5 lat od teraz już być nie może. :lol2: Nawet jeśli te GAA na które czekamy od 2020 będzie dopiero pod postacią następcy N2X i nawet jeśli Nvidia dopiero po 2.5-3 latach wyda następce Rubina dla segmentu gaming.

 

 

 

 

Edytowane przez VRman
Opublikowano

O, znowu będzie można mieć w kompie AMD nazywany Venice

 

Nie wiem czy dobrze to interpretuję, ale wygląda na to, że 8-jajowce dostaną pełny cache przynamniej ten L3. Fajnie jakby zrobili niespodziankę i dali full L3 i full X3D w wariantach poniżej 12 jaj.

 

 

Opublikowano

oj, będzie drogo jak cholera przy ZEN 7.

 

Wygląda to mi na wymuszenie na graczach 16 jaj. To fatalne wieści dla nas :(

 

 

 

224MB v-cache'u brzmi fajnie, ale dwa kwestie

- czy to będzie całe 224MB dostępne dla gier tak jak w 9800X3D czy to jakoś podzielą? Bo jeśli będzie 112MB to trochę słabo biorąc pod uwagę lata pomiędzy 5800X3D a pewnie późnym 2028 lub 2029. 

- jeśli będzie całe 224MB (super!) to jak będzie wyglądał czas dostępu? Wiadomo - więcej pamięci = gorszy czas dostępu. Nie bez powodu L1 i L2 nie poszły w dziesiątki MB na rdzeń. 

 

Mam nadzieję, że nie skończy się na procu za 1500$ i kastratach poniżej.

W te 2027 dla desktopu tak wierzę jak w te jego bzdury pół roku temu o N2X w Zen 6 w 2026r.

Koniec 2028 do pierwszej połowy 2030 bym raczej obstawiał jak kogoś interesuje maksymalna wydajność w grach czyli wariant z v-cache. 

 

Strasznie kijowo jeśli AMD nie da v-cache'u 8jajowcom. Jak dadzą takie pocięte coś 12-jajowcom jak obecnie 7600X3D to niech se to w dupę wsadzą :/

 

Opublikowano (edytowane)
5 godzin temu, VRman napisał(a):

O, znowu będzie można mieć w kompie AMD nazywany Venice

 

Nie wiem czy dobrze to interpretuję, ale wygląda na to, że 8-jajowce dostaną pełny cache przynamniej ten L3. Fajnie jakby zrobili niespodziankę i dali full L3 i full X3D w wariantach poniżej 12 jaj.

 

 

Obecnie, niezależnie od ilości aktywnych rdzeni w CCD, pamięć podręczna L3 jest pełna, co oznacza 32 MB dla 6 i 8 rdzeni.

 

Nie sądzę, aby AMD zmieniło podejście w przypadku 12-rdzeniowego CCD Zen6, więc pełne 48 MB pamięci L3 powinno być dostępne dla wszystkich modeli 6, 8, 10 i 12 rdzeniowych ze względu na dostępną pojemność i prędkość pobierania danych w trybie ST. 

 

Dodatkowo, między dwoma matrycami CCD zostaną dodane połączenia IF, co powinno zapewnić lepszy dostęp do drugiego 48-Megabajtowego L3. To, wraz ze zmianami i ulepszeniami mikroarchitektury rdzenia Zen6, powinno przynieść interesujące rezultaty. O wariancie Zen6 z X3D nie wspominając, bo to już powinien być totalny odjazd ;)

Edytowane przez AMDK11
Opublikowano (edytowane)
2 godziny temu, AMDK11 napisał(a):

Obecnie, niezależnie od ilości aktywnych rdzeni w CCD, pamięć podręczna L3 jest pełna, co oznacza 32 MB dla 6 i 8 rdzeni.

Obecnie. Natomiast tu mamy niepewne plotki o 2 architekturach do przodu, więc nie do końca można mieć pewność, że będzie tak samo.

 

2 godziny temu, AMDK11 napisał(a):

Nie sądzę, aby AMD zmieniło podejście w przypadku 12-rdzeniowego CCD Zen6, więc pełne 48 MB pamięci L3 powinno być dostępne dla wszystkich modeli 6, 8, 10 i 12 rdzeniowych ze względu na dostępną pojemność i prędkość pobierania danych w trybie ST. 

Teoretycznie. Ale w praktyce dla wymagającego gracza 20% to wartość warta wymiany proca na nowy. Tymczasem 7800X3D potrafi być w grach szybszy od 7600X3D aż o 17%.

 

Trochę offtop bo to o Zen 7 bardziej, to zwinę

Spoiler

Tutaj mam obawy bo chciałbym maksymalnie szybkiego proca z 8 rdzeniami. W grach i tak się nie przyda więcej. Jeśli więc Zen 7 dostanie tylko jakiś niższy model w wersji 8c to będzie porażka. Niestety Zen 6 to 12c a Zen7 to aż 16c na chiplet. Jeśli AMD sprzęgnie maksymalną wydajność jednowątkową z flagowcami, tak samo jak nie dało maksymalnej do 5600X3D czy 7600X3D, to cały skok generacyjny może pójść w piach. Jasne, fajnie jak dadzą coś tańszego co i tak będzie na równi lub lepsze od 9800X3D, ale ja patrzę z perspektywy gracza, któremu by się bardzo przydał każdy procent. Nawet i 300% wydajności 9800X3D bym bardzo chętnie zobaczył, bo tyle brakuje VRowi czy do wykorzystania w pełni monitorów HFR jak OLEDy od 480Hz wzwyż.  Około roku po premierze 7800X3D można go było wyrwać za 1500zł. Podobnie 5800X3D nie był drogi. 9800X3D spadł do ok 1900zł. Nie licząc inflacji pomiędzy teraz a premierą Zen 7 X3D, nie chciałbym aby z 1300-2000 się zrobiło 3000 czy nawet 5000, tylko dlatego, że gracz zmuszony byłby do płacenia za +50% rdzeni których nigdzie nie potrzebuje, albo nawet +100% rdzeni w przypadku Zena 7. Już i tak martwią mnie te rozbudowy funkcjonalności pod AI. :/ Znowu gracz zapłaci za to, czego nie chce. 

 

Bardzo mnie to interesuje, bo od dostępności szybszych od 9800X3D procesorów będzie mocno zależeć los popularyzacji HFR, to będzie wpływało na ceny monitorów do gier i wreszcie na ofertę Nvidii i AMD w GPU, bo już teraz się w wątku obok kłócą czy 5090 jest 60% czy 25% szybsza od 4090tki, a tu własnie często wyłazi brak mocy proca. 

Także nawet jak komuś nie zależy na takich procach, albo mu nie przeszkadza wyższa cena bo akurat on skorzysta z większej liczby rdzeni w pracy, to i tak moim zdaniem powinien trzymać kciuki, aby AMD "dowiozło". Na konkurencję dla następcy 9800X3D w grach ze strony intela nie ma co liczyć. Oni mają tam taką przepaść do nadgonienia, że nawet spapugowanie pomysłu na v-cache nie wystarczy. Cały ich kierunek architektur proców jest inny niż tej porządany przez graczy.

Dwuchipletówki niech sobie będą i po 10 000zł, kit z tym. Ale pełna wydajność proców z pojedynczych nie może kosztować za dużo. Aby miało to wpływ na rynek gier w innych dziedzinach, cena musi być poniżej dzisiejszych 2000zł, a niestety na taką absolutnie nie ma co liczyć w przypadku Zena 6 i Zena 7, bo jak MLiD trafnie zauważa, koszty są niewspółmiernie wyższe tym razem, a do tego AMD już nie ma konkurencji i do tego czasu mogą to "zauważyć" i podnieść ceny choćby z tego powodu. Dobrze będzie jeśli w ciągu pół roku od premiery Zen 7 X3D Intel w ogóle da radę choć o 1% przegonić 9800X3D w grach. Na więcej liczą tylko hurraoptymści. 

2 godziny temu, AMDK11 napisał(a):

 

Dodatkowo, między dwoma matrycami CCD zostaną dodane połączenia IF, co powinno zapewnić lepszy dostęp do drugiego 48-Megabajtowego L3. To, wraz ze zmianami i ulepszeniami mikroarchitektury rdzenia Zen6, powinno przynieść interesujące rezultaty. O wariancie Zen6 z X3D nie wspominając, bo to już powinien być totalny odjazd ;)

To może dużo pomóc, ale nie w grach. W grach nigdy dwuukładówki sensu mieć nie będą.

Edytowane przez VRman

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
    • Czy dałoby się w laptopie HP 530 8HTF12864HDY-667E1 Mobile Intel Calistoga-GME i945GME wymienić 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz na 2-rdzeniowy procesor Intel Pentium Dual-Core T4200. Znalazłem zapusty laptop PP33L z popękanym i zepsutym monitorem i uszkodzoną płytą główną i 2-rdzeniowym procesorem Intel Pentium Dual-Core T4200 ale mam sprawny laptop HP 530 ale ma tylko 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz i chciałbym ten procesor wymienić na 2-rdzeniowy. Oryginalnie ten laptop miał 1 GB pamięci RAM i wymieniłem RAM na 4 GB. Jaki system operacyjny najlepiej pasowałby do tego laptopa HP 530. Nie wiem jaki model ma płyta głowna z Laptopa PP33L dlatego że nie dało się tego laptopa uruchomić żeby sprawdzić w BIOSie albo w systemie. Spisałem jakieś liczby z płyty głownej tego laptopa CN-OP-132H-48643-8CB-0220-A00 DP/N OP132H BPB8C0020 002219 DA8B70-LanID GX D-VOA 94V-0 2-1 0842 E0EC 909G8222E M47 REV :  D DA0FM7MB8D0 PWB T012G REV : A00 Weźcie pod uwagę że zero to moze być duża litera o i odwrotnie.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...