Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano

Liczyłem na więcej no ale pożyjemy zobaczymy. 

 

**Dotyczy Zen 6**

Próbki inżynieryjne zostały już rozesłane. To nie będzie rewolucja, a ewolucja.
Będzie więcej rdzeni na matrycę CCD, a zamiast jednego kontrolera pamięci będą dwa (szczegóły są wciąż skąpe). Liczba kanałów pamięci pozostanie na poziomie dwóch. Nie oczekuje się żadnych nowych technologii boost, a optymalizator krzywych pozostaje niezmieniony. Obsługa HYDRA nie będzie stanowić problemu.

Opublikowano
30 minut temu, Phoenix. napisał(a):

 

Okres rewolucji sie skonczyl w sprzecie, nie bedzie juz go nigdy ;)

Nie pitol, x86 nie beda ciagnac do konca swiata, a to jeden z hamulcowych obecnie.

Opublikowano (edytowane)

Myślę, że duże zyski są możliwe, ale to zależy od priorytetów. Priorytetem AMD w tej chwili jest więcej rdzeni.

21 godzin temu, ryba napisał(a):

Nie pitol, x86 nie beda ciagnac do konca swiata, a to jeden z hamulcowych obecnie.

Z tego, co wiem, nic nie stoi na przeszkodzie, aby x86 osiągnęło znacznie wyższy IPC niż obecnie. Chociaż x86 komplikuje projekt, osiągnięcie IPC obecnego i przyszłego rdzenia ARM jest dla x86 całkowicie możliwe. Apple może teraz mieć znacznie wyższy IPC, ale projekt i techniki zastosowane w jego mikroarchitekturze nie są tak zaawansowane, jak na przykład Zen5(m.in predyktor(BPU)).

 

Ściśle kontrolując proces pisania kodu oprogramowania, Apple upraszcza mikroarchitekturę rdzenia, co przenosi większy narzut na wysiłek pisania softu.

 

W przypadku x86 projektanci rdzeni muszą jednak wykazać się umiejętnościami i pomysłowością a nawet geniuszem, aby poradzić sobie z uniwersalnością, zmienną długością i chaotyczną naturą instrukcji w każdym strumieniu oprogramowania. Z drugiej strony, x86 jest znacznie bardziej wszechstronny i nawet dodając nowe instrukcje nie trzeba się martwić, że nowy rdzeń x86 z nowymi instrukcjami nie będzie już kompatybilny z poprzednim oprogramowaniem.

 

Moim zdaniem ciągłe spory i kłótnie o to, który x86 czy ARM jest lepszy, są bezcelowe.

Apple Mx to inny cel i bardzo wąska grupa użytkowników. 99% z nich nie ma pojęcia, jaki procesor jest w nim zainstalowany ani jaką ma mikroarchitekturę. Nikogo nie obchodzi, czy osiągnął daną wydajność przy taktowaniu 2 GHz czy 10 GHz, czy ma cztery, czy dziesięć potoków dekodujących na rdzeń itd.

Priorytety rynku x86 są zupełnie inne, ponieważ ARM nie stanowi znaczącej konkurencji.

Dla AMD i Intela priorytetem są procesory Epyc/Xeon i urządzenia mobilne.

AMD projektuje x86 Zen z silnym naciskiem na Epyc, o czym świadczy Zen5, który także musi działać dobrze w mobile. Oczekuje się, że Zen6 przyniesie mniejsze ulepszenia, ale między innymi o 50% więcej rdzeni i pamięci podręcznej. Prawdopodobnie trochę zwiększy taktowanie. 

 

Dodając więcej rdzeni i pamięci podręcznej, AMD musi zrównoważyć złożoność samych rdzeni.

 

Apple ma tylko kilka dużych rdzeni na chip, co zapewnia większą swobodę rozbudowy mikroarchitektury. Co więcej, Apple spowolniło teraz rozbudowę rdzenia i zwiększa taktowanie.

 

AMD i Intel walczą ze sobą o osiągnięcie jak największej ilości rdzeni na gniazdo, co zostawia małe pole do rozbudowy.

 

Intel już zaprojektował potężny rdzeń, 3-4 razy bardziej złożony niż GoldenCove i prawdopodobnie bardziej rozbudowany i szerszy niż jakikolwiek ARM, ale porzucił projekt, ponieważ nie chciał marnować krzemu wyłącznie na procesory do komputerów stacjonarnych lub urządzeń mobilnych, gdzie można było wykorzystać prostsze rdzenie i osiągnąć „stały” wzrost generacyjny.

 

AMD i Intel to korporacje, a akcjonariusze chcą widzieć stały, niezawodny i stabilny wzrost.

 

Bardzo duży wzrost złożoności rdzeni w ciągu jednej generacji oznacza dłuższy czas projektowania i walidacji oraz większe ryzyko błędów. AMD i Intel mają własną ścieżkę rozwoju dla x86. Siła x86 tkwi we wstecznej kompatybilności, uniwersalności i miliardowych ilości softu(w tym otwartych i darmowych) działających natywnie na x86.

 

 

 

Edytowane przez AMDK11
Opublikowano

Zyski w grach mogą być spore bo po pierwsze zegary, po drugie więcej rdzeni=więcej cache, a po trzecie wyeliminują wąskie gardło Zena 5 czyli stary kontroler pamięci

59 minut temu, ryba napisał(a):

Nie pitol, x86 nie beda ciagnac do konca swiata, a to jeden z hamulcowych obecnie.

Inne architektury mają duże braki które trzeba by nadrobić całkowitym przemodelowaniem całego ekosystemu (a przecież pracują na tym wszelakie urządzenia na całym świecie, w przemyśle itp), zaś przewagi innych architektur wynikają np. z tego że Apple stać na najnowszy proces produkcyjny rok przed innymi czy fakt że wszystko jest zalutowane na jednym PCB. Póki co nie widać nic równie uniwersalnego jak x86.

Opublikowano (edytowane)
19 godzin temu, kalderon napisał(a):

Zyski w grach mogą być spore bo po pierwsze zegary, po drugie więcej rdzeni=więcej cache, a po trzecie wyeliminują wąskie gardło Zena 5 czyli stary kontroler pamięci

Inne architektury mają duże braki które trzeba by nadrobić całkowitym przemodelowaniem całego ekosystemu (a przecież pracują na tym wszelakie urządzenia na całym świecie, w przemyśle itp), zaś przewagi innych architektur wynikają np. z tego że Apple stać na najnowszy proces produkcyjny rok przed innymi czy fakt że wszystko jest zalutowane na jednym PCB. Póki co nie widać nic równie uniwersalnego jak x86.

Gry osiągają średnio 1-2 IPC, podczas gdy Zen5 i LionCove osiągają 8(szczytowo więcej dzięki UOP Cache).

 

W grach lepiej jest mieć najniższe możliwe opóźnienie i najwyższą możliwą częstotliwość taktowania.

 

Opóźnienie jest znacznie redukowane dzięki dużym pamięciom podręcznym, takim jak 3D V-Cache AMD i samą logiką sterującą rdzenia obliczeniowego.

Edytowane przez AMDK11
Opublikowano (edytowane)

Mam nadzieję, że nie było, ale nie chce mi się odwijać ignorowanych, żeby posprawdzać, więc wrzucę:

 

 

 

Ten gość drugi raz już gada o tym, że Zen 6 ma być na N2X.

 

Zaraz zaraz...

To ma mieć premierę za niecały rok do półtora roku. News sprzed półtora miesiąca mówi o tym, że N2P i N2X osiągną masową produkcję dla mainstremowych segmentów pod koniec 2027r.

Poza tym pierwszy N2 się słabo nadaje dla chipów z wysokim zegarem i to właśnie N2P i N2X mają być tym co coś realnie da.

 

Zatem jakim cudem Zen 6 ma korzystać z procesu dostępnego rok-dwa później? I jeśli się okaże, że koleś z filmiku wyżej gadał bzdury to skąd tak duży wzrost zegarów? 2011-2020 to było 5GHz -> 5.5GHz i nagle teraz mamy od tak, na jakimś kiepskim skoku w sensie procesu TSMC nagle przełamać barierę 7GHz i pewnie 6GHz all core? 

 

Oczywiście spodziewam się dużego jak na obecne czasy skoku dzięki GAA, ale nadal nie sądzę, aby miało być tak pięknie, że Zen6 w formie proców do gierek miałby dostać chiplety w GAA już latem 2026r.

 

Kolejna sprawa. Zen 7. Ten sam gość mówi, że chip v-cache będzie w 4nm. A w jakim są obecnie te chipy w 9800x3D?

Ja myślałem, że to właśnie GAA się przyda do tego z czego się robi v-cache. 

 

Ostatnia kwestia. Co oznacza ten dziwny pomysł, że każdy rdzeń Zen 7 dostanie 2MB L2 (to spoko, Intel już wcześniej zwiększał tu bardziej niż AMD) ale i 7MB v-cache jako L3?

Czyli dla 8-jajowca byłoby to 8x7MB. 

Ale zaraz. Czy kod który teraz się ładnie mieści w całym cache'y nie chodziłby na takim procu sporo wolniej?

A może to jest dodatkowy v-cache a na to dopiero przyjdzie te 64-128MB normalnego, takiego jak w 9800x3d?

Bo chyba gość jednak jakąś tam wiedzę i renomę posiada i by zwykłego L3 z v-cache nie mylił.

 

Jestem ciekaw co o tym sądzicie, bo ja mam w głowie same znaki zapytania, szcególnie z kwestią procesu. GAA to cholernie ciężki temat i od lat u wszystkich są obsuwy a tu nagle tanie procki do komputerów miałyby dostać cholernie drogi proces i to jeszcze wcześniej niż w prognozach/roadmapach? :hmm:

Edytowane przez VRman
Opublikowano (edytowane)

Na razie nic nie jest pewne i dopóki dane te nie zostaną zweryfikowane, pozostają one jedynie spekulacjami, do których należy podchodzić z dystansem. 

 

Co do Zen6 jestem bardzo dobrej myśli ;)

Edytowane przez AMDK11
  • Upvote 1
Opublikowano

AMD podobno testuje próbki swojego procesora desktopowego nowej generacji z mikroarchitekturą „Zen 6”, o nazwie kodowej „Medusa Ridge”, wśród bliskich partnerów branżowych, takich jak projektanci platform i producenci OEM – twierdzi Yuri Bubliy, znany jako 1usmus, autor oprogramowania do tuningu Hydra oraz wycofanego już kalkulatora DRAM dla Ryzen.

Procesor zakłada aktualizację zarówno układów CCD, jak i klientowskiego układu I/O – mówi. AMD potwierdziło, że buduje układ CCD „Zen 6” w procesie technologicznym TSMC N2 (2 nm), który wszedł w fazę produkcji próbnej wcześniej w tym roku. Proces ten ma być gotowy do masowej produkcji chipów 2 nm jeszcze w tym roku. Węzeł 2 nm oferuje znaczący wzrost gęstości tranzystorów w porównaniu do obecnego węzła TSMC N4P, na którym AMD produkuje 8-rdzeniowy układ CCD „Zen 5”. Według 1usmusa i innych źródeł, AMD wykorzysta to do zwiększenia liczby rdzeni na CCD.

Źródła wskazują na możliwość zwiększenia liczby rdzeni na CCD do 12, z 48 MB pamięci podręcznej L3. Na razie nie wiadomo, czy wszystkie 12 rdzeni będzie zgrupowanych w jednym CCX z monolitycznym blokiem 48 MB pamięci L3, czy też zastosowany zostanie układ dwu-CCX, z 6 rdzeniami na CCX, dzielącymi po 24 MB pamięci L3. Kolejną dużą aktualizacją w „Medusa Ridge” jest klientowski układ I/O (cIOD). AMD ma zbudować nową generację cIOD w nowszym procesie EUV, takim jak 5 nm N5 lub 4 nm N4P, co stanowi znaczące ulepszenie w porównaniu do obecnego 6 nm N6. 1usmus twierdzi, że głównym powodem aktualizacji cIOD jest architektura kontrolera pamięci. AMD ma zastosować w „Medusa Ridge” nową architekturę podwójnego kontrolera pamięci. Nadal będą to dwa kanały DDR5 na gniazdo, ale zaprojektowane z myślą o wyższych prędkościach pamięci, co pozwoli AMD dogonić Intela w tej dziedzinie. Jeśli chodzi o technologie zwiększania częstotliwości procesora, takie jak PBO i Curve Optimizer, nie przewiduje się żadnych aktualizacji, a 1usmus podsumowuje, że wsparcie dla Hydry powinno być proste.

  • Upvote 1
  • bourne2008 zmienił(a) tytuł na AMD ZEN 6 (Olympic Ridge) - wątek zbiorczy
Opublikowano (edytowane)

Tym razem plotka, która wygląda znacznie bardziej wiarygodnie niż te pierdu pierdu gościa z kanału Moore's Law is Dead

 

https://videocardz.com/newz/amd-zen-6-to-primarily-use-tsmc-n2p-n3p-for-low-end-mobile-skus

 

n2p ma sens. Wydawanie proca w 2026r. w procesie mającym debiutować w 2027r. sensu nie miało (gość coś bzdurzył o N2X, ale w ciągu tygodnia widzę w jego filmikach dwie kolosalne bzdury poza tym o n2x więc chyba szkoda czasu na ten kanał)

 

W każdym razie jednak N2, więc GAA i przyznam, że jeszcze pół roku temu bym w taki scenariusz nie uwierzył. Fajna niespodzianka. Moje prognozy, że po 9800x3d nic fajnego długo nie wyjdzie właśnie wzięły w łeb. I nie mógłym być z tego powodu bardziej szczęśliwy :)

 

Przypomnę, że emu PS3 w  grach 30fps kończy się na 9800x3d na około 50fps. 

2nm może wystarczyć aby zamknąć 60fps, a wtedy sobie wreszcie przejdę Motorstormy i GoW: Ascension :)

 

O ile do wtedy nie wyłączą MS FS 2020, to też się przyda te 15-20% więcej jednowątkowej do VRu. 

 

Go go AMD :)



edit:



Znowu ten gość powtarza "N2X".

Myślę, że chyba coś się mu pomyliło z następną wersją, może Zen 6 plus, czy Zen 7. 

Co do tych 7GHz to też jestem  bardzo sceptyczny. 

- bo mnie interesują wersje X3D, a tu może być niżej niż wersje bez cache

- zegar jednego wątka przy wyłączonej reszcie 

- może to tylko nowa forma oszczędzania energii co pozwala np. na wyższy zegar w obliczeniach które mniej wymagają mocy/prądu/ciepła

- a może to jakaś inna technologia, której do tej pory nie było, która doda wady obniżające atrakcyjność tych 7GHz w grach

- to jego interpretacja. Mówi, że to nie jest "AMD marzy o tylu", a "AMD wkłada dużo wysiłku aby to osiągnąć". Te 7+GHz może więc się okazać zbytnim optymizmem. Na razie mają 6,xGHz. 

 

 

Zgadzam się za to z tym, że będzie drożej. Mam nadzieję, że będzie lepiej niż się obawiam, a po cichu liczę na 8-jajową wersję proca z pełnym cache'em, ale to raczej zbytni optymizm z mojej strony.

Edytowane przez VRman

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
    • Czy dałoby się w laptopie HP 530 8HTF12864HDY-667E1 Mobile Intel Calistoga-GME i945GME wymienić 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz na 2-rdzeniowy procesor Intel Pentium Dual-Core T4200. Znalazłem zapusty laptop PP33L z popękanym i zepsutym monitorem i uszkodzoną płytą główną i 2-rdzeniowym procesorem Intel Pentium Dual-Core T4200 ale mam sprawny laptop HP 530 ale ma tylko 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz i chciałbym ten procesor wymienić na 2-rdzeniowy. Oryginalnie ten laptop miał 1 GB pamięci RAM i wymieniłem RAM na 4 GB. Jaki system operacyjny najlepiej pasowałby do tego laptopa HP 530. Nie wiem jaki model ma płyta głowna z Laptopa PP33L dlatego że nie dało się tego laptopa uruchomić żeby sprawdzić w BIOSie albo w systemie. Spisałem jakieś liczby z płyty głownej tego laptopa CN-OP-132H-48643-8CB-0220-A00 DP/N OP132H BPB8C0020 002219 DA8B70-LanID GX D-VOA 94V-0 2-1 0842 E0EC 909G8222E M47 REV :  D DA0FM7MB8D0 PWB T012G REV : A00 Weźcie pod uwagę że zero to moze być duża litera o i odwrotnie.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...