Skocz do zawartości

Hydepark, Retro, Luźne rozmowy


Rekomendowane odpowiedzi

Opublikowano
3 godziny temu, tom36816 napisał(a):

A jak Wam działa na nowszych kartach? Niedawno chciałem sobie odświeżyć i ogólnie zobaczyć jak chodzi ale nie mogę uruchomić na żadnej z nowszych kart Nvidii (od Maxwella w górę). Oczywiście mówię o klasycznej wersji gry.

 

Mam wersje płytkowe (Crysis 1 i Warhead) i też nie mogłem uruchomić gry na W11. Mam też Crysis Warhead na Steam (klasyczna wersja, bo innej Warhead nie ma) i niedawno przechodziłem to w 2560x1440 AAx8 z blokadą na 72 fps, UV karty (3080TI) na 762mV 1560Mhz i GPU load był w granicach 30-50%. Sprawdziłem teraz bez blokady klatek, to karta wyciąga około 200 fps, ale procesor momentami ogranicza do 140 fps.

Opublikowano
1 godzinę temu, wamak napisał(a):

Mam wersje płytkowe (Crysis 1 i Warhead) i też nie mogłem uruchomić gry na W11. Mam też Crysis Warhead na Steam (klasyczna wersja, bo innej Warhead nie ma) i niedawno przechodziłem to w 2560x1440 AAx8 z blokadą na 72 fps, UV karty (3080TI) na 762mV 1560Mhz i GPU load był w granicach 30-50%. Sprawdziłem teraz bez blokady klatek, to karta wyciąga około 200 fps, ale procesor momentami ogranicza do 140 fps.

Czyli chodzi na tyle ile CPU pozwala. Tylko że ja nie mogę uruchomić na wszystkim powyżej 780ti, a na starszych kartach działa. Windows 10, grę mam na GOGu

Opublikowano (edytowane)
W dniu 21.09.2025 o 19:37, Spl97 napisał(a):

Dlaczego przy 16 GB tak się zadziało, a nie inaczej? Na szybko w głowie znalazłem dwa powody: albo Windows XP przy dużej ilości pamięci kompletnie świruje, pomimo tego, że bez obciążenia jest stabilnie albo to kwestia sterowników do kart graficznych,

Czy to kwestia systemu, to sprawdzę później.

Doszedłem do sedna problemu z 16 GB DDR2 na platformie AM2+ na płycie głównej GA-MA790GP-DS4H z 790GX z rozwiązaniem (myślę, że również na swoim ASRock-u efekty będą te same). Okazało się, że podsumowując wszystkie czynniki po trochę, razem złożyło się do jednego wniosku, który brzmi, że na AMD mając scenariusz z obsadzonym 16 GB DDR2 o szybkości 800 MHz w czterech slotach, może być problem ze stabilną pracą na zegarze dla RAM-u 800 MHz i szybszym, jest to w zasadzie problem już nie do przeskoczenia na poziomie platformy. Praktycznie nikt nie znajdzie rozwiązań na takowy problem, gdyż mało kto miał styczność z taką pojemnością pamięci DDR2 vs sama platforma AM2/AM2+. Niezależnie od zamontowanego w sockecie CPU, jakiekolwiek podwyższenie napięcia dla RAM jak i dla CPU-NB / NB nie zdaje egzaminu, efekty były jak wcześniej, problemy ze stabilnością podczas obciążenia zarówno dla Athlona, jak i również dla Phenoma, wręcz powiem, że na Phenom 16 GB DDR2 na szybkości 800 MHz problem objawił się szybciej niż przypuszczałem, już na etapie testowania Memtest86+ :wariat:, a nawet o wejściu do systemu (choć tu próbowałem już Win 10) mogłem zapomnieć, bo walił niemal od razu BSOD :E. Jakie rozwiązanie? Zmniejszenie taktowania RAM do 667 MHz. Na 667 MHz zaczęło się robić stabilniej, system uruchamiał się, choć użyłem jeszcze Memtest dla sprawdzenia stabilności, przeszedł test na napięciu 2,0 V przy nastawach 667 MHz 5-5-5-13, gdyż na niższym napięciu chciało wywalać błędy :E. Stabilne 667 MHz zamiast 800 MHz na 16 GB DDR2 to i tak szczęście w nieszczęściu, gdyż trafiłem w międzyczasie do szczątkowych informacji, że niektórym, którzy próbowali na AMD odpalać wsadzone 16 GB DDR2 w 4 slotach, to im albo nie odpalało wcale albo podobnie jak u mnie o 800 MHz na 16 GB mogli zapomnieć i stabilnie to mieli na góra 533 MHz 8:E. Straty na wydajności 667 MHz względem 800 MHz? Z małych testów, które zrobiłem, wyszło, że na 667 MHz strata wynosi co najmniej 10%, a niewykluczone, że są jeszcze większe względem 800 MHz.

Jeszcze można spróbować z uniwersalnymi markowymi 16 GB DDR2, jeśli kiedyś trafi się okazja, w której za ten RAM nie zapłaci się jak za zboże bądź sięgnąć po RAM DDR2 16 GB w czterech modułach sygnowane jako only AMD, tyle, że takowe to z reguły są to badziewne 800 MHz na CL6 i będzie to sztuka trafić na takie z CL5.

 

W dniu 7.11.2025 o 08:39, RemiKo napisał(a):

Z ciekawości odpaliłem moje AM2+ aby porównać latency pamięci :)

 

Na potrzeby testu zasymulowałem nastawy @Spl97, aby wykluczyć wszystko inne prócz płyty głównej (wraz z chipsetem):

 

Specjalnie sięgnąłem również po tę nowszą wersję AIDA64, aby było już praktycznie 1:1 dla porównania:

 

2hm53gar.png

 

Wychodzi na to, że chipsety mogły i wtedy odgrywać swoją rolę w ogólnej wydajności. Nie mam obecnie żadnej płyty AM2+ na chipsecie Nvidii, aby móc dokładniej to porównać, stosując identyczne moduły pamięci oraz procesor.

 

Wrzucę przy okazji wyniki na moich "daily" nastawach tej platformy:

 

hh8d2u7r.png

 

Jednak w tym miesiącu udało się znaleźć trochę czasu na przetestowanie pod kątem latency RAM-u na Phenom X4 9850 z płytą na 790GX (Gigabyte GA-MA790GP-DS4H), wykorzystując całkiem niedawno nabyte pamięci ADATA Vitesta DDR2 1066+, więc zaprezentuję takie wyniki z AIDA64. Latency w końcu jest na poziomie powiedziawszy normalnym. Dodam, że na płycie Gigabyte jest prawie najnowszy BIOS mający prawdopodobnie nieco starszą AGESA.

800 MHz 4-4-4-12 2,0 V

BQjUSwd.jpeg

1066 MHz 5-5-5-15 2,2 V

ZxQrvhu.jpeg

 

Dodatkowo podkręciłem co nieco swojego Phenoma X4 9850 na widoczne u Ciebie 2.8 GHz, choć samego NB nie kręciłem. Jedynie co musiałem przy tym zegarze, to nieco podwyższyć napięcie CPU. Co prawda do Twoich 59 ns się nie zbliżyłem, lecz 62 ns też niczego sobie, w porównaniu do ~80 ns na płycie ASRocka z chipsetem MCP78. 

2shW5DO.jpeg

A jeśli o różnice Win XP vs Win 10, to o dziwo na płycie Gigabyte GA-MA790GP-DS4H różnica w latency RAM to jedynie ~1 ns :E. Ponadto porównując również wyniki z przydzieloną częścią pamięci RAM dla iGPU vs wykorzystana tylko pamięć SidePort dla iGPU różnica w latency także wynosi około 1 ns czy to na Win XP czy to na Win 10.

 

Na 2.8 GHz CBR23 wypluł wyniki jak na screenie. Na stock wyniki względem tych osiąganych na płycie ASRocka z MCP78 były praktycznie identyczne, a różnice, jeśli występowały, to na tyle nieistotne, że nie trzeba na nie zwracać uwagi.

OFcF8xe.jpeg

 

W dniu 10.11.2025 o 19:50, Spl97 napisał(a):

Pamięci posiadają profile EPP i tu taka ciekawostka, będę mógł najprawdopodobniej w stanie sprawdzić takie profile EPP w SPD tegoż RAM-u, jako, że dowiedziałem w źródłach sprzed kilkunastu lat w postaci wszelakich recenzji i testów, że jedna z moich płyt, Gigabyte GA-MA790GP-DS4H ponoć ma możliwość obsługi profili EPP w Biosie :E.

Co do tematu profili EPP na Gigabyte GA-MA790GP-DS4H, to jeśli na tej płycie są wsadzone pamięci z profilem/profilami EPP jak moje ADATA Vitesta DDR2 1066+, to faktycznie BIOS tej płyty wykrywa pamięci z takimi EPP i BIOS w opcjach wyświetla takie opcje związane z EPP.

Qcs6Tia.jpeg

EPP Mode oraz EPP Voltage Control. Można włączyć, ustawiając EPP Mode na Auto, ale w wypadku, gdy nie ma ustawionego manualnie zegara dla RAM, inaczej nie zadziała. EPP Voltage Control to ustawienia napięcia z profilu EPP bądź pozwolić płycie, żeby sama zarządzała napięciem dla RAM.

U mnie efekty są takie, że z tymi pamięciami, to uruchamia się po wybraniu EPP Mode na Auto tylko jeden profil, ten z wyższym zegarem 1066 MHz. Lepsze to niż nic.

Jeśli ktoś myślał, że profile EPP obsługują tylko płyty z chipsetem nVidii niezależnie od platformy, jak wielu było przekonanych o tym, to ten przykład jednak wyprowadza z błędu 8:E. Do niedawna też myślałem, że płyty z chipsetem AMD wykorzystującymi pamięci DDR2 nie mają w sobie obsługi profili EPP, a jednak były z tym jakieś płyty pod AMD z chipsetem AMD, choć nie każda ma to w sobie.

 

Na profilu EPP 1066 MHz 5-6-6-15 2,3 V AIDA64 pokazała ~ 64 ns latency.

29ILbFJ.jpeg

 

Podsumowując, nie mam pojęcia skąd na Phenom X4 9850 wzięły się różnice w latency na obu wykorzystywanych przeze mnie płytach pod AM2+, ASRock K10N78FullHD-hSLI i Gigabyte GA-MA790GP-DS4H. Może kwestia BIOS-u, może chipsetu, może sterowniki, cholera wie co mogło stać się przyczyną takich, a nie innych wyników latency na K10N78FullHD-hSLI z Phenom X4 9850. 

Edytowane przez Spl97
  • Thanks 1
Opublikowano (edytowane)

Co do 8800GTS to u mnie czekają od dłuższego czasu na przegląd odgrzewane kotlety razy dwa czyli GTS 250.

Postanowiłem też przekroczyć 100tyś w 3dmark01 i składam taką platformę, na razie zostałem pokonany instalacją win xp z pendrive, muszę wykopać jakiś napęd na sata i przejść instalacje windy z cd.

Zamówiłem też pady od upsiren, komentarze ma pozytywne więc liczę że będzie to dobry produkt za małe pieniądze, co by tanio porzeźbić w złomkach.

IMG_20251123_223522751.thumb.jpg.b752f55349fbcbd546ae31854b24f65e.jpg

IMG_20251117_151259786_HDR.thumb.jpg.32a62f71f9927b58c3bd5a3649d953ba.jpg

Edytowane przez Keleris
  • Like 3
  • Upvote 2
Opublikowano
W dniu 22.11.2025 o 15:05, wamak napisał(a):

Mam też Crysis Warhead na Steam (klasyczna wersja, bo innej Warhead nie ma) i niedawno przechodziłem to w 2560x1440 AAx8 z blokadą na 72 fps, UV karty (3080TI) na 762mV 1560Mhz i GPU load był w granicach 30-50%.

Nawet znacznie słabsze karty są w tych oryginalnych wersjach konkretnie ograniczane przez to nawet na topowym cpu i gpu wydajność w wielu miejscach w grze jest do bani, w remasterze c1 jest trochę lepiej od strony cpu ale nadal optymalizacja leży, do c1 i warheada to trzeba by było mieć cpu z wydajnością pojedynczego rdzenia 3x wyższą niż oferuje obecnie najwydajniejszy na rynku to może by nie było takich dropów i bottlenecka :D 

Opublikowano (edytowane)
16 godzin temu, Send1N napisał(a):

Nawet znacznie słabsze karty są w tych oryginalnych wersjach konkretnie ograniczane przez to nawet na topowym cpu i gpu wydajność w wielu miejscach w grze jest do bani, w remasterze c1 jest trochę lepiej od strony cpu ale nadal optymalizacja leży, do c1 i warheada to trzeba by było mieć cpu z wydajnością pojedynczego rdzenia 3x wyższą niż oferuje obecnie najwydajniejszy na rynku to może by nie było takich dropów i bottlenecka :D 

NIe obraz sie ale pierniczysz farmazony, jak by warhead byl limitowany cpu w tamtych czasach to mial bym prostoliniomy wykres a tego nie bylo

crywar.jpg

CF by lezalo i kwiczalo jak by CPU bylo limiterem to samo SLI.

A w kolejnym tescie nie powinnem miec wzrostow szczegolnie w SLI 480tek jakby CPU bylo limitem

war.jpg

Tak samo OC kart by nic nie dawalo jak by cpu bylo limiterem

waroc.jpg

Edytowane przez Maxforces
Opublikowano (edytowane)

@Maxforces przecież ja nie miałem na myśli cpu z tamtych czasów tylko pisałem o w miarę współczesnych cytując post wamak'a ;) ciężko w tej grze wykręcić w miarę równą wydajność jak wykorzystywane są 2 rdzenie a reszta leży odłogiem i karta leci na pół gwizdka 

 

 

Edytowane przez Send1N

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
    • Czy dałoby się w laptopie HP 530 8HTF12864HDY-667E1 Mobile Intel Calistoga-GME i945GME wymienić 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz na 2-rdzeniowy procesor Intel Pentium Dual-Core T4200. Znalazłem zapusty laptop PP33L z popękanym i zepsutym monitorem i uszkodzoną płytą główną i 2-rdzeniowym procesorem Intel Pentium Dual-Core T4200 ale mam sprawny laptop HP 530 ale ma tylko 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz i chciałbym ten procesor wymienić na 2-rdzeniowy. Oryginalnie ten laptop miał 1 GB pamięci RAM i wymieniłem RAM na 4 GB. Jaki system operacyjny najlepiej pasowałby do tego laptopa HP 530. Nie wiem jaki model ma płyta głowna z Laptopa PP33L dlatego że nie dało się tego laptopa uruchomić żeby sprawdzić w BIOSie albo w systemie. Spisałem jakieś liczby z płyty głownej tego laptopa CN-OP-132H-48643-8CB-0220-A00 DP/N OP132H BPB8C0020 002219 DA8B70-LanID GX D-VOA 94V-0 2-1 0842 E0EC 909G8222E M47 REV :  D DA0FM7MB8D0 PWB T012G REV : A00 Weźcie pod uwagę że zero to moze być duża litera o i odwrotnie.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...