Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
2 godziny temu, lukadd napisał(a):

Chce się komuś z posiadaczy 5090 machnąć bencha w FC6?

4k TAA wszystkie suwaki w prawo z RT i test w oknie robiłem, aby dorzucić na jednym screenie gpu-z.

 

Ta gra zbytnio nie wygrzewa GPU, ale jestem ciekawy zależności czy są podobne jak na 4090 odnośnie fps i poboru na 2 różnych nastawach. Czyli Stock vs max UV + vramki podbite.

 

U mnie na 4090 jest ~100W różnicy ~270 vs 370W, a fps na stock to jest 7% do przodu.

 

Mocno ciekawy jestem jak zachowa się 5090 w tym ubi gniocie, jaki fps i waty na tych nastawach wypluje.

 

 

Stock

HQidYaU.png

 

Max UV + mem oc

neOBBkN.png

 

 

Miętus stock

 

FC6stock.thumb.jpg.ca76a13609637e504c4da8d825c54891.jpg

 

Miętus UV, jest 2500MHz, lecz przy zmianie taktowania znów MSI Afterburner źle odczytuje taktowanie. :E Jedynie odinstalowanie i ponowne zainstalowanie programu naprawia problem tymczasowo. :E

 

FC6UV2500MHz.thumb.jpg.b31f9ecaacb738c96547ccc56b6f34a7.jpg

 

Max pobór prądu to jest pik, na UV oscylował on na poziomie 280-300W

  • Thanks 1
Opublikowano
8 minut temu, Phoenix. napisał(a):

Roznica w stosunku do 4090 to przepasc ale to UV tez pieknie ubija karte.

Raczej nikt tu nie robi UV na 2500MHz, najniższe UV jakie na tej karcie mogę zrobić to 2242MHz przy 0,850mV.

Miętek tylko z UV jest do przyjęcia, ale przez ten rezonans wentylatorów przy 1500 RPM, to już mi się nie podoba. :E

 

Tutaj wynik przy wyższym taktowaniu.

FC6UV.thumb.jpg.be18f5c4457bad6a35627a25d6589530.jpg

 

 

Opublikowano
17 godzin temu, Kadajo napisał(a):

Jemu raczej chodziło ze można by za pomocą tej symulacji stworzyć np. mgle albo inne tego typu efekty cząsteczkowe.

To ze w Batmanie masz akurat dym nie kończy się na możliwościach tych efektów przecież.

Physx to symulacja płynów, tkanin, cząsteczek itd itd.

 

Do dziś praktycznie w grach nie widać tak zaawansowanej symulacji dymu jaka była w Batmanch, ba w NFS ProStreet już mieliśmy podobny efekt dymu z opon. Wiec da się to zrobić nawet bez Physx.

BTW. ta gra ma na karku 18 lat.

Niestety to ty nie zrozumiałeś w ogóle o co mi chodziło skoro próbujesz mi tłumaczyć rzeczy, które są dla mnie oczywiste. Ja uważam, że symulacji dymu czy niektórych efektów cząsteczkowych twórcy nie dodają do gry ze względu na to, że nie ma to sensu a nie dlatego, że się niby nie da.

 

Ten przykład, który ja podałem, czyli symulacja wiatru i jego wpływ na ruch drzew, krzaków, trawy, liści w Assassin's Creed Shadows jest o wiele bardziej zaawansowany i wymagający niż symulacja dymu. Obliczenia są wykonywane na GPU, ruch wiatru jest obliczany z użyciem symulacji płynów (Fluid Simulation) tak samo jak w przypadku dymu. Zauważ jednak, że po pierwsze ta symulacja dotyczy znacznie większego obszaru a po drugie oprócz obliczeń związanych z przemieszczaniem się mas powietrza obliczany musi być również wpływ na wszystkie ruchome elementy. To jest zupełnie inny poziom! Porównaj sobie to z innymi grami. Pamiętam jak narzekałeś jak to wyglądało w Horizon Forbidden West. To jest pierwsza gra z tak realistyczną animacją i symulacją wiatru.

Opublikowano

A dlaczego to nie ma sensu, przecież wystarczy symulować tylko obszsar który widzi gracz i może bezpośrednio na niego wpłynąć, nie musisz symulować 30km/2. Poza tym masz w takim AC:S ogień, dym, a nawet eksplozje się zdarzają, można rzucić bombę dymna, no nie mów mi ze nie wygadałoby to lepiej z jakiś zaawansowanym efektem. Czy może im się po prostu nie chciało.

Zresztą pierwszy przykład z brzegu w nowej grze.

 

 

Przecież nie musieli tego robić mogli to olać. No i tym się różnią fajne gry od badziewia.

 

 

:hahaha:

 

No ale wiadomo, jest cykl dnia i nocy to już gra super i 8 cud świata technicznie :D

 

Skupiasz się tak bardzo na jednym aspekcie który jest dobrze zrobiony ze nie widzisz nagle jak reszta nie jest, ale jakiś cudem ci to nie przeszkadza. Dziwne.

Czy jesteś z tych, co to tylko klaszczą a jak jest krytyka to już trzeba wytykać. Zabawne ze ci, co narzekają na krytykę nawet chyba nie rejestrują ze sami krytykują krytykujących. :hihot:

Opublikowano
53 minuty temu, Doamdor napisał(a):

Max pobór prądu to jest pik, na UV oscylował on na poziomie 280-300W

Ta na 4090 jest podobnie peak jest wyższy od średniego.

 

Można by jeszcze średni pobór obadać podczas testu dla dokładności.

 

Ale z grubsza to cała ta wydajność 5090 w tej grze bierze się po prostu z większego poboru prundu, 5090tka mocno siorbie, mocniej niż się spodziewałem w tej grze. Stock 125 vs 170fps to jest 36% do przodu dla 5090 względem 4090, a w watach peak 370 vs 520 40% więcej papu.

Opublikowano

@Kadajo, to nagle symulacja dymu stała się najważniejszą rzeczą w grach. 😁 Wtedy to rzeczywiście jest tak jak twierdzisz, że Batman Arkham Knight z 2015 r. ma najlepszą fizykę. A obiektywnie oceniając to jednak nie, co udowodniłem ci w poprzedniej odpowiedzi.

  • Confused 1
Opublikowano (edytowane)
11 minut temu, Doamdor napisał(a):

@lukadd 

Najniższe UV jakie jestem wstanie zrobić.

 

Twój wynik stock

Tak na pewno nie ma co porównywać, czyli dopieszczane uv vs stock. prędzej twoje uv vs jego uv, wtedy róznica spada do 15% w wydajności , gdzie dalej 5090 bierze tych watów więcej o 10%

Bo jak byś ograniczył tylko power limit tak, żeby nie gpu nie połknęło więcej jak 372W bez ruszania reszty, to wynik byłby gorszy, niż masz UV

podejrzewam, że na tych samych watach, 5090 będzie minimalnie szybszy od 4090, cała magia nowej generacji, wyszła z większego apetytu na waty

16 minut temu, PiPoLiNiO napisał(a):

Dzięki. Działa. Ale wygląda to to marnie. 70 fps.

Tylko na 5090 gubiszs 80-90W bez jakiejkolwiek utraty wydajności. Przy 4090 zejście 40W i już tracisz klatki :)

No nie, przy 40-50W mniej potrafię jeszcze zyskać klatki, wystarczy, zamiast 1.05V ustawić 1V i podbić zegary o 100MHz na gpu i 1000 na pamięciach. przy 100W mniej jestem  w stanie uzyskać tę samą wydajność względem stock.

Wszystko zależy od danej sztuki, ale to tyczy się i 5090 i 4090

Edytowane przez SylwesterI.
Opublikowano (edytowane)

Ja mam 1 rtx 4090 i przy 50W mniej jestem w stanie uzyskać więcej fps, przy 100W mniej porównywalny wynik.

w 4090 więcej fps dawało podkręcanie pamięci, a nie kosztowało W, w 5090 pamięci są szybsze z fabryki i tak nie dławią gpu więc ich oc już tyle nie daje.

Edytowane przez SylwesterI.
Opublikowano
10 minut temu, SylwesterI. napisał(a):

Tak na pewno nie ma co porównywać, czyli dopieszczane uv vs stock. prędzej twoje uv vs jego uv, wtedy róznica spada do 15% w wydajności , gdzie dalej 5090 bierze tych watów więcej o 10%

Bo jak byś ograniczył tylko power limit tak, żeby nie gpu nie połknęło więcej jak 372W bez ruszania reszty, to wynik byłby gorszy, niż masz UV

podejrzewam, że na tych samych watach, 5090 będzie minimalnie szybszy od 4090, cała magia nowej generacji, wyszła z większego apetytu na waty

No nie, przy 40-50W mniej potrafię jeszcze zyskać klatki, wystarczy, zamiast 1.05V ustawić 1V i podbić zegary o 100MHz na gpu i 1000 na pamięciach. przy 100W mniej jestem  w stanie uzyskać tę samą wydajność względem stock.

Wszystko zależy od danej sztuki, ale to tyczy się i 5090 i 4090

To nie jest dopieszczone UV, a minimalne napięcie na jakie pozwala karta graficzna, oraz maksymalne taktowanie jakie da się ustawić na krzywej.

Powyższy wynik pokazuje minimalne UV i wydajność, więc dlaczego nie porównywać do RTX 4090?

Zrób podobny wynik na RTX 4090 i wrzuć screen z poboru prądu.

Opublikowano (edytowane)
10 minut temu, PiPoLiNiO napisał(a):

Ja mam wrażenie, że ich OC w ogóle nic nie daje :D

Prawdopodobnie, jeśli przepustowość stock jest wystarczająco duża to oc nic nie da, różnice pewnie byś zobaczył w specjalistycznych testach.

9 minut temu, Doamdor napisał(a):

To nie jest dopieszczone UV, a minimalne napięcie na jakie pozwala karta graficzna, oraz maksymalne taktowanie jakie da się ustawić na krzywej.

Powyższy wynik pokazuje minimalne UV i wydajność, więc dlaczego nie porównywać do RTX 4090?

Zrób podobny wynik na RTX 4090 i wrzuć screen z poboru prądu.

Można porównywać, ale do ustawianego ręcznie 4090, a nie stock.

Chętnie bym porobił podobne testy, bo moim zdaniem przy 272W Luk ma za niski zegar GPU, jednak nie mam tej gry.

 

możemy potestować:

gry.thumb.jpg.9718af5c09dc79ca57c864d108069b00.jpg

+ horizona 2 , alana wake 2

 

jeśli porównywać w 4k to bez FG, bo mam monitor 1440p i fg z podbitą w sterach rozdzielczością nie uruchomię

Edytowane przez SylwesterI.
Opublikowano
35 minut temu, Doamdor napisał(a):

@lukadd Takie uroki żyłowania procesu 5nm, przejście na 2-3nm powinno znacznie zredukować pobór prądu.

 

 

Najniższe UV jakie jestem wstanie zrobić.

 

FC6UVV.thumb.jpg.85ef4d5dab169c524955442e4d0ce753.jpg

 

Twój wynik stock

 

HQidYaU.png

 

 

No właśnie chodzi o te pobory i zyski z wydajności z nich niestety wynikające w nowej generacji.

 

 

A do max UV 4090 jak porównamy. Max UV vs max UV 117 fps vs 135 i mamy 15% do przodu dla 5090. Max waty to 272 vs 297W czyli ~9% watów więcej i 15% fps dla 5090.

 

neOBBkN.png

 

 

Opublikowano
1 godzinę temu, lukadd napisał(a):

Ta na 4090 jest podobnie peak jest wyższy od średniego.

 

Można by jeszcze średni pobór obadać podczas testu dla dokładności.

 

Ale z grubsza to cała ta wydajność 5090 w tej grze bierze się po prostu z większego poboru prundu, 5090tka mocno siorbie, mocniej niż się spodziewałem w tej grze. Stock 125 vs 170fps to jest 36% do przodu dla 5090 względem 4090, a w watach peak 370 vs 520 40% więcej papu.

Bez UV to niestety tak jest wydajność na wat wzrosła. Da się pokazać też 1.25x wyższą wydajność po UV przy 7.5% spadku poboru mocy przy grubszym UV na 5090 i bez UV na 4090. Ale można też w drugą stronę gdzie dopiero po grubszym UV 5090 łapie wydajność na wat na poziomie 4090 :E Ale to tylko skrajności, które można wykazać.

W przypadku Rubina jest chociaż jakiś przebłysk nadziei, że wydajność na wat poleci grubo do przodu. Ponieważ w przypadku tensorów wydajność na wat ma wzrosnąć aż 2.5x względem Blackwella, ale czy to się przełoży na tak masywne poprawki w reszcie bloków niekoniecznie ;)

Opublikowano
52 minuty temu, SebastianFM napisał(a):

@Kadajo, to nagle symulacja dymu stała się najważniejszą rzeczą w grach. 😁 Wtedy to rzeczywiście jest tak jak twierdzisz, że Batman Arkham Knight z 2015 r. ma najlepszą fizykę. A obiektywnie oceniając to jednak nie, co udowodniłem ci w poprzedniej odpowiedzi.

No nie ale możemy się chyba zgodzić ze nie widzimy takich efektów dziś w każdej grze.

Jak chcesz mnie po prostu łapać za słówka i za wszelką cenę udowodnić ze nie mam racji to kończę to rozmowę.

Już pominę ze rozmowa kompletnie zeszła z toru gdzie pisałem o tym ze Nvidia całkowicie bez powodu zabrała nam możliwość uruchamiania efektów Physx na nowym sprzęcie w starszych grach.

Pewnie, klaszczmy jej. Super.

Opublikowano
6 minut temu, Phoenix. napisał(a):

I na co ten DLSS dla tak mocnje karty ??

Zeby jeszcze pobor obnizyc...

No i oboje macie wersje na tej samej platformie??

DLSS 4

 

6 minut temu, lukadd napisał(a):

No właśnie chodzi o te pobory i zyski z wydajności z nich niestety wynikające w nowej generacji.

 

 

A do max UV 4090 jak porównamy. Max UV vs max UV 117 fps vs 135 i mamy 15% do przodu dla 5090. Max waty to 272 vs 297W czyli ~9% watów więcej i 15% fps dla 5090.

 

neOBBkN.png

 

 

Możesz sprawdź przy jakich ustawieniach wykręcasz taki sam wynik? Bo ten, który podałem to jest najniższy dla tego napięcia z maks możliwym taktowaniem, jedynie mogę jeszcze zejść z taktowaniem na 2162MHz.

 

 

Opublikowano
2 minuty temu, Doamdor napisał(a):

DLSS 4

Dodatkowa robota, zeby sylwek jeszcze kombinowal z podmiana plikowi i spraedzal presety, a gra juz na poprzednim gen nie stanowila wyzwania dla gpu gdzie w dodatku gra mega procesorowa ;)

Opublikowano
22 minuty temu, Doamdor napisał(a):

@SylwesterI. To może Shadow of the Tomb Raider? 4K RT Ultra z DLSS Q?

mozemy zrobic w 1440p,a bez dlss? Ty nie musisz kombinować, tylko zmieszasz rozdzielczość, ja muszę zmienić w sterowniku mnożniki rozdzielczości, wtedy w grze muszę dać pełny ekran na wyłączność, a wtedy nie mogę zrobić printscreena z wynikami

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
    • Czy dałoby się w laptopie HP 530 8HTF12864HDY-667E1 Mobile Intel Calistoga-GME i945GME wymienić 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz na 2-rdzeniowy procesor Intel Pentium Dual-Core T4200. Znalazłem zapusty laptop PP33L z popękanym i zepsutym monitorem i uszkodzoną płytą główną i 2-rdzeniowym procesorem Intel Pentium Dual-Core T4200 ale mam sprawny laptop HP 530 ale ma tylko 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz i chciałbym ten procesor wymienić na 2-rdzeniowy. Oryginalnie ten laptop miał 1 GB pamięci RAM i wymieniłem RAM na 4 GB. Jaki system operacyjny najlepiej pasowałby do tego laptopa HP 530. Nie wiem jaki model ma płyta głowna z Laptopa PP33L dlatego że nie dało się tego laptopa uruchomić żeby sprawdzić w BIOSie albo w systemie. Spisałem jakieś liczby z płyty głownej tego laptopa CN-OP-132H-48643-8CB-0220-A00 DP/N OP132H BPB8C0020 002219 DA8B70-LanID GX D-VOA 94V-0 2-1 0842 E0EC 909G8222E M47 REV :  D DA0FM7MB8D0 PWB T012G REV : A00 Weźcie pod uwagę że zero to moze być duża litera o i odwrotnie.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...