Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano (edytowane)
W dniu 1.11.2024 o 01:35, Spl97 napisał(a):

 

Witam

 

Zapytam wprost, dlaczego są produkowane dwie wersje kart ASUS TUF 3060Ti z zasilaniem 2x8 a rewizja V2 już tylko jedno 8-pin. Są jeszcze innych firm 8+6 pin, a także z pamięciami GDDR6 i GDDR6X

 

Czy wersje oszczędne wyszły później jak brakowało kart dla graczy wtedy co BitCoin przodował ?

 

Jak ktoś ma przykłady różnych wersji i istotnych zmian w konstrukcji to proszę się podzielić wiedzą, tych co nie wiedzą

Edytowane przez _Robo_
Opublikowano

Bo pierwsza rewizja ma bios z power limitem prawie 300W więc 1 wtyczka 8pin byłaby niezgodna z przepisami, na V2 masz już max PL limit ustawiony na 216W więc mieści się w normie: 8pin - 150W + pci-e - 75W.

  • 1 miesiąc temu...
Opublikowano (edytowane)

Pokazuje co poprzednicy położyli a sam na 2025 rok poleca na rdzeń gpu zwykłą pastę w dodatku rzadkiego przepłaconego kryonauta:E widzę że vbt nadal w formie xD jeszcze wcześniej wspomniał o kryosheet.. reklama TG zrobiona, ciekawe za ile ta karta trafi do kolejnego serwisu z problemem wysokiej temp HS ;) 

Edytowane przez Send1N
  • Upvote 1
Opublikowano

Zgadza się. Misiek bardzo się zdegradował od czasu swojej premiery. Rzadki i piaskowy się zrobił. Jak już stosować pastę, to zrobić przegląd past w internecie wi wybrać najgęstszą. A PTM skoro ludki go chwalą powinien być w tej recce na 1 miejscu.

Opublikowano
5 godzin temu, Send1N napisał(a):

widzę że vbt nadal w formie xD jeszcze wcześniej wspomniał o kryosheet.. reklama TG zrobiona, ciekawe za ile ta karta trafi do kolejnego serwisu z problemem wysokiej temp HS ;) 

Najciekawsze jest to, że jemu liczba subów zaczęła spadać, gdzie wcześniej ledwo był w stanie osiągnąć 100 tys. subów, niedługo potem dostając srebrny przycisk od YT. Jak tak dalej pójdzie, to może się okazać, że będzie musiał ten przycisk zwrócić 8:E.

  • Haha 1
  • Upvote 1
Opublikowano
8 godzin temu, Send1N napisał(a):

Pokazuje co poprzednicy położyli a sam na 2025 rok poleca na rdzeń gpu zwykłą pastę w dodatku rzadkiego przepłaconego kryonauta:E widzę że vbt nadal w formie xD jeszcze wcześniej wspomniał o kryosheet.. reklama TG zrobiona, ciekawe za ile ta karta trafi do kolejnego serwisu z problemem wysokiej temp HS ;) 

To i tak jest nic przy klejeniu czapki poxipolem i krojenie ludzi za skalpowanie jak za zboże :lol2:

  • Upvote 1
Opublikowano
33 minuty temu, SebastianFM napisał(a):

Ta, jasne. Strata jest 2 razy większa niż podajesz tylko ty sobie to niby zrekompensowałeś DLSS.

To jest typ czlowieka, ktory sam siebie oklamie, zeby usprawiedliwic kupno staroci po taniosci :hihot:

A na radeonie to sie nie dla wlaczyc FSR?? :boink:

16 minut temu, wallec napisał(a):

Oczywiście! Obraz z DLSS jest lepszy niż natywny z taa.

Zacznij Ty kiedys myslec ;)

mozg-masz-wypadlo-ci.jpg

  • Haha 1
  • Upvote 2
Opublikowano (edytowane)

FSR? Żeby obraz był jeszcze gorszy niż natywny z taa?

There you go my nyga, dlss lepszy niż natywne mydło z taa.
fsr mruga jak zły

 

Tylko komputerowy nerd tego nie zauważy i będzie wypierać! :E
 

 

Edytowane przez wallec
Opublikowano

Przyznaj się, że ty trolujesz. Nie chce mi się wierzyć, że ty takich prostych rzeczy nie ogarniasz. Ten film ma ponad 2 lata. Wiesz ile przez ten czas się zmieniło w jakości zarówno DLSS jak i FSR?

 

W grach z poprawnie zaimplementowanym TAA, np. Cyberpunk 2077, podczas ruchu obraz ma lepszą jakość, ostrość i szczegółowość niż przy użyciu nawet najnowszego DLSS Quality.

Opublikowano (edytowane)

No ale ja nie gram dwa lata temu, tylko teraz i jest dokładnie tak jak na filmie.
No i nie piszę o grach, w które nie gram i rzeczach, których sam nie testowałem na 4k@120hz 55 cali oled z hdr.

 

Moje doświadczenie dlss/rtx 7900xtx/7800xt/4070ti super/rtx 308012gb/ 2080ti opieram na grze Hogwarts Legacy, z której to pochodzą wszystkie screeny i porównania wydajności.

 

Teraz kupiłem Marvels Obrońcy Galaktyki więc też wkleję jakieś porównanie obrazu w 4k natywny taa z dlss i fsr.

 

Ps. Jak producent gry nie wgra CI poprawki dlss/fsr to nic się nie zmieni

Ps2. W hogwarts legacy masz fsr 1 i fsr 2 pomimo, że na rynku jest już fsr 3 i fsr 4

Ps3. W hogwarts legacy jest już turbo dlss z opcją ray reconstruction
Ps4. Powyższe ps'y świadczą, że nie warto kupować AMD bo nawet jak coś wymyślą w stylu fsr3 i fsr4 to producenci gier tego nie implementują ;)

 

4k ray tracing dlss off

image.thumb.png.75e1e9559007ab954b5dbed3ca39e3e1.png

 

To samo z DLSS na Jakość

image.thumb.png.630a1c7750b13bb1c55a045489443ef1.png

 

Ampere wymiata, grafika piękna od pierwszej sceny gry.

image.thumb.png.ef1d27052245e01ebba5e53a80a5bc81.png

Edytowane przez wallec
Opublikowano (edytowane)
52 minuty temu, wallec napisał(a):

FSR? Żeby obraz był jeszcze gorszy niż natywny z taa?

Nie chodzi o jakos obrazu FSR tylko twoje debilne myslenie i usprawiedliwanie sobie zakupu. Fakty sa takie ze 7900XTX to nadal top karta i zjada tego gownainego 3080. A Ty uzywajac upscalerow tluamczysz sobie mniejszy wydatek oszukujac sam siebie, myslac, ze tu sa debile na forum co lykna twoje farmazony twojego pokroju :hihot:

Porownaj karty w natywie, porownaj karty z upscalerami i wyciagnij rzetelne wnioski, a nie twoje urojone fantazje.

To, ze DLSS wyglada lepiej nie usprawiedliwia cie i pisania tych bzdur, bo tylko robisz z siebie debila.

34 minuty temu, SebastianFM napisał(a):

Przyznaj się, że ty trolujesz. Nie chce mi się wierzyć, że ty takich prostych rzeczy nie ogarniasz.

Przeciez na labie mial juz bany, to krol elektorosmieci i troli.

To az nie do pomyslaenia jak mozna byc tak glupim zeby takie cos pisac...

30 minut temu, wallec napisał(a):


Ps4. Powyższe ps'y świadczą, że nie warto kupować AMD bo nawet jak coś wymyślą w stylu fsr3 i fsr4 to producenci gier tego nie implementują

Ale to nadal nie usprawiedliwia tego co pisesz, DLSS4 w eilu grach niema implementacji  i trzeba modowac.

30 minut temu, wallec napisał(a):

Ps3. W hogwarts legacy jest już turbo dlss z opcją ray reconstruction

I co z tego, robisz z siebie idiote dla jednej gry ??

38 minut temu, SebastianFM napisał(a):

Ten film ma ponad 2 lata.

jak tam juz upscalery sa zaktualizowane a dlss ma nawet najnowsza wersje, a gosc wrzuca film sprzed dwoch lat :hihot:

Edytowane przez Phoenix.
  • Thanks 1
  • Upvote 2
Opublikowano

O co Wy się spinacie w ogóle?

Wkleiłem screeny i opisałem dokładnie to samo co jest w każdej recenzji kart graficznych.

Mianowicie.

7900XTX ma mega surową wydajność i tylko tyle.

Nvidia, nawet tak stara jak 3080 12gb ma fajną wydajność startową i pełen wypas dodatków od Nvidia jak dlss, ray tracing, cuda, działające wsparcie programów, które sprawia, że nawet takie 3080 12gb jest dla mnie fajniejsze od 7900xtx.

To samo jest w najnowszej recenzji liptona o 5060ti 16gb, gdzie niby 7800xt jest super lepszą kartą bo 20% mocniejszy raster...

image.thumb.png.e0472c82d89f2e340960c713fd9a1503.png

A potem przychodzi, to jak normalny człowiek używa karty czyli odpala sobie dlss bo ma za frajer boost do fps + lepszy obraz niż natywny i papa radeon (nawet z odpalonym fsr3)

image.thumb.png.286582aa7c05e03ecc07b79a8d009338.png

 

Elektrośmieci? A może rozsądek? ;)

image.thumb.png.445d339f06fb82b8a95f340debc74d2d.png

Opublikowano (edytowane)
1 godzinę temu, wallec napisał(a):

Ampere wymiata, grafika piękna od pierwszej sceny gry.

To ze masz nie rowno podsufitem to juz wiemy.

50 minut temu, wallec napisał(a):

O co Wy się spinacie w ogóle?

My o nic, chcesz dyskutowac to sie zachowuj, a nie pisz tak, jakby ci sie wszytkie klepki odkleily ;)  Tutaj poza toba nikt nie lyka tego co piszesz,stad roznica zdan.

50 minut temu, wallec napisał(a):

Elektrośmieci? A może rozsądek?

Oceniam twoja cala dzialanosc z pclaba do dzis, a tam robiles jeszcze grubsze fikolki. Kupuj sobie co chesz i za ile chcesz ale nie rob z gowna miodu i nie oszukuj samego siebie oraz co najwazniejsze nas robiac absurdalne porownania ;)

Ale czego mozna oczekiwwac po gosciu, ktory zlozyl klamota, ktory ogarnia 60fps i cisnal beke z ludzi, kotrzy maja mocniejsze pcty gdzie rowniez maja 60fps, ale Ty miales za duzo mniejsze pieniadze te 60fps :hahaha: To jak kupic ferari i miec mozliwosc jechania w 100km/h i Pasata za 10x mniej i tez miec mozliwosc jechania 100km/h, cały Ty :boink:

50 minut temu, wallec napisał(a):

Nvidia, nawet tak stara jak 3080 12gb ma fajną wydajność startową i pełen wypas dodatków od Nvidia jak dlss, ray tracing, cuda, działające wsparcie programów, które sprawia, że nawet takie 3080 12gb jest dla mnie fajniejsze od 7900xtx.

Fajnie, ze to rozumiesz tylko nie musisz do tego oklamywac siebie, nas i robic fikolkow piszac o karcie sprzed wielu lat  bo tu ludzie wiedza juz co to za model i na twoje porownania sie nie nabiora.

Dla mnie to ty jestes chory psychicznie, zrobisz wszystko i wszystkich, zeby tylko usprawiedliwic sobie cos co uroiles sobie w glowie oraz swoj zakup oszukujac przy tym glownie samego siebie ;)

 Bo jak zauwazyles lub nie, nikt w tym temacie nie lyknal ani jednego twojego slowa, to powinno dac ci do myslenia ;)

Edytowane przez Phoenix.
  • Upvote 1
Opublikowano (edytowane)

Przecież to o nowych kartach trzeba pisać fikołki i dobrze dobierać modele do testów, by w ogóle wykazać jakikolwiek sens zakupu?
Masz na screenie powyżej.
RTX 3080 10gb,  data premiery 17 września 2020 roku -> 63 fps, 43 1%
RTX 4070Ti 12gb, data premiery 01.2023 -> 66 fps, 43 1%
RTX 5070 12gb, data premiery 05.03.2025 -> 66fps, 40 1%

 

5 lat rozwoju by zaliczyć 5% postępu w avg i 7% regresu w 1% low  gdzie jak wcześniej kupowałeś 3060ti to była jak 2080S a teraz 5070 ledwo goni 80tkę dwie generacje do tyłuxD

 

Kupując teraz 5070TI za ~3700 zmarnowałeś 3 lata, bo mogłeś mieć to samo kupując RTX 4080 w dniu 24 listopada 2022, ale przynajmniej masz GPU "ludzie NIE wiedzą co to za model i na Twoje porównania się nabiorą" xD:D

image.thumb.png.00c2f671ddc6d08f385b2b19eb8d6865.png

 

 

Oceniam twoja cala dzialanosc z pclaba do dzis, a tam robiles jeszcze grubsze mądrkowanie. Kupuj sobie co chesz i za ile chcesz ale nie rob z gowna miodu i nie oszukuj samego siebie oraz co najwazniejsze nas mądrkowaniem.

Ale czego mozna oczekiwwac po gosciu, ktory zlozyl klamota, ktory ogarnia 60fps i mądrkuje z ludzi, kotrzy maja słabsze pcty gdzie rowniez maja 60fps, ale Ty miales za duzo mniejsze pieniadze te 60fps  To jak kupic ferari i miec mozliwosc jechania w 100km/h i Pasata za 10x mniej i tez miec mozliwosc jechania 100km/h, cały Ty .

Edytowane przez wallec
Opublikowano (edytowane)
8 godzin temu, wallec napisał(a):

Przecież to o nowych kartach trzeba pisać fikołki i dobrze dobierać modele do testów, by w ogóle wykazać jakikolwiek sens zakupu?

Przeciez my piszemy o starych kartach i o tobie co piszesz wiec co maja do tego nowe karty ?? 3080 to nie nowa karta jak i 7900XTX.

 

Dla mnie jestes zwyklm debilem do kwadratu i daje cie do ignorowanych, z chorym psychicznie jak widac nie da sie normalnie pogadac EOT

8 godzin temu, wallec napisał(a):

Kupując teraz 5070TI za ~3700 zmarnowałeś 3 lata

To nie ma zadnego znaczenia co ja kupilem i za ile.Ja nie klamie i nie wymyslam bajek wokol sprzetu, ktorego kupje. 

8 godzin temu, wallec napisał(a):

bo mogłeś mieć to samo kupując RTX 4080

Mialem 4080 ;)

Edytowane przez Phoenix.
Opublikowano

Winszuję decyzji zakupowych.
Upgrade z 7800X3D na 9700X

Upgrade z RTX4080 na 5070TI

 

I Ty czepiasz się kogoś, kto sobie kupuje 4 fun bez strat hajsu (uprzedzam, Ty zacząłeś dyskusję o pieniądzach)?

 

Dodaję do ignorowanych, nie będę musiał czytać zrzędzenia i mądrkowania :D

Opublikowano (edytowane)

RTX 3080 12GB i wyższe modele nadal mają rację bytu, w każdym razie wydajnościowo jeszcze dają radę. Minusem na dzień dzisiejszy jest na pewno efektywność energetyczna. Taka 3080TI bierze 350W, gdzie 4070 Super tylko 220W oferując podobne możliwości. 3080TI po mocnym UV, grając w mniej wymagającą grę nadal bierze 200W i wentylator się kręci na minimalnych obrotach. Moim zdaniem to dużo. 3070 potrafi zejść mocno poniżej 200W, tyle że znowu te 8GB Vram to już czasem mało.

Edytowane przez wamak
  • Like 1
Opublikowano

Całą stronę piszesz też o DLSS na 3080, które jest lepsze niż natywna rozdzielczość i w ogóle zaraz się okaże, że lepiej mieć FullHD z DLSS w trybie ultra wydajność niż 1440p natywne. Jak dla mnie to bardzo fajnie, że lubisz takie smaczki technologiczne, też musiałem z nich korzystać na RTX 3070, ale narzekałem na wydajność i byłem zmuszony korzystać z rekompensaty jej braku (boski DLSS).

Przy wyborze kolejnej karty, która jest lepsza od natywnie renderujących badziewi pamiętaj:

Cytat

RTX 5070 = RTX 4090

 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
    • Czy dałoby się w laptopie HP 530 8HTF12864HDY-667E1 Mobile Intel Calistoga-GME i945GME wymienić 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz na 2-rdzeniowy procesor Intel Pentium Dual-Core T4200. Znalazłem zapusty laptop PP33L z popękanym i zepsutym monitorem i uszkodzoną płytą główną i 2-rdzeniowym procesorem Intel Pentium Dual-Core T4200 ale mam sprawny laptop HP 530 ale ma tylko 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz i chciałbym ten procesor wymienić na 2-rdzeniowy. Oryginalnie ten laptop miał 1 GB pamięci RAM i wymieniłem RAM na 4 GB. Jaki system operacyjny najlepiej pasowałby do tego laptopa HP 530. Nie wiem jaki model ma płyta głowna z Laptopa PP33L dlatego że nie dało się tego laptopa uruchomić żeby sprawdzić w BIOSie albo w systemie. Spisałem jakieś liczby z płyty głownej tego laptopa CN-OP-132H-48643-8CB-0220-A00 DP/N OP132H BPB8C0020 002219 DA8B70-LanID GX D-VOA 94V-0 2-1 0842 E0EC 909G8222E M47 REV :  D DA0FM7MB8D0 PWB T012G REV : A00 Weźcie pod uwagę że zero to moze być duża litera o i odwrotnie.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...