Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano
W dniu 15.03.2025 o 12:01, VRman napisał(a):

Apropo Digital Foundry jeszcze

Oni po protu z tego żyją, naganiają bydło i śpiewają tęczowo. Taka specyfika tego kanału.

Ale mam zawsze z nich ubaw jak się rozpływają nad tym wszystkim a na ekranie widać jaka rozpikselowaną kasze :E

Niestety nic z tym nie zrobisz, zobacz co jest w komentarzach. Ludzie już dawno przestali myśleć, czekają aż ktoś zrobi to za nich i wmówi im wszytko, nawet jak czarne jest białe.

  • Like 5
  • Upvote 1
  • Odpowiedzi 2,2 tys.
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Opublikowano

Świetny materiał. Dla mnie historia 3D, bojaźni wejścia w to, z początku tylko co któraś gra, tylko nieliczni potrafili w 3D, itd. to dziś... IMO RT.
Tak, jak dziś gaming nie istnieje bez 3D, tak nie będzie istniał za chwilę bez RT.

  • Like 1
Opublikowano (edytowane)

przejście w "3D" porównywać do RT? 

Bez jaj.

 

 

Nieliczni szli w 3D, bo częstokroć nie miało to po prostu żadnego sensu i oznaczało regres. Tu jest to podobieństwo do RT. W sensie, że zachwyt technologicznych nerdów w studiach developerskich przesłaniał im to co ważne - gameplay i atrakcyjność dla gracza, a nie nerda, który 10 lat wcześniej przestał grać w gry i 3D go w roku 1995 interesowało bardziej z punktu widzenia wspaniałej, niedostępnej wcześniej technologii niż z punktu widzenia gry.

Pchanie takiego Croca w 3D to była jakaś kompletna porażka. Podobnie z Earthworm Jimem i wieloma innymi.

 

- 3D kasowała artyzm i piękno grafy 2D. Akurat wtedy gdy osiągnęliśmy w 2D poziom bliski pełni możliwości. Porównajcie choćby Raymana  do Raymana 2. Jedynka wygląda milion razy lepiej w 2D niż ta bide z nędzą w 3D. I żeby nie było - Raymana 2 przeszedłem pod koniec lat 90tych i sama gierka spoko. Ale wizualnie?

Bez porównania. Dlaczego dziś się mówi, że 25-35 letnie gry 2D się "jakby zestarzały lepiej" od 25-35 letnich gier 3D? Ano dlatego, że teraz je potrafimy ocenić tego chwilowego zachwytu nad technologią, jaka nam wtedy towarzyszyła.

 

Gdy już w latach 80tych i 90tych ludzie robili gry "lecisz i strzelasz wgłąb ekranu" w ten sposób:

 

 

Technologiczne geeki, których zupełnie nie interesowało to, jak fajnie się będzie grało w ich grę, serwowali nam takie coś:

 

 

Albo jeszcze gorzej. Tragicznie brzydka oprawa, w porywach 15fps, a bardzo często i 5-10fps, tragiczna mechanika przez idącą za tymi 5-15fps responsywnością. 

 

Ja pamiętam jak w 1990-91 się grało w pierwsze wektorówki. Samo to, że było "3D" nas jarało. Oczywiście. Miało to swój urok. Ale obiektywnie? To była pomyłka. 

3D na komputerach i konsolach z 1985-1992 kompletnie nie powinno mieć miejsca. Ale istniało. I psuło gry, bo mimo, że moja 386 przerzucała polygony znacznie sprawniej niż Amiga 500, to jednak dziwnym przypadkiem grało się znacznie lepiej w Lotusa na A500 niż w Test Drive III na moim PC. Na Amidze też się przeszło Shermana M4, bo był w "3D" ale jakoś to nie w niego graliśmy wielokrotnie. Z jakiegoś powodu woleliśmy jechać czołgiem lub do nich strzelać w grach typu SWIV czy Silk Worm.

Nawet na PSX (dla niekumatych: Playstation 1) w wielu grach był niedostatecznie wydajny, aby te gry miały w tym 3D sens. 

A pamiętacie Syndicate Wars?

 

To dwójka, która na sprzęcie 2-4x szybszym od mojej 386, wyglądała i chodziła gorzej niż jedynka u mnie. Tej grze tak potrzebne było 3D jak moje łysej głowie grzebień. 

Jednak poszli w to, bo 3D było trendy (jak obecnie RT) i przede wszystkim dlatego, że zadecydowała osoba, którą bardziej jarała technologia sama w sobie, a granie w gry już sporo mniej. (jak obecnie z RT, niestety)

 

 

 

Już w 1995r. czytałem, że z 2D nie da się już nic wycisnąć, że to koniec. I tak samo pierdzielą dziś idioci z Digital Foundry odnośnie rasteru. Tymczasem dopiero na Dreamcasta pojawiły się gry 2D w 60fps z oprawą w wysokiej rozdzielczości, co nadal dawało możliwości, jakich w 1995r. nie było. Tamte 5 lat  postępu to dziś 20-30 lat, bo postęp niestety wyhamował. Za 30 lat nadal będą gry w rasterze, które zmielą te gry w rasterze, które mamy dzisiaj. Weźmy takie gry jak Guilty Gear X na DC lub Alien Hominid na Xboxa - w sensie rozdziałki. A w sensie bogactwa detali weźmy choćby gry typu Earthworm Jim odpalany na TV CRT. 

Jim wyszedł w roku 1996r. A według "ekspertów" w 1995r. miał być przecież koniec 2D i brak możliwości dalszego rozwoju.

 

Albo weźmy dzisiejsze Rayman Legends czy Ori and the Blind Forest. Te gry są technicznie w 3D, ale można sobie je łatwo wyobrazić w 2D. Jakbyśmy te gry pokazali w 1995r. tym co się zachłysnęli 3D i wypisywali w czasopismach growych, że już nigdy w grę 2D nie zagrają, bo to przeszłość i przyszłość należy do 3D, to by się im zrobiło łyso jak mi po czterdziestce w sensie dosłownym ;)

 

Dziś dla RT musimy pożegnać:

 

- HFR i jego zalety. W tym te jakie idą za 480fps+, czyli żyletą w ruchu mimo trybu sample-and-hold

 

- responsywnością, bo często trzeba grać w 30-40fps, nawet na highendowym PC w 1080p

 

- wymuszanie FG i artefaktów oraz dalsze pogorszenie responsywności

 

- postęp w responsywności, w sensie, że 20 lat temu nie dałoby się zrobić np. ścigałki z myślą o takiej responsywności jaką da się uzyskać np. robiąc grę tylko i wyłącznie pod PC z 9800x3d + 5090, celując w stabilne jak skała 300fps. Jak ktoś gra to mu nie przeszkodzi, bo nauczy się sterować z tym lekkim "wyprzedzeniem", ale nie-gracze którzy łapią za kółko w  grach wyścigowych najpierw się wesoło obijają od bandy do bandy, bo input lag niestety istnieje i nie są do niego przyzwyczajeni. To tylko jedna z rzeczy, gdzie nowa jakość idąca za HFR by pozwoliła na postęp i poprawę.

 

- wysoka rozdzielczość - PS5 i gry w 800p w 2025 vs. PS4 i Ridge Racer w 1080p 60fps. A, sorry, to nie PS4. To było PS3. :]

 

- atrakcyjność stylistyki nierealistycznej. Realizm ma swoje plusy, oczywiście, ale jego brak też je ma. To będzie trudno zrozumieć osobom, które tego nie lubią, ale wiele osób, w tym ja, woli brak realizmu, np. w efektach "magii" czy "elektryczności" wokół postaci czy mieczy. W grze oświetlonej realistycznie, taki efekt wygląda do dupy w słoneczny dzień, bo tak byśmy to widzieli w realu. Tymczasem przy grze w rasterze bez realistycznego światła, te błyskawice i wiązanki "energii" są pięknie nasycone, pełne kontrastu i.. po prostu ładniejsze niż realistyczna wersja. Tutaj też wchodzi oryginalność i różnorodność, posiadanie własnego stylu wizualnego, duszy. Wiem co potrafią shadery, rozumiem że można zrobić grę stylizowaną na cell-shading w Unreal Engine 5, ale nawet zwolennicy teorii, że PT to bóg, muszą przyznać, że im realistyczniej, tym gry wyglądają podobniej. A gdy osiągniemy realizm i wszędzie będzie tak samo, to po prostu nam się znudzi. Szczególnie, że nierealizm potrafi być atrakcyjniejszy, mieć nienaturalnie piękne nasycenie kolorów czy całe światy wyglądają inaczej. Ja do dziś czuję atmosferę gry MDK bardziej niż w nowych grach przedstawiających inny, nieznany świat/planety. Podobnie nie wyobrażam sobie gier typu REZ gdyby tam było realistyczne oświetlenie i przyblakłe kolory. Nie wyglądałoby to jak wnętrze komputera, nie dawałoby uczucia bycia w jakimś innym świecie.  Podobnie Far Cry i jego pierwsza plansza po wyjściu z jaskini. Do dziś to najfajniej wyglądająca rajska wyspa jaką widziałem. Mnóstwo emulatorów starych konsol dostaje mody do ray-tracingu i... traci cały swój unikalny klimat. I jeszcze się techgeeki brandzlują do tego (np. Zelda czy Mario na Digital Foundry - moim zdaniem to wygląda tragicznie źle, kompletnie do bani i zabija całą duszę jaką miały oryginalne wizualia. Nawet Halo - wolę wygląd starych części.  Jest mowa o przyszłości i technologii innych ras, a w nowym Halo mi serwują brud, rdzę i rysy na pancerzu, a efekty energii wyglądają jakby ktoś na dworzu zapałką pierda podpalił, a nie jakby to była technologia obcych. Chyba można założyć, że dali radę opracować taką farbę, która nie schodzi. ;) Do tego oczywiście realistyczny kurz i wszystko brzydkie. Co ciekawe w tego typu grach czasami zostawiają stare oświetlenie, o czym oczywiście nie zapominają potem pomarudzić Alexy z Digital Foundry. A czemu tak zostało w tym najnowszym Halo albo innej grze o podobnej mechanice i ustawieniu kamery? (już nie pamiętam teraz, chodzi o grę sprzed 2-5 lat) Ano dlatego, że postacie które są wyłączone spod oświetlenia, są podświetlone zawsze, więc "świecą" nawet jak wpadną w cień. I tu przechodzimy do

 

- wpływ na gameplay. Te świecące postacie po prostu się przydają jeśli ideą gry jest celowanie, a nie szukanie przeciwników i chowanie się przed nimi. I przy realistycznej grafice odechciewa mi się grać w gry online, bo po prostu gówno widać. Wolę stare gry, gdzie widać wszystko fajnie. Camperom się nie podoba, ale przez to jest ich w grze mniej, co podnosi atrakcyjność gry dla wszystkich pozostałych, a szczególnie tym, którzy preferują czysty fun, a nie spuszczanie się nad wynikiem meczu - czyli np. "styl Rambo" i biegnę sobie postrzelać do kolegów, bo gramy z kilkoma, a wszyscy żłopią piwko i nastawiają się na śmiech i dobrą zabawę, a nie na to, że co chwilę będą musieć nic nie robić, wyczekując, albo ginąć od kuli wystrzelonej 3km dalej przez jakiegoś campera. 

 

 

 

A poza tym - koszt. Czemu dziś 5090 kosztuje 3500€? Bo ludzie kupują do AI. Jakby te GPU wykastrować z tego, co jest potrzebne do realistycznego oświetlenia, to ta sama wydajność wypełniania pikseli, geometrii i tekstur, mogłaby kosztować 500€, a nie 3500€. Bo nie byłaby taka karta atrakcyjna dla ludzi szukających sprzętu do obliczeń/AI/ray-tracingu. 

 

 

 

Przez tą durną pogoń za realizmem, karta mogąca kosztować 500€  dziś kosztuje 1500€. Po czym włączają nam AI i każą klaskać, że dzięki temu na tej karcie za 500€ uzyskamy wydajność jak na karcie za 1000€. 

 

AI i RT to nie jest żadna przyszłość. To jest RAK toczący branżę. To są technologie wspaniałe dla innych branż jak np. rendering i modelowanie 3D, tworzenie filmów ala te Pixara. AI też się przyda w wielu miejscach. Ale w grach lista zalet pozostanie ograniczona, przy ogromnej liście wad i kosztów (nie tylko "kosztów" w sensie dosłownym)

 

Niestety jest gorzej. W 1990-92 sprzęt kompletnie się do 3D nie nadawał, ale wystarczyły 4 lata do momentu, gdzie coś się już na tym zrobić dało, a zaledwie 8-10 lat do momentu gdzie już to miało sens w pełni (Playstation 2)

Tymczasem z RT/PT jest tak, że w 2018 wymyśliłem, żeby 2080ti nazywać takim "S3 Virge" w ray-tracingu. 

Falstart. 

Miałem rację, że falstart, ale nie miałem racji, że tamto to był S3 Virge. Nawet 4090tka w PT to nadal poziom S3 Virge'a. A 5090tce nadal daleeeko do tego rozsądnego minimum. Co gorsza, postęp z RT/PT zamiast przyspieszać, wydaje się zwalniać, a kolejne cud technologie opierają się na... eliminowanie detali. I fajnie, po co marnować moc na te elementy, których nie widać. Tylko że jak sobie z tego zdamy sprawę, to prawdziwego postępu w wydajności.. praktycznie nie ma od wielu lat. 

To znaczy, że jeśli chodzi o PT mainstreamowy gaming czyli konsole i GPU za poniżej 1000€ pozostaną w tym etapie S3 Virge'a na dwie dekady. Tymczasem od S3 Virge'a do 3dfx VooDoo 4MB minęły zaledwie 2 lata. Nawet mniej. Postęp galopował. Zaraz po Virge'u był Matrox Mistique, który pozwalał na pełną płynność w 640x480 w kilku grach z akceleracją, oferując niespotykane wcześniej efekty jak piękne przezroczyste obłoki dymu w ścigałce (nie pamiętam już tytułu. Destruction Derby 2?) A dosłownie kilka miesięcy później człowiek już czytał recenzję w Secret Service Diamonda Monster 3D (3dfx)

 

Wad przejścia w 3D było sporo, ale nie trwało to długo.

A teraz będziemy się kisić w rozmytym, upscallowanym szajsie przez co najmniej 15, a raczej 20-30 lat od momentu ogłoszenia tej gówno-rewolucji w 2018r. 

 

Na S3 Virge'u ograłem Plane Crazy w 400x300 (16bit color, 60fps, rozmycie tekstur, FAJNIE!) i trochę pograłem w MDK w 320x240 (w tej wymuszonej rozdziałce przynajmniej dało się jakoś pograć mogąc cieszyć się nowoczesnym rozmyciem tekstur).

Dałem za tą kartę 400zł. W tym połowa albo więcej była za funkcjonalność 2D, więc sam koszt nowego ("akceleracji 3D, która była "deceleracją";)) to 100-150zł.

Dziś dokładnie tak samo odbierałbym granie w Indianę Jonesa czy Cyberpunka 2077 z PT na 5090tce. Za wolno, żeby pograć (bo stałego 120fps bez FG nie ogarnia nawet) ale akurat, żeby sobie pograć i pooglądać nową technologię. Z tym, że zamiast 150zł (plus inflacja) dziś krzyczą 10 000zł. A przydatność podobnie mizerna lub prawie żadna, z kilkoma wyjątkami. Na S3 wymieniłem dwie gry. Jeszcze w Tomb Raiderze chyba to uruchomiłem. Nie pamiętam. A.. i w Jedi Knight. I Terminal Velocity chyba nawet w 640x480 na tym na Virge'u chodziło. Nie przypomina Wam to czegoś? No przecież dokładnie tyle jest gier z RT/PT, wartych obejrzenia. Indiana, Cyberpunk, może ze 2-3 jeszcze na siłę.. i to w sumie tyle. W reszcie żadnego szału to nie robi, gry nie odmienia. 

 

 

Edytowane przez VRman
Opublikowano (edytowane)

Wyprodukowałeś taką ścianę tekstu, że zostawię to sobie na wieczór.
Nie piszę o gustach. Piszę o faktach. 3D było (Twoim zdaniem) "błędem" i regresem, a dziś stoi nim cały gaming.
Podobnie, jak wielu mówi o RT. Tylko to chciałem stwierdzić.

Edytowane przez JeRRyF3D
Opublikowano

Ściana tekstu, która nie ma większego sensu z perspektywy coraz większego wykorzystania jednostek liczących na macierzach również w grach.

Nie będą pojawiać się specjalnie karty dla dziadków, które są pocięte z możliwości "AI".

 

  • Like 1
Opublikowano (edytowane)

Jak "dla dziadków"?

Serio wolisz 720p czy 1080p upscallowane cudnym AI do 4K zamiast prawdziwego 4K?

 

Że się takie karty nie pojawią, to nie musisz pisać, Kapitanie Obvious. Przecież wiadomo, że firmy określające się jako "AI company" nie zrobią kart tylko dla tak słabego dla nich powodu jak "to by wyszło graczom i branży gier na dobre".

 

4/5 ceny 5090tki wynika z tego, że jest tam AI. Bo po pierwsze za tyle kupią tą kartę nie-gracze, a po drugie koszty R&D to w 90+% właśnie to AI w przypadku Blackwella.

Gdy zwolennicy AI się cieszą, że NV dała model Transformer który dał poprawę za darmo, w tym samym czasie te AI w sumie niszczy kompletnie dostępność kart i winduje ceny o sporo więcej niż je obniża ta "gratisowa wydajność" jaką dał DLSS4

 

 

Dla mnie jedyny sens w zakupie takiej karty tylko do gier, to VR, a tam.. o kant kuli mogę sobie te całe ej-aje rozbić, chyba że jestem fanem symulatorów lotu i opinii, że 36fps to w sumie jest super, a TAA jest ideałem ostrości. 

Dosłownie ZERO korzyści z PT i AI, a VR to jest coś, gdzie 5090tka jest sporo za wolna. A potem wychodzi szycha w korpo i mówi "nie wiemy czemu, ale VR nie zdobyło popularności". Bo na karcie za 5000 możesz sobie pograć z pikselozą ala Playstation 2 ogrywane na 32" CRT TV z odległości 1.5m.  ;)

 

Nie dla dziadków. Dla fanów VR, a dla posiadaczy OLEDów (do HFR). Dla graczy, którzy by chcieli za 5000zł kupować wydajną kartę a nie odpowiednik 1060tki.

 

W HFR te AI w ogóle się do niczego nie nadaje gdy klatka następuje 2ms po poprzedniej. Nie da rady tego policzyć odpowiednio szybko, co pokazał nawet filmik demonstrujący te badziewne "neural texture compression" gdzie spadki przy 30fps może i są akceptowalne, ale przy 400fps sam ten algorytm AI zjada większą część wydajności. I tego się nie przeskoczy.

Dziś mamy AI uspcallingTo co dziś się liczy 5ms nie da się policzyć w 0,5ms, a nawet te 0,5ms oznacza przy 500fps koszt aż 25% wydajności. A to tylko upscalling. Obok już kiełkują AI wspomagacze dla PT, gdzie cienie mają 0,5fps (zmieniają się po 2 sekundach ;)) i zaraz będą następne "cudowne technologie", które np. kosztem 40% wydajności w 240fps, pozwolą zaoszczędzić wydawcy gry kilka dolarów na hostingu, bo mniej danych, co oczywiście nie wpłynie w żadnym wypadku na obniżenie ceny gry dla gracza.

 

 

 

AI i PT jest nam wciskane czy nam się podoba czy nie. I na pewno zostanie wciśnięte.

Ale nie udawajmy, że to dla naszego dobra, że to w sumie lepiej, albo że się inaczej nie da. 

Da się, ale nikt tego nie zrobi, bo NV zarabia kokosy na AI, a AMD nie rozumie, że to otworzyło dla niej niszę, która mogłaby być zabezpieczeniem na wypadek jakby przyszłość przyniosła porażkę w konkurowaniu na polu AI z większymi firmami. A spora szansa, że poniosą, bo NV i inne firmy mają na to znacznie większe budżety. Tylko, że już mija 5 lat jak chore ceny GPU i inne niedogodności wybijają graczy PC i za następne 5 lat będzie zniszczona już "subkultura" pecetowców. Młodzi nie będą nawet wiedzieć co oznacza granie PC, jakie daje zalety i po co w ogóle mieliby kupować wydajnego desktopa do gier. I jak w 2035r. AMD splajtuje lub zostanie sprzedane za grosze jakiejś chińskiej korporacji, to będą mogli mieć pretensje tylko do siebie, że woleli gołębia na dachu zamiast wróbla w garści. 
A gracze.. 

a gracze będą sobie grać w gry strumieniowane z serwerów zwanych chmurą. Po wejściu w chmurę z wódki w łaźni na pół godziny, może nawet nie będzie przeszkadzać wtedy kompresja i input lag. 

Ale przynajmniej będzie nowocześnie i postępowo. z PT i z AI.

Edytowane przez VRman
Opublikowano
5 minut temu, VRman napisał(a):

Jak "dla dziadków"?

Serio wolisz 720p czy 1080p upscallowane cudnym AI do 4K zamiast prawdziwego 4K?

A Ty masz jakaś schizę (?) czy realne potrzeby? Powtórzę się po raz setny. Nie oceniam technologii i nie chcę wiedzieć, "jak to się dzieje, że mam to, co mam, na ekranie". Załóżmy, że jestem IT ignorantem. Jeżeli efekt końcowy jest OK, dobry, zadowalający, satysfakcjonujący, to mogą mi to upskalowac i z 320p. Nie interwiu mnie to. Może nv chomiki w kołowrotki zamykać, które mi obraz interpolują. Byle to robiły dobrze.

 

 

10 minut temu, VRman napisał(a):

Da się, ale nikt tego nie zrobi, bo NV zarabia kokosy na AI, a AMD nie rozumie, że to otworzyło dla niej niszę,

Napisz do tych baranów z AMD. Nv łupie kasę, AMD nie rozumie, świat się kręci, karawana jedzie dalej.
Nie uważasz, że masz trochę mentorsko / proporcki styl wypowiedzi / przedstawiania myśli?
Cały świat jest głupi. I biznesowy, i gamerski, a Ty jeden wiesz, w którym kierunku należy iść.

 

15 minut temu, VRman napisał(a):

za następne 5 lat będzie zniszczona już "subkultura" pecetowców. Młodzi nie będą nawet wiedzieć co oznacza granie PC, jakie daje zalety i po co w ogóle mieliby kupować wydajnego desktopa do gier.

Szczerze. To też zupełnie normalne. Jak dziewczyny nie potrafią dziś ukleić pierogów (bo i po co to umieć?), tak i ta kumata młodzież - śmiem twierdzić - to dzieciaki właśnie poukładanych, z nabitym portfelem boomerów, z wypasionymi kompami, których gówniaki jeszcze podglądają w domu, któremu to stary złoży kompa ze swoich poprzednich zestawów, itd. Klasyczny smark ma konsolę - nota bene - przez tatę kupioną, a świat goowniaków to fony i mobilki. Nie ma dla nas przyszłości. ;)

  • Like 1
Opublikowano (edytowane)

Styl wypowiedzi może mam, choć tego nie wiem. Nie widzę niczego mentorskiego lub "prorockiego" (mówi się proroczego) w tym co napisałem.

 

Dobra. Napiszę specjalnie mentorski tonem teraz. Ten jeden akapit i pierwszy raz w życiu świadomie, z premedytacją:

Tego typu teksty

30 minut temu, JeRRyF3D napisał(a):

A Ty masz jakaś schizę (?) czy realne potrzeby?

to sobie daruj. Za to może spójrz na siebie i zapytaj czy nie masz problemu czasem z przyswajaniem opinii drastycznie innych od swojej własnej na dany temat.

 

 

30 minut temu, JeRRyF3D napisał(a):

Cały świat jest głupi. I biznesowy, i gamerski, a Ty jeden wiesz, w którym kierunku należy iść.

Takie chamskie wykręcenie czyjegoś punktu widzenia i opinii jest dość często spotykane, ale nie bardzo ma związek z tym co ja napisałem. Jeśli nie przeszkadza dłuższy akapit to chętnie wyjaśnię czemu:

 

Nie jeden ja wiem. Wiele osób wie. W tym np. pracownicy studia Asobo, które wydało jedną z niewielu gier na PS5, gdzie widać że priorytetem była zabawa u gracza a nie brandzlowanie się programisty/grafika, który uznaje granie w zręcznościowe gierki za zabawę dla dzieciarni, a on to poważny gracz i może conajwyżej pograć w coś wymagające intensywnego móżdżenia, albo filmo-gry gdzie jest wciągająca i wzbudzająca silne emocje fabuła (ci ludzie za dekadę będą przekonywać, że cloud gaming to przyszłość, że ma masę zalet i że jak jesteś przeciw to jesteś dziwny i się wymądrzasz, bo przecież panowie w korpo wiedzą lepiej.

 

Nie wiedzą. Zobacz na reklamę nowego Jaguara albo Budlighta. Zobacz na wyniki finansowe marek typu Star Wars. Tysiące ludzi wiedzą lepiej, ale nikt w corpo ich nie słucha. Dlaczego? Bo w korpo są debile? Nie. Bo nie rozumieją targetu, dla którego oferują swoje produkty, lub mają inne priorytety. Tak jak Meta mogąca rozwinąć porządnie gaming VR, ale uznała, że lepiej się skupić na "fashion & lifestyle". Dlaczego? Bo są tacy głupi? Znowu nie. Bo wyciągnęli błędne wnioski z błędnie zestawionych danych, bo im zabrakło zrozumienia tego co sprawia, że ludzie chcą grać w gry. Ich te rozumienie interesuje tylko w tym sensie, żeby przyciągnąć gracza do gry, która będzie z niego doiła na mikrotransakcjach. 

I tutaj mamy Microsoft i Sony. W PS3/PS4 Sony inwestowało w gry takie, które były robione z myślą o graczach core. Gracz core rozumiał, że Playstastion da więcej fajnych ex'ów. I dlatego Xbox przegrał walkę z PS3 i z PS4. A teraz Sony dołączyło w swoim podejściu do MSu i przestawiło wajchę w 100% na "robimy dla inwestorów, a nie dla graczy" i exów "nie ma", za to są ogromne wydatki (i także wtopy finansowe) gier GAS czyli "live service". I znowu - jakbyś tak przerzucił analogię, to byś napisał, że przecież tam pracują mądrzy ludzie. Na pewno wiedzą lepiej.

 

A jednak.. ci durni gracze, szczególnie ci z popularnymi kanałami na YT potrafią na 2 lata przed premierą gry powiedzieć, że "ta gra/film/serial będzie porażką". 

Jakoś wiedzą.

To nie jest wiedza dla geniuszy z IQ 200 czy ile tam ma geniusz. To po prostu wiedza kogoś kto jest fanem danej marki od lat i wie za co on i reszta fanbase'u daną markę polubili i byli jej wierni przez dekady. Jeśli zamiast George'a Lucasa dasz do szefowania SW jakąś osobę, dla której SW to filmik dla dzieciarni, gdzie wystarczy dać jakieś machanie świecącymi mieczykami i dobre efekty specjalne aby zarobić miliardy, to się to nie uda.

 

 

A dalej dochodzimy do sytuacji w AMD. Tutaj jest pełna mobilizacja i nakierowanie się na AI, bo widzą ile kasy trzepie Nvidia. Nawet jakby AMD wiedziało świetnie co należy robić, to i tak by obecnie tego nie zrobili, bo każdy programista oddelegowany do sterowników czy technologi tylko do gier, to wielki ból i "a czemu Franek nad AI nie pracuje?!

Obecnie nie mamy nawet projektów GPU dla graczy. Blackwell to policzek w twarz graczy. Zero zmian, tylko ej aj. Ale za to wyższe ceny.

 

Kończąc - nie trzeba być geniuszem, żeby zauważyć, że subkultura graczy PC rozkwitała gdy PC był atrakcyjny i oferował wiele za rozsądne pieniądze. Może i 40latkowie grający na PC mają kasę na rtxa 5080 (na 5090 nie oszukujmy się, tylko ułamek) ale co jak oni wymrą? Gdzie następne pokolenia? Ano nigdzie, bo ci się wychowają na konsoli+cloud gamingu. 

Jak już raz daną grupę ludzi się straci, to się tego nie da od tak odtworzyć. Nawet jakby za 4 lata nagle karty typu 5090 kosztowały 200$. I tak w ciągu roku się nie odbuduje tego co rujnuje obecna, chora sytuacja.


 

Edytowane przez VRman
Opublikowano

Myślisz, że jak wszystko padnie, to się odrodzi coś zdrowego i fajnego.

Nie podzielam optymizmu.

Jak pogadasz z ludźmi około 20tki, to większość gra tylko w gry, gdzie można rywalizować z prawdziwymi ludźmi, a gry single player ich nie interesują. Ewentualnie filmo-gry, jeśli są kinomaniakami.

Widać też to, co mówili bijący na alarm dziennikarze, że młodym graczom lasuje się mózg lootboxami i potem w grach nieświadomie szukają tego samego co hazardziści. Jak tego nie dostają - to nie chcą grać dalej i porzucają grę po chwili grania. 

 

Z czasem zabraknie paliwa w postaci grupy entuzjastów. Jeśli gaming się zeszmaci i straci atrakcyjność, nie będzie bazy potencjalnych klientów, którzy mogliby kupić gry dobre. Tak jak obecnie jest problem z prawie zerową podażą dobrych gier na VR. 

No chyba, że planujesz być graczem jeszcze 30 lat. Wtedy np. dno za 5-10 lat i odrodzenie przez następne 20. OK, to jest możliwe, choć... znowu. Może zabraknąć trendów. Kiedyś jeden pecetowy gracz-entuzjasta konwertował średnio ze 3-5 znajomych na graczy entuzjastów.

 

Tak jak dziś brakuje wielu gatunków muzyki. Ludzie którzy byli najlepsi wyłonili się z grona fascynatów, których kilkadziesiąt lat temu było pełno. A teraz ich zabrakło i w wielu gatunkach od 20 lat masz prawie zero piosenek/utworów na poziomie geniuszu (9-10/10) Podobnie z filmami z kilku gatunków, które obecnie są praktycznie wymarłe, a które były jednymi z najpopularniejszych jeszcze 30 lat temu. I wieloma gatunkami gier. 

 

Fajnie byłoby mieć nadzieję, że historia powtórzy wydarzenia z lat 80tych i zarycie branży o dno (słynna gra E.T.) a po nim odrodzenie i złotą erę. Ale chyba to tylko nasze myślenie życzeniowe. 

 

 

PS. Kilkoma pozycjami na rok? To i tak masz super. Ja od 2012 nie znajduję prawie nic. A w ostatnich 6 latach to średnio gdzieś około pół gry na rok. A takich, żeby było "wow! ale super! Muszę w to zagrać! Nie ma na mój sprzęt? No to nie wiem jak, ale za miesiąc kupuję ten sprzęt, na którym to jest, bo nie wytrzymam!" to od dekady zero (poza grami na VR).

 

Niby widać nadzieję idącą z Azji, ale Chińczycy póki co nie potrafią wyjść poza generyczne kalki i średniaki (strasznie mnie Wukong zawiódł, pierwsza zapowiedź dawała nadzieję na coś naprawdę super, a wyszło takie 6/10 (w skali z lat 90tych, nie współczesno-IGNowskiej gdzie średniak to 7.5/10 ;) ) i inne gry też opierają się na kopiowaniu tego, co już było. Japonia czasem da graczom coś wybitnego, ale niestety ich gry mają mocno specyficzny styl. I jak rozumiem, że innym się ten styl podoba (mi nie) tak nie można mieć nadziei, że się nie znudzi. Kiedyś złotą erą tworzyły trzy różne szkoły robienia gier, które się wzajemnie uzupełniały. Najlepszy gry z Europy miały cechy niedostępne w grach z Japonii czy USA i tak samo było z grami z USA czy Japonii. 

Dziś się robi podział na western game dev, z wszelkimi DEIami i podejściem korporacyjnym, oraz chińsko-japoński, w którym obecnie większość graczy odnajduje to, czego im brakuje w gamedevie zachodnim. 

Spodziewam się, o ile zachodni game dev nie wróci do wysokiej jakości, to po 5-10 latach to co będzie szło z Chin i Japonii się przeje nawet fanom, bo ile razy można się jarać kolejną grą o samurajach albo w stylistyce anime.

I wtedy co? 

 

Jedyne na co realnie można liczyć i to, gdzie ja sam się przyznam od razu, że pewnie wchodzę w zbytni optymizm - to nadzieja na to, że pojawi się moda na powrót do korzeni, na skupianiu się na "fun factor" na graniu w gry, a nie ich oglądaniu i już kompletnie hurraoptymistyczna nadzieja, że nastąpi odwrót od nudnego stylu wizualiów opartego na realistycznym oświetleniu.

Oby ostatni Astrobot czy Doom Eternal i jego klony, które zdają się wskrzeszać zapomniany gatunek "szybkich, nierealistycznych shooterów", były początkiem a nie ostatkami. O, jeszcze Baldura 3 możnaby dodać. Też fajnie pokazał, że korpo zakopało gatunek kompletnie błędnie, bo jednak ludzie chcą takich gier. 

 

Nie wiadomo też co przyniesie rewolucja AI. Jeśli za 5-10 lat każdy będzie mógł tworzyć gry po prostu pisząc/mówiąc do AI co by chciał, to może to wyjść i na dobre i na złe branży.

 

 

 

 

 

 Sprawdzam od kilku dni kurs akcji Ubi.  Niestety kurs odbił od 12 i wisi na 13tu. Szkoda. Mimo że mam kumpla, który tam pracuje i życzę mu wszystkiego najlepszego, to jednak wolałbym żeby Ubi splajtowało. Mogłoby to bardzo uzdrowić branżę dając innym sygnał np. do zwolnienia się z korpo i pracy w mniejszym studiu, ale tworzonym przez najlepszych w swoim fachu.

Innym korpo robiącym gry pod inwestorów a nie pod graczy życzę tego samego. Ale korpokrawaciarze to są karaluchy. Ciężko się ich pozbyć. ;)

 

 

 

Opublikowano

Jakiś spory krach jest potrzebny w branży rozrywkowej a szczególnie gier, co do tego trudno mieć wątpliwości. Ludzie w krajach takich jak US kompletnie stracili szacunek do pieniądza i poczucie jego wartości co doprowadziło do rozregulowania dosłownie całego rynku, powstał swoisty słoń na glinianych nogach.

 

1 godzinę temu, galakty napisał(a):

a ceny sprzętu zabijają. 

Co proszę? Ja obecnie w samym W3 mam ponad 100h na koncie a PS5 nawet obecnie mimo ogromnej inflacji w ostatnich kosztuje mniej niż 2400 zł. Większe kwoty to się na kafejki internetowe wydawało 25 lat temu...

Opublikowano
7 minut temu, Kris194 napisał(a):

Jakiś spory krach jest potrzebny w branży rozrywkowej a szczególnie gier, co do tego trudno mieć wątpliwości. Ludzie w krajach takich jak US kompletnie stracili szacunek do pieniądza i poczucie jego wartości co doprowadziło do rozregulowania dosłownie całego rynku, powstał swoisty słoń na glinianych nogach.

 

Co proszę? Ja obecnie w samym W3 mam ponad 100h na koncie a PS5 nawet obecnie mimo ogromnej inflacji w ostatnich kosztuje mniej niż 2400 zł. Większe kwoty to się na kafejki internetowe wydawało 25 lat temu...

Byc może, ale na PS5 wszystkiego nie zrobisz nie odpalisz itp. Ostatnio patrzyłem sobie demko titanica tu jest do sciagniecia https://www.titanichg.com/project-401 na PC sobie sciagasz i ogladasz cały statek na max detalach w 4k, a na ps5 takiej opcji nie masz. PS5 tak samo opiera sie o model zakupowy i to bardziej niz PC, tam zeby pograc sobie online(jezeli to nie jest wymagane do działania gry w ogole tjk np diablo4, czyli jezeli gra nie ma typowego modu singleplayer) to musisz bulic abonament. Wiec nawet jak PS5 jest dobrze wycenione ponizej 2000zl w zasadzie, to i tak na przestrzeni 4-5 lat zapłacisz dodatkowo 1500zl

  • Like 1
Opublikowano (edytowane)

No i sporo fajnych gier po prostu na PS5 nie ma i nie mają sensu. Squada nie ma, DCSa nie ma, sporo sandboxów i indyków nie ma, daj pan spokój. Dobre do FIFA i Forza ;) 

 

O modach nie będę mówił, nie kopie się leżącego.

Edytowane przez galakty
Opublikowano (edytowane)

PS5 (ogólnie konsole) dobrze skalują obraz z np. 1440p/1200p/1600p na TV4k.
Jeżeli puszczę grę np. GOW Ragnarok z laptopa (natywna rozdzielczość gry 2560x1600) HDMI na TV, to jakość obrazu będzie porównywalna do tej z PS5? Czy jakość skalowania gry laptop -> TV będzie wyglądać gorzej?

Często gęsto, piszą gracze że grają na TV, obrazem puszczonym kablem z PC - ale jak to jest z tym skalowaniem obrazu; jego jakością na TV? w porównaniu do konsoli?

Edytowane przez kanon7

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zacznij od formata i zainstalowania podstawowych rzeczy, msi center i tam tylko sterowniki do chpisetu i nic więcej, stery do grafy trochę starsze i testuj. Żadnych light, razerów i co przyjdzie Ci jeszcze do głowy, tym bardziej programów monitorujących, bo to też potrafi działać negatywnie na gry jak i na psychikę  .W obecnym stanie możesz jeszcze wrzucić ss z latencymoon. Czy w ww grach różnicę robią ustawienia graficzne? Tzn. czy jak dasz wszystko na low to jest taki sam efekt jak na Twoich ustawieniach? Czy jak ograniczysz liczę klatek do 60fps, to też jest problem? Ja wiem że w grach online trzeba mieć więcej, ale z ciekawości możesz zobaczyć. Oczywiście blokujesz klatki o te 3 mniej, niż masz odświeżanie monitora? A tak na marginesie możesz poczytać  https://forum.ithardware.pl/topic/8975-stuttering-latencymon/ https://forum.ithardware.pl/topic/8444-stuttering-w-grach/#comments tylko tutaj są procki od AMD czy ludzie sobie z tym poradzili to nie wiem, trzeba się zagłębić, aaa jeszcze mamy jednego kolegę którego stuttery już długo męczą i sobie z tym nie poradził, też na AMD.      
    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...