Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano
@Wercyngoteryx Proszę bardzo, oto wasz nowy, forumowy bohater — Moderato-Man! 🛡️⌨️
Gotowy zaprowadzić pokój, rozsądek i konstruktywną atmosferę w gorących, politycznych dyskusjach na ithardware.pl:

![Moderato-Man](ITHardwareGPT

Mam nadzieję, że ten spokojny obrońca kultury dyskusji przypadnie wam do gustu! 😄

gpt-4.5-preview-2025-02-27

Opublikowano

Nie będą, tylko ludzie spoza branży nie rozumieją, na czym dzisiaj polega ta praca, bo nie na pisaniu kodu. A nawet jeśli to bynajmniej nie ono jest obecnie w cenie. Do tego takie artykuły często są nic niewarte, bo skąd taki redaktor ma wiedzieć, jak wygląda duże IT?

Opublikowano

obecne modele AI są jeszcze bardzo prymitywne, w przyszłosci sam kod bedzie generowany wyłącznie przez AI, ludzie nie bedą sie tym zajmować, ale bedą podśredniczyc, czyli bedzie stanowisko operatora który bedzie po prostu dostarczał dane do zakodowania i mówił kąkuterowi co ma zrobic (ale już bez kodowania)

Opublikowano

Jeszcze sporo czasu minie.

Skoro tyle lat kompilatory nie optymalizują idealnie i tak trzeba dobrze złożyć kod i ułożyć dane, tak SI będzie robiła koślawy kod.

 

Ale nie powiem, u mnie młodzi się jarają tematem, że w stosunkowo szybkim czasie da się zrobić narzędzia do analizy danych.

Powoli czuję, że się starzeję i jak nie zacznę się też bawić, to pociąg odjedzie.

Opublikowano

To będzie długi proces stopniowego redukowania ludzi, jutro wszyscy nie wylecimy ;) A spora część zostanie dalej tylko będzie więcej pracy z promptami.

 

Dla małych projektów mieszczących się w kontekście obecnych modeli to już dzisiaj jest gamechanger, możesz sobie wygenerować dowolne skrypty w dowolnym języku przez kilka promptów.

Do ITHGPT mogę teraz dodać dowolną funkcjonalność bo to i tak sprowadza się do kilku promptów

Opublikowano
2 godziny temu, Oldman napisał(a):

obecne modele AI są jeszcze bardzo prymitywne, w przyszłosci sam kod bedzie generowany wyłącznie przez AI, ludzie nie bedą sie tym zajmować, ale bedą podśredniczyc, czyli bedzie stanowisko operatora który bedzie po prostu dostarczał dane do zakodowania i mówił kąkuterowi co ma zrobic (ale już bez kodowania)

Nie ma dzisiaj najmniejszych podstaw, żeby tak twierdzić. Wróżysz z fusów. ;)

Opublikowano
3 minuty temu, Karister napisał(a):

Nie ma dzisiaj najmniejszych podstaw, żeby tak twierdzić. Wróżysz z fusów. ;)

Tak samo pewnie gadali odrywani od assemblera ;)

Układy fpga nadal sam układasz, czy dajesz przemielić automatom, w tym opartym na algorytmach SI?

 

Po prostu mamy kolejny etap automatyzacji pisania programów, kolejny poziom abstrakcyjności języków.

  • Upvote 2
Opublikowano (edytowane)

Asembler istniał i wciąż istnieje jednocześnie z językami wysokiego poziomu. AI to nie jest żaden nowy poziom abstrakcji (takowym miały być języki 4. generacji, które się nie przyjęły), tylko kolejne narzędzie wspierające pracę z językami 3. poziomu. Z jednej strony technology-agnostic, a z drugiej bardzo mocno upośledzone, gdy dostanie cokolwiek ambitnego do zrobienia. Dobry programista już od dłuższego czasu nie jest od klepania prostego kodu, tylko od projektowania dużych systemów, ich optymalizacji i dopiero na koniec od ich sensownej implementacji. Dawno, dano temu faktycznie programista pisał kod od A do Z. Potem spinał do kupy biblioteki i moduły. Dzisiaj robi to samo z framwerokami oraz infrą. Za dekadę może będzie spinał bełkot wygenerowany przez AI. Do każdej z wcześniej wymienionych czynności trzeba mieć szeroką wiedzę, żeby to zrobić dobrze w rozbudowanym systemie.

 

AI to mi generuje frontend do aplikacji demonstracyjnych na prelekcje na konferencjach. Nawet z moją zerową wiedzą o froncie widzę, że to, co wypluło AI, to jest ściek. Na potrzeby kilku demek pod wystąpienie i potem zapomnienia na zawsze jest to ok. Wrzucić coś takiego na produkcę to byłby niezły troll. Póki nie nakierujesz, jak ma zrobić, a nie tylko co, efekty są mierne. Do tego z kolei znowu potrzeba wiedzy. Czy to się zmieni? Może tak, może nie. Można zgadywać. Póki co fakty są takie, że całe to AI powoli progresuje w IT, wciąż popełnia te same błędy oraz póki co ma daleko do bycia rentownym, a rewolucyjny Claude wziąż okazuje się być głównie marketingowym chwytem.

 

Do czego używam AI w codziennej pracy? Do wygenerowania algorytmicznego kodu, wygenerowania prostych test case (a potem zmarnowania czasu na poprawki jego idiotycznego copy-paste wszędzie), ewentualnie review moich pomysłów, bo czasem coś sensownego napisze. Na pewno nie do wymyślania rozwiązań i wykonywania pracy za mnie, bo spektakularnie polegnie. Przerabiałem premiumy Chata GPT, Gemini i Co-Pilota od GH. Tydzień temu fundneli nam licencje na Cursora. Czy te narzędzia usprawniają tendencyjne zadania? Tak. Czy potrafią sensownie rozwiązać większy problem? Nie. Czy to się zmieni? Patrz wyżej. Mowa tu oczywiście o skalowalnych systemach rozproszonych w chmurze obsługujących miliony użytkowników, a nie trywiach, które może zrobić pierwszy lepszy student. Wtedy może i AI sobie również jakoś poradzi.

 

Generalnie całe to zastąpienie programistów i generowanie całych programów przez AI to taki buzz-word pismaków, co nie znają realiów. Zespół pięciu programistów z AI może być tak samo efektywny, jak zespół sześciu bez tego wsparcia. Czy to oznacza zastąpienie programistów przez AI? Tak, konkretnie zastąpienie około 20% najsłabszych ogniw. Nic nadzwyczajnego. Koleś sobie pewnie znajdzie robotę w projekcie/firmie obok i tyle. Albo pójdzie na devopsa i będzie konfigurował deploy plus observability dla pracy tychże zespołów. Wszak dobry programista też powinien to umieć.

 

Dwa lata temu czytałem te same czarne wizje końca programowania, a tu wciąż trzeba co tydzień kasować tuzin ofert pracy. Inna sprawa, że większość z nich to faktycznie ostatnio jest kibel. Wolałbym iść na bezrobocie (czyli redaktorzyny mogą wliczyć do "zastąpionych"), niż robić na tych śmiesznych warunkach. Ostatnio nawet w benefitach mi wysłali wynagrodzenie (a raczej jałmużnę) na czas. RotFL. Myślałem, że to są warunki umowy, a nie benefity... Ale kto wie, może jednak świat idzie do przodu, a ja zostałem dinozaurem i się mylę. ;) 

Edytowane przez Karister
  • Upvote 1
Opublikowano

Ja widzę przeszkody. Po pierwsze wskazane już problemy z rentownością. Póki co AI jedzie na przepalaniu kasy od inwestorów. Nie zarabiają nawet na planie Pro. Dziękowanie AI za odpowiedź generuje olbrzymie koszty, więc jest potencjał na zautomatyzowany atak. Po drugie wyczerpała się pula źródeł wiedzy do przemielenia algorytmami. Po trzecie utykanie algorytmów uczenia w lokalnych minimach. LLMy premium bywają przeuczone i potrafią zwrócić gorsze wyniki od tych darmowych.

 

Dwa lata temu w bliźniaczym wątku na PCLab czytałem to samo o AI oraz programistach  i to samo twierdziłem. Wiele się nie zmieniło przez ten czas. Możemy zweryfikować za kolejna dwa lata, potem cztery, sześć itd. No chyba że ktoś mówi o przyszłości za 50 lat, to wówczas jedyna prawidłowa dla mnie odpowiedź - nie wiadomo, czas pokaże. W ten bliskiej (do 10 lat) nie widzę potencjału na rewolucję. Wszak samo OpenAI celuje wyjść na zero dopiero w połowie tego horyzontu czasowego.

Opublikowano

Karister po prostu nie widzi IT poza wąskim segmentem wysokich stanowisk. W dużych korporacjach całe rzesze programistów niczego nie projektują bo od tego są inni ludzie. Powtarzalnej prostej pracy wciąż jest bardzo dużo.

AI będzie wciskane do kręcenia nowych rekordów produktywności co pozwoli utrzymać obecny trend redukcji zatrudnienia w dużych firmach.

Opublikowano (edytowane)

Dlatego trzeba odróżniać inżyniera oprogramowania od programisty od klepacza kodu. ;) Jak ktoś myśli, że programista pisze kod, to się myli. To już pisałem. W dobrych firmach każdy grade zajmuje się ambitnymi rzeczami, w tym projektowaniem.

Edytowane przez Karister
Opublikowano

Jeżeli chodzi o opłacalność, to można spojrzeć z różnych stron.
Np. ile czasu i zasobów zajmuje dane zadanie, jeżeli SI generuje w minutę przyzwoity szablon, a programiście by to zajęło np. 3 dni, to trzeba by porównać Wh obu rozwiązań, plus sam czas pracy człowieka. Tak czy inaczej jest zysk czasu.

 

Kolejna sprawa opłacalności, to programowanie nie jest jedyną gałęzią. Może być deficytowa ale odrobią sobie np. na generowaniu obrazów komercyjnych.
Nie jest to coś niezwykłego w świecie biznesu, gdzie prace rozwojowe przynoszą straty, a z innych masz zysk i bilansujesz całość na plus.

 

Myślę, że te podziękowania da się bardzo łatwo przefiltrować, a przed atakiem w dużej mierze chroni obecnie powolność działania tych czatów.

 

Wpadanie w lokalne maksima/minima to chyba standard w różnych algorytmach. Sam się z tym spotykałem, bawiąc prostymi algorytmami genetycznymi na studiach.

Od tego są ogarnięci ludzie, żeby rozwijać sposoby uczenia i optymalizować wynikowe modele. Być może skończy się to wieloma wyspecjalizowanymi, a nie jednym uniwersalnym. Tak samo jak ktoś ogarnięty w rozwiązaniach webowych nie wejdzie płynnie w świat dataminig-u.

 

Także tak samo jak na Labie, twierdzę że to kwestia czasu i w moim przekonaniu bliżej 10 lat niż 50.

Opublikowano

Chodzi o opłacalność AI samego w sobie. Nie o to, czy te rozwiązania zaoszczędzą, czy nie zaoszczędzą czasu pracy programisty, lekarza czy hydraulika. OpenAI nie zarabia na prąd i hardware póki co swoimi płatnymi subskrypcjami. Być może skończy się wyspecjalizowanymi modelami, a może się skończy wielką klapą. Czas pokaże. Dlatego takie śmiałe i pewne stwierdzenia, że będzie to, tamto czy siamto z ust ludzi, którzy nawet nie wiedzą, jak to działa pod spodem, mnie rozbrajają. Dla mnie nie ma sensu wróżyć z fusów i upierać się przy swoich wierzeniach, że będzie tak albo siak. Pożyjemy, zobaczymy.

Opublikowano (edytowane)

Może nie do końca AI ale pewnie AI też to zrobi,teraz nie można ufać "kozakom" którzy robią parkur itp

 

 

 

Ehhh gdzie te czasy z pierwotnym prawdziwym hardkorem bez AI i editingu :D

 

 

Edytowane przez bbandi
Opublikowano

Moja szklana kula przemówiła i powiedziała: nie jest istotne, jak dobra realnie w najbliższej przyszłości będzie AI. Będzie wdrażana wszędzie. Będziemy mieli wszystko ej aj: od kampanii reklamowych, przez bezzałogowe drony w następnych wojnach do inteligentnego papieru toaletowego. Ludzkie głowy będą lecieć. Ludzie już tracą pracę, przeświadczenie ludzi z IT o tym, że są niezastąpieni skończy się tak samo, jak u innych grup zawodowych przeświadczonych o swojej wyjątkowości :) 

Chyba nikt poważny nie myśli, że po włożeniu w ej aj setek (+?) miliardów dolców, po tych wszystkich inwestycjach, po budowie tych wszystkich datacentrów, panowie i panie CEO firm technologicznych ogłoszą że "eee, myliliśmy się, sorki, jednak to nie jest to" :E 

 

A lekarzom to już ej aj pomaga. Oraz ich zastępuje.

Opublikowano

Apka na początku będzie darmowa, ale po spopularyzowaniu się na rynku, pojawi się kilka poziomów abonamentów miesięcznych:

- abonament brązowy: do 10 sampli na miesiąc 

- abonament porcelanowy: do 45 sampli na miesiąc 

- abonament Czar Azji: 165 sampli na tydzień 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zacznij od formata i zainstalowania podstawowych rzeczy, msi center i tam tylko sterowniki do chpisetu i nic więcej, stery do grafy trochę starsze i testuj. Żadnych light, razerów i co przyjdzie Ci jeszcze do głowy, tym bardziej programów monitorujących, bo to też potrafi działać negatywnie na gry jak i na psychikę  .W obecnym stanie możesz jeszcze wrzucić ss z latencymoon. Czy w ww grach różnicę robią ustawienia graficzne? Tzn. czy jak dasz wszystko na low to jest taki sam efekt jak na Twoich ustawieniach? Czy jak ograniczysz liczę klatek do 60fps, to też jest problem? Ja wiem że w grach online trzeba mieć więcej, ale z ciekawości możesz zobaczyć. Oczywiście blokujesz klatki o te 3 mniej, niż masz odświeżanie monitora? A tak na marginesie możesz poczytać  https://forum.ithardware.pl/topic/8975-stuttering-latencymon/ https://forum.ithardware.pl/topic/8444-stuttering-w-grach/#comments tylko tutaj są procki od AMD czy ludzie sobie z tym poradzili to nie wiem, trzeba się zagłębić, aaa jeszcze mamy jednego kolegę którego stuttery już długo męczą i sobie z tym nie poradził, też na AMD.      
    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...