Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano (edytowane)
12 godzin temu, Karister napisał(a):

Nie dzieje się, jeśli ma się zdrowy balans chodzenia, jeżdżenia na rowerze i jeżdżenia samochodem. Czyli tak jak pisałem - zawsze jest to kwestia rozsądnego użytkowania wszelakich udogodnień.

To jest naturalny postęp, nie degradacja. Kiedyś coś się robiło samodzielnie, dzisiaj jest to zautomatyzowane (niekoniecznie przez AI), a ja za to skupiam się na czymś innym. Za dziesięć lat być może to coś też będzie już ograne jakimś narzędziem, a moja praca będzie potrzebna w miejscu obok. Przykładowo dekadę temu praca programisty polegała mocno na pisaniu kodu. Dzisiaj w branży IT liczy się rozwiązywanie problemów, spinanie tuzina rzeczy do kupy oraz ratowanie wydajności. Nie widzę problemu z powrotem do technologii, od której miałem przerwę. Coś się pewnie pozmieniało, ale idea ta sama. Nie widzę też większego problemu z wejściem w nową technologię, bo ona pewnie służy do rozwiązywania pewnego zagadnienia, które już widziałem w kilku innych technologiach. Tu jest właśnie ważna cecha ogarniętego człowieka - umiejętność adaptacji i łączenia faktów. AI robi to w sposób sztuczny i często upośledzony.

Przede wszystkim prawdziwa sztuczna inteligencja a to co teraz jest tak (w wiekszosci przypadków ) nazywane to dwie rozne rzeczy. Słowo "AI" stało sie marketingowym zwrotem tak popularnym jak kiedyś "nanocząsteczki" używa się go często i gęsto zeby podnieść swoją wartość/popularnosc w oczach klienta. Na prawdziwą sztuczną inteligencję jeszcze sobie poczekamy. Na przykładzie generowanie obrazów widać to bardzo dobrze , obecna "sztuczna inteligencja" to zaawansowany mikser do zdjęć i ilustracji jakie zostały wprowadzone do modelu szkoleniowego a nie żadna "sztuczna inteligencja" która rozumie to co generuje. No ale tymczasem mamy to co mamy.

 

obstawiam ze w przyszłosci pisanie aplikacji zostanie całkowicie zastąpione przez maszynę tak jak kiedys  języki niskiego poziomu (assembler) zostały zastąpione przez języki wysokiego poziomu ze wsparciem roznych bibliotek i kompilatorów, nie bedzie czegos takiego jak programista (bo AI bedzie pisało tak zaawansowany kod i tak wydajny na konkretny hardware ze nikt tego nie bedzie rozumiał i nikt nie bedzie w stanie się "ręcznie" do tego zbliżyć)

 

ale powstanie zawód będący czyms w rodzaju ogniwa posredniczącego między klientem a AI, cos w rodzaju operatora konsultanta. A ludzki programista to bedzie taki zawód jak teraz np szewc (bedzie ich niewielu). Tak to widzę.

Edytowane przez Oldman
Opublikowano (edytowane)
2 godziny temu, Oldman napisał(a):

Przede wszystkim prawdziwa sztuczna inteligencja a to co teraz jest tak (w wiekszosci przypadków ) nazywane to dwie rozne rzeczy. Słowo "AI" stało sie marketingowym zwrotem tak popularnym jak kiedyś "nanocząsteczki" używa się go często i gęsto zeby podnieść swoją wartość/popularnosc w oczach klienta. Na prawdziwą sztuczną inteligencję jeszcze sobie poczekamy.

Ja wiem, co to jest AI, miałem okazję poczynić kilka przykładów od zera. Sztuczna inteligencja to jest tak naprawdę wiele różnych algorytmów. Mogą to być LLMy, sieci neuronowe uczone metodą propagacji wstecznej albo takie samoorganizujące się. Algorytmy genetyczne też zaliczają się do sztucznej inteligencji. Do tego wiele innych. Nie ma czegoś takiego jak prawdziwa albo nieprawdziwa SI. To są po prostu algorytmy mielące wieloma liczbami w pewne specyficzne sposoby i to jest właśnie prawdziwa na dzisiejsze czasy SI. Nazwa wzięła się stąd, że ów algorytmy często naśladują naturę i żywe organizmy. Nazwa chwyciła i została z nami na dobre. Nie ma tutaj żadnej mowy o rozumieniu przez algorytm tego, co robi. Jeśli komuś się marzy AI w postaci robota, który rozumuje, kojarzy i odczuwa tak, jak człowiek, obecnie jest to mrzonka. Tutaj żaden algorytm tego nie da. Nawet jeśli byłby super-skomplikowany i dający dobre wyniki, to jest to tylko powierzchowny efekt, za którym stoi bezduszna matematyka. Tutaj pojawiają się tematy takie jak kojarzenie, pamięć i uczucia, więc mowa dodatkowo o biologii i chemii, a nie tylko informatyce i matematyce. Umiemy sklonować człowieka, ale czy potem tenże będzie miał potem te same wspomnienia i uczucia, co oryginał? Nauka tego nie wie. Formalnie, bo jest to zabronione z powodów etycznych, a co się dzieje w zamkniętych laboratoriach, nie wiemy.

2 godziny temu, Oldman napisał(a):

obstawiam ze w przyszłosci pisanie aplikacji zostanie całkowicie zastąpione przez maszynę tak jak kiedys  języki niskiego poziomu (assembler) zostały zastąpione przez języki wysokiego poziomu ze wsparciem roznych bibliotek i kompilatorów, nie bedzie czegos takiego jak programista (bo AI bedzie pisało tak zaawansowany kod i tak wydajny na konkretny hardware ze nikt tego nie bedzie rozumiał i nikt nie bedzie w stanie się "ręcznie" do tego zbliżyć)

Ciężko mi się z tym zgodzić, będąc bardzo daleko w swojej karierze w IT. Większość ludzi spoza branży nie jest świadomych, że programowanie to już dzisiaj nie jest pisanie kodu. Piętnaście lat temu rozkładali dywan i sypali kwiaty za to, że ktoś umie klepać kod. Dzisiaj kod to jest tylko narzędzie do osiągnięcia celu, jakim jest poprawne zaprojektowanie i zaimplementowanie mechanizmów, jakie występują w dużych systemach rozproszonych działających w chmurze. To oczywiście tylko przykład, jeden z wielu możliwych, bo soft jest różny i inne wyzwania stawia gra komputerowe, inne aplikacja mobilna, a jeszcze inne oprogramowanie serwerowe. Ten po prostu jest mi bliski i zajmuję się tym na co dzień. Im bardziej doświadczony programista, tym mniej kodu pisze w dużym systemie. Czemu? Bo nie opłaca się takiej osobie płacić jej często mocno wygórowanej stawki za zwyczajne klepanie. Jej zadaniem jest zaprojektowanie dobrego rozwiązania, przeanalizowanie możliwości i wyzwań, zwrócenie uwagi na potencjalne pułapki oraz rozrysowanie tego zespołowi mniej doświadczonych programistów, którzy właśnie mogą klepać. Assembler absolutnie nie został niczym zastąpiony, tylko częściej pisze się kod w językach wysokiego problemu. który potem jest tłumaczony właśnie na asembler. Gdyby tak nie było, nie trzeba by było kompilować osobno kodu źródłowego na różne platformy. Są oczywiście jeszcze języki interpretowane, ale te z kolei i tak często mają JIT. Temat na osobną dyskusję. Po prostu sprzęt poszedł do przodu i bardziej opłaca się szybko napisać mniej efektywny kod w języku wysokopoziomowym typu Java niż asemblerze w większości sytuacji. To poszło dalej i nie opłaca się wszystkiego implementować samodzielnie w Javie, a używa się gotowych frameworków typu Spring, który generuje masę niezbyt wydajnego kodu, ale szybko można dostarczyć gotową aplikację serwerową. Także czy to asembler, czy język wysokiego poziomu, czy frameworki, to są tylko narzędzia. Jedne się sprawdzą lepiej w sytuacji A, a inne w sytuacji B. Znajdziesz miejsca, gdzie wciąż pisze się w asemblerze, ale to jest nisza w przypadku polskiego rynku pracy.

2 godziny temu, Oldman napisał(a):

ale powstanie zawód będący czyms w rodzaju ogniwa posredniczącego między klientem a AI, cos w rodzaju operatora konsultanta. A ludzki programista to bedzie taki zawód jak teraz np szewc (bedzie ich niewielu). Tak to widzę.

To jest dla mnie zgadywanie odległej przyszłości. To, co pojawi się zdecydowanie szybciej, to specjalista od naprawiania kaczanów, które AI poczyniła. Czyli po prostu programista, który rozumie to, co robi, a nie kopiuje do chata. Po prostu programista będzie pisał mniej kodu, a więcej projektował i myślał. Zresztą już dzisiaj to widać po ofertach pracy w dobrych firmach technologicznych. Rzadko kiedy szuka się programisty, a częściej inżyniera oprogramowania, czyli osoby, która umie skonfigurować cały system, skonfigurować jego automatyczne deploymenty na serwer, spiąć to z monitoringiem i potworzyć automatyczny alerting. Do tego szuka się ludzi, którzy potrafią dobrać technologie tak, aby zaprojektowana całość radziła sobie z dużym ruchem bez problemów sieciowych i bez utykania na bazie danych oraz ich nie gubiła z powodu problemów braku synchronizacji czy nieudanej transakcji. Na koniec liczy się umiejętność pisania kodu, a raczej umiejętność pisania go tak, aby miał ręce i nogi oraz był automatycznie testowany. Zawód ten, jak wiele innych, ewaluuje. Kiedyś modne było takie prześmiewcze pojęcie klepacza kodu, a dzisiaj do czegoś podobnego degraduje się programista. Pisanie kodu to jest naprawdę ułamek tego, co czym może się zajmować dobry fachowiec. AI jest obecnie na etapie klepania kodu z brakiem poszanowania dla jakichkolwiek praktyk dobrego rozwoju softu. O całej reszcie typu infrastruktura, ekosystem i ogarnianie synchronizacji danych można zapomnieć. Tutaj właśnie trzeba kogoś, kto jest świadom tych zagadnień, rozumie je i ma doświadczenie. Taka osoba może i użyje sobie AI, żeby wygenerować trochę boilerplate'u i nie głowić się składnią w tuzinie technologii wokół, ale cały koncept i jego poprawne wdrożenie to praca dla człowieka. Dzisiaj. Za dwadzieścia lat może i się to zmieni, ale pewnie pojawi się coś, gdzie dalej będzie potrzebny w tym IT.

 

Tak w skrócie dzisiaj pozycje junior oraz regular/mid to jest właśnie pisanie kodu z mniejszym lub większym zrozumieniem. Senior do tego często coś jeszcze zaprojektuje i zwróci uwagę na jakieś niuanse. W dużych firmach, robiących ciekawsze rzeczy, masz dalszą drabinkę pod tytułem staff, principal, distinguished. Są to pojęcia względnie nowe i jeszcze nie usystematyzowane, więc często oznaczają one coś zupełnie innego w firmach, ale generalnie są to mega-ogarniacze i architekci oprogramowania/systemów na różnych poziomach.

Edytowane przez Karister
Opublikowano
W dniu 14.01.2025 o 11:00, Karister napisał(a):

Nie dzieje się, jeśli ma się zdrowy balans chodzenia, jeżdżenia na rowerze i jeżdżenia samochodem. Czyli tak jak pisałem - zawsze jest to kwestia rozsądnego użytkowania wszelakich udogodnień.

Jak się spojrzy na poszczególne jednostki to tak. Jak na ogół społeczeństwa, to to nie działa.

Ludzie po prostu są wygodni, jak nie muszą czegoś robić, mogą zastąpić automatem, to to robią i nie oznacza, że zwolniony czas poświęcą na inne wyższe cele.

 

Chyba najbardziej znany przykład, to nawigacja satelitarna. Pojawiają się artykuły, które wprost dowodzą, że od tego się głupieje, bo jest się wszędzie prowadzonym za rączkę.

Z SI będzie to samo, automat, asystent cyfrowy zrobi za nas, więc w ogóle się nie będziemy zastanawiać jak ta czynność wygląda. Padł wyżej przykład wypełniania pism urzędowych, danie do automatycznego napisania skutkuje brakiem zrozumienia co w tym dokumencie się znajduje, z jakiej przyczyny, na podstawie czego itd. Jak nie wiesz co i jak, to nie zweryfikujesz czy automat dobrze to zrobił. Jak padnie, to tak jak pisałem ni be ni me.

Można też spojrzeć jak ludzie traktują informacje z internetu, komputera, aplikacji. Praktycznie zero krytycyzmu, refleksji czy to jest prawda. Przy odpowiedziach z chatów SI jest jeszcze większe przekonanie, że to dobre odpowiedzi.

W dniu 14.01.2025 o 11:00, Karister napisał(a):

To, czy się pojawią doskonalsze narzędzie, to jest gdybanie. Był wielki boom przez ostatnie dwa czy trzy lata i teraz to wszystko stoi w przypadku AI w IT. Powstają nowe modele, nowe narzędzia i wszystkie robię te same błędy. Do tego koszty obsługi AI są tak duże, że te firmy mają problemy z rentownością.

Nie, to ekstrapolacja tego jak inne narzędzia się rozwijały, jak wchodziły do powszechnego użycia.

13 godzin temu, Karister napisał(a):

Nazwa wzięła się stąd, że ów algorytmy często naśladują naturę i żywe organizmy. Nazwa chwyciła i została z nami na dobre. Nie ma tutaj żadnej mowy o rozumieniu przez algorytm tego, co robi. Jeśli komuś się marzy AI w postaci robota, który rozumuje, kojarzy i odczuwa tak, jak człowiek, obecnie jest to mrzonka. Tutaj żaden algorytm tego nie da. Nawet jeśli byłby super-skomplikowany i dający dobre wyniki, to jest to tylko powierzchowny efekt, za którym stoi bezduszna matematyka. Tutaj pojawiają się tematy takie jak kojarzenie, pamięć i uczucia, więc mowa dodatkowo o biologii i chemii, a nie tylko informatyce i matematyce. Umiemy sklonować człowieka, ale czy potem tenże będzie miał potem te same wspomnienia i uczucia, co oryginał? Nauka tego nie wie. Formalnie, bo jest to zabronione z powodów etycznych, a co się dzieje w zamkniętych laboratoriach, nie wiemy.

Biologia, to w zasadzie chemia, ta w zasadzie jest fizyką, która sprowadza się do matematyki. To wszystko jest do ogarnięcia, tylko brakuje mocy obliczeniowej i pełnej wiedzy jak działają poszczególne mechanizmy mózgu.

Mózg to jest bezduszna maszyna przetwarzająca bodźce, przechowująca wzorce. Tu nie ma większej filozofii, jedynie jego skomplikowana struktura nie pozwala nam jak na razie skopiować tego na komputery. Te wszystkie wyższe funkcje, które przypisujemy naszym umysłom, to są te powierzchowne efekty.

 

Oczywistym jest, że klon nie będzie miał tych samych wspomnień, w końcu obecna technologia to tylko przeniesienie dna, a nie kompletna kopia osobnika.

Nawet jeżeli stworzysz bliźniaki o identycznym kodzie genetycznym, to nie dasz rady zapewnić identycznych warunków rozwoju płodowego, a następnie środowiska przebywania i uczenia się. To spowoduje, że powstaną inne połączenia nerwowe, więc i mózg będzie inaczej pracował.

Robiąc bardzo mocne założenie, że jednak się uda nieskończenie dokładnie odtworzyć warunki rozwoju, nie ma pewności czy pewne procesy nie są losowe. Jeżeli są, to znowu dojdzie do zróżnicowania struktury mózgu, a zatem i jego działania.

Opublikowano
Godzinę temu, Bono_UG napisał(a):

Jak się spojrzy na poszczególne jednostki to tak. Jak na ogół społeczeństwa, to to nie działa.

Ludzie po prostu są wygodni, jak nie muszą czegoś robić, mogą zastąpić automatem, to to robią i nie oznacza, że zwolniony czas poświęcą na inne wyższe cele

Ok, możliwe. Tym lepiej dla ambitnych. 

Godzinę temu, Bono_UG napisał(a):

Biologia, to w zasadzie chemia, ta w zasadzie jest fizyką, która sprowadza się do matematyki.

IMO poniosła Cię tutaj fantazja. To, że fizyka korzysta z matmy, nie znaczy, że się do niej sprowadza. Fizyka korzysta z matematyki jako narzędzia do opisywania zjawisk, którymi ta się nie zajmuje. Biologia i chemia się zazębiają, ale również zajmują się różnymi zagadnieniami. 

Godzinę temu, Bono_UG napisał(a):

Mózg to jest bezduszna maszyna przetwarzająca bodźce, przechowująca wzorce. Tu nie ma większej filozofii, jedynie jego skomplikowana struktura nie pozwala nam jak na razie skopiować tego na komputery.

Godzinę temu, Bono_UG napisał(a):

Oczywistym jest, że klon nie będzie miał tych samych wspomnień, w końcu obecna technologia to tylko przeniesienie dna, a nie kompletna kopia osobnika.

Kilka razy w tygodniu mam kontakt z pracownikami naukowymi, którzy prowadzą badania z genetyki na uczelniach w Polsce i USA za dziesiątki milionów. Twierdzą inaczej. 

Opublikowano (edytowane)

Strasznie ogólnikowy ten artykuł. Mark Russinovich to jest mega łebski facet i fajni by było mieć w nim chociaż link do opisywanej pracy. Jest nowe narzędzie, to i stwarza nowe zagrożenia. Klasyczne IT bez AI też tak wygląda. Web i HTTP same w sobie pozwalają na gazylion różnych ataków i też się nie da przed tym w 100% ochronić, zwłaszcza gdy użytkownik jest dzbanem. Przykład? Jeśli hasło ma mieć na przykład dziesięć znaków, to dodanie na końcu dwóch wykrzykników, żeby zapamiętać swoje standardowe ośmioznakowe hasło, nie zwiększa jego bezpieczeństwa. Teraz dodać do tego, że większość ludzi ma to samo hasło do każdej strony www i przepis na katastrofę gotowy. Potem lament, jak te banki nie dbają o bezpieczeństwo swoich klientów. xD

 

Poza tym nawet najlepsze zabezpieczenia IT nie mają znaczenia, gdy atakujący dostanie się wewnątrz firmy. U nas mamy dwa razy do roku audyt bezpieczeństwa robiony przez zewnętrzną firmę. Robimy grey-box testy naszego softu i zawsze mamy blisko maxa punktów za zabezpieczenia i pentesterom nie udaje się przebić. Czy to oznacza, że nie da się tego złamać? Nie, przecież są 0-daye. Natomiast na pewno złamać nie jest łatwo i nie zrobi tego pierwszy lepszy zawodnik z gimnazjum. Tyle że to jest połowa sukcesu. Potem taki koleś wskakuje we wdzianko elektryka/hydraulika/speca od klimy i nagle sobie śmiga po biurze, bo ktoś go zawsze wpuści. Albo nawet się nie przebiera, bo gdy w biurze pracuje kilkaset osób, a większości nie znasz, bo praca z domu przez większość czasu, to wystarczy wejść do windy z dowolną grupą wracającą akurat z lunchu. I już obcy koleś sobie łazi po biurze.

Edytowane przez Karister
Opublikowano
W dniu 15.01.2025 o 16:43, Karister napisał(a):

 

Kilka razy w tygodniu mam kontakt z pracownikami naukowymi, którzy prowadzą badania z genetyki na uczelniach w Polsce i USA za dziesiątki milionów. Twierdzą inaczej.

Co twierdzą inaczej, to że klon będzie posiadał wspomnienia oryginału? Obawiam się, że Cię nabierają.

Opublikowano (edytowane)

Nie, nie twierdzą tak. Obawiam się, że mocno nadintepretujesz, bo inaczej nie znaczy przeciwnie. Pisałem wcześniej, co w tej kwestii mówi nauka (ta publicznie dostępna). Najchętniej udzielana odpowiedź na coś, co nie ma eksperymentalnego potwierdzenia, brzmi "nie wiadomo". Zarówno w kwestii klonowania, jak i kopiowania. Osoby od lat pracujące w nauce nie dają odpowiedzi typu tak/nie w kwestiach, które nie są faktem podpartym jakimiś solidnymi eksperymentami. Tymczasem ludzie niebędący znawcami, często walą na pewniaka, bo przeczytali coś w sieci albo im się wydaje. Typowy błąd poznawczy Dunninga-Krugera. Do tego jeszcze dochodzi kwestia tego, że nauka może się mylić, co jeszcze bardziej sprawy komplikuje. Niemniej, nie poczuwam się do przekonywania kogokolwiek do czegokolwiek w tej tematyce, bo jest mi o wiele bardziej odległa od AI. Ja tylko napisałem, że ludzie głęboko siedzący w temacie (wygrywający stypendia naukowe oraz mający wysokie współczynniki cytowań) nie oceniają takch rzeczy zerojedynkowo.

Edytowane przez Karister
Opublikowano (edytowane)
W dniu 13.01.2025 o 21:04, Oldman napisał(a):

z mojego doswiadczenia zarówno realizm jak i kwestie artystyczne są mocno po stronie MJ, jakis rok temu jak testowałem to pamietam ze Dalle lepiej rozumiał złożone polecenia niz MJ ale nie wiem jak jest teraz moze zrobie prosty test, postacie wychodziły (i chyba nadal wychodzą ) duzo mniej naturalnie i realistycznie w Dalle



 

O to mi dokładnie chodziło, pisząc o realizmie vs kwestie artystyczne. Gdyby prawa autorskie zostały uregulowane, ilustracje z Dalle można by dawać prosto na okładki dzieł popkulturowych, jak książki z kategorii fantastyka, bo pasują stylem do tych tworzonych ręcznie przez rysowników i ilustratorów (obrazek żołnierzy). MJ próbuje naśladować realizm (zdjęcia, filmy z zaawansowanym CGI), jakby przestawione tam zwierzęta, stworki czy ludzie były prawdziwe, ale ciągle ma przy tym problem z perspektywą. Obiekty blisko "obiektywu" są ostre, a dalej - rozmazane. Tak to w ogóle nie wygląda, czy się patrzy oczami, czy robi zdjęcia aparatem (chyba że się włączy specjalne ustawienia). Przykład kobiety i zamazanego tła z MJ oraz zdjęcie drzewa (gdyby robiło je MJ, z tyłu nic by nie było widać, tylko jakieś plamy).

 

MJ.jpg

 

IMG_20250119_094631.jpg

 

_5f2caa08-ad93-4b79-a05a-ae54e059c32d.jpg

Edytowane przez Áltair
Opublikowano (edytowane)

Swoją drogą, zastanawia mnie, czemu Open AI/GPT jest tak słabe w tłumaczeniach.

O niebo lepsze efekty daje Gemini czy Claude.

 

Ale w sumie już chyba stary Bard potrafił kreatywnie pisać?

Edytowane przez Kamiyanx
Opublikowano (edytowane)
Godzinę temu, Áltair napisał(a):

Tak to w ogóle nie wygląda, czy się patrzy oczami, czy robi zdjęcia aparatem (chyba że się włączy specjalne ustawienia)

Łomatkobosko.
Najpierw zdjęcie:
2024-India-Amritsar-12.jpg
To nie jest efekt żadnych 'specjalnych ustawień'. To jest efekt fizyki optycznej. Tak wyglądają zdjęcia z małą głębią ostrości zrobione z tzw. jasnym obiektywem i aparatem z większą matrycą od telefonicznych. MJ najwidoczniej stara się dosyć często symulować małą głębię ostrości. Jeżeli nie lubisz takiego 'odcięcia' tematu od tła, zapewne bez problemu da się odpowiednim elementem promptu wymusić dużą głębię ostrości na plikach z MJ. Tak samo, jak da się to zrobić w aparacie.

6 minut temu, LeBomB napisał(a):

a to nie jest po prostu tak, że stworzenie bardzo dokładnego tła pochłania zbyt dużo zasobów i dlatego zostało to uproszczone?

Absolutnie nie. Patrz wyżej. Można sobie też wpisać w google frazę "zdjęcia z małą głębią ostrości".

PS. Jeżeli już o zasobach, to już bardziej rozmycie je by zużywało mocniej, niż brak rozmycia. Widać to w świecie telefonów, w których coraz szybsze procki, wraz z lidarami, są w stanie coraz lepiej symulować to, co jest naturalne dla "poważnych" aparatów.

Edytowane przez jagular
  • Upvote 2
Opublikowano (edytowane)

@jagular wiem że można robić zdjęcia z rozmytym tłem i że to też od optyki zależy itd.

Jednak uważam, że wygenerowanie szczegółowego tła, mającego dużo detali zajęłoby za dużo czasu i zabrało za dużo zasobów. W związku z tym łatwiej ograniczyć tła do zarysów obiektów i rozmycia.

 

Edit: co do telefonów, to w nokii 625 czyli 13 lat temu? miałem opcję zmiany ostrości i głębi na już zrobionym zdjęciu.

Edytowane przez LeBomB
Opublikowano
17 minut temu, LeBomB napisał(a):

Jednak uważam, że wygenerowanie szczegółowego tła, mającego dużo detali zajęłoby za dużo czasu i zabrało za dużo zasobów. W związku z tym łatwiej ograniczyć tła do zarysów obiektów i rozmycia.

Żeby zrobić dobrze wyglądający efekt rozmycia tła, nazywany często efektem bokeh, trzeba się napracować. Ten efekt nie jest przypadkowy. To nie jest po prostu rozmyta prosta tekstura. 
Myślę że bez problemu da się zrobić w MJ obrazek bez takiego 'efektu', więc to nie jest tak, że MJ specjalnie sobie ułatwia obliczenia.

Tak naprawdę to takie rozmycie tła (i nie tylko, rozmywane jest wszystko poza zakresem ostrości) jest bardzo często porządane przez fotografujących. Obiektywy, które potrafią mocno rozmywać tło to najdroższe wersje obiektywów. Mówimy tu o poziomie kilkunastu-kilkuset tysięcy zł.

I nie, nie sądzę żeby kilkunastoletnia Nokia mogła dobrze rozmywać (programowo) tło na zdjęciach. Dopiero niedawno ten efekt w telefonach przeszedł z etapu "żałosny cringe" do "ok, jak przymknę oko to nawet" - przez zwiększenie mocy przerobowej oraz obecność lidarów. Nokia sprzed lat nie miała lidara, nie?

Opublikowano
6 godzin temu, Karister napisał(a):

 nie oceniają takch rzeczy zerojedynkowo.

Generalnie okej. Powstał rodzaj mody na odpowiedzi typu: nie wiemy, nie jesteśmy pewni itp. powstało takie przekonanie, że naukowcy powinni tak mówić, bo to jest takie naukowe oraz skromne. I ma to w tym też pewien udział. Co do klonów: one nigdy nie będą się tak samo rozwijać. Wystarczy, że zjedzą inne rzeczy albo o innej godzinie i już rozwój organizmu potoczy się nieco inną drogą. Zobaczą albo usłyszą inne rzeczy i już powstaną inne połączenia międzyneuronowe. A wspomnienia to na pewno połączenia międzyneuronowe. Być może nie tylko one, ale na pewno między innymi. Dlatego o kopiowaniu wspomnień w drodze klinowania nie może być mowy. Wg mnie zero-jedynkowo.

Opublikowano (edytowane)
13 godzin temu, jagular napisał(a):

Łomatkobosko.
To nie jest efekt żadnych 'specjalnych ustawień'. To jest efekt fizyki optycznej. Tak wyglądają zdjęcia z małą głębią ostrości zrobione z tzw. jasnym obiektywem i aparatem z większą matrycą od telefonicznych. MJ najwidoczniej stara się dosyć często symulować małą głębię ostrości. Jeżeli nie lubisz takiego 'odcięcia' tematu od tła, zapewne bez problemu da się odpowiednim elementem promptu wymusić dużą głębię ostrości na plikach z MJ. Tak samo, jak da się to zrobić w aparacie.

Absolutnie nie. Patrz wyżej. Można sobie też wpisać w google frazę "zdjęcia z małą głębią ostrości".
 

O tym właśnie piszę. Najzwyklejsze zdjęcie, robione bez wybierania ustawień, będzie miało w tle ostre obiekty, gdy przedmiot dominujący, jak ten Twój mężczyzna ze zdjęcia czy drzewo, będą się znajdować ponad 2 metry od obiektywu/obserwatora. Tak działa ludzie oko. I w tym zdaniu tkwi sendo (kwestia nakarmienia MJ treściami graficznymi z sieci):

 

Cytat

MJ najwidoczniej stara się dosyć często symulować małą głębię ostrości.

 

Edytowane przez Áltair
Opublikowano (edytowane)
17 godzin temu, Áltair napisał(a):

 MJ próbuje naśladować realizm (zdjęcia, filmy z zaawansowanym CGI), jakby przestawione tam zwierzęta, stworki czy ludzie były prawdziwe, ale ciągle ma przy tym problem z perspektywą. Obiekty blisko "obiektywu" są ostre, a dalej - rozmazane. Tak to w ogóle nie wygląda, czy się patrzy oczami, czy robi zdjęcia aparatem (chyba że się włączy specjalne ustawienia). Przykład kobiety i zamazanego tła z MJ oraz zdjęcie drzewa (gdyby robiło je MJ, z tyłu nic by nie było widać, tylko jakieś plamy).

 

 

To nie jest problem z perspektywą tylko zabieg celowy, przeciez na wielu zdjeciach portretowych też masz głębie ostrosci małą w celu zwiekszenia czytelnosci 1 planu. MJ korzysta z takich zdjęć do szkolenia modeli bo to sie ludziom podoba i jest znacznie czytelniejsze i przyjemniejsze w odbiorze niz portrety z duzą głębią ostrosci. Tutaj nie chodzi o to zeby AI było w stanie wygenerowac tylko i wyłącznie takie zdjecia jak widzi ludzkie oko ale też inne

Edytowane przez Oldman
Opublikowano
2 godziny temu, Áltair napisał(a):

O tym właśnie piszę. Najzwyklejsze zdjęcie, robione bez wybierania ustawień, będzie miało w tle ostre obiekty, gdy przedmiot dominujący, jak ten Twój mężczyzna ze zdjęcia czy drzewo, będą się znajdować ponad 2 metry od obiektywu/obserwatora. Tak działa ludzie oko. I w tym zdaniu tkwi sendo (kwestia nakarmienia MJ treściami graficznymi z sieci):

 

 

Nie :)

Zawsze są jakieś ustawienia, w zależności od sprzętu taka mała głębia ostrości to mogą być ustawienia domyślne, z których się zaczyna ustawianie parametrów. To, że na zdjęciach z telefonów nie ma aż tak zaakcentowanego efektu rozmycia jest wynikiem jedynie tego, że telefony mają malutkie matryce i obiektywy, a nie że jakaś specjalna, dodatkowa magia się gdzieś wydarza ;) 

 

I znowu nie: fotografia nie działa jak ludzkie oczy :) 

 

Mała głębia ostrości to po prostu, jak wyżej napisano, efekt pożądany i tyle.

Opublikowano (edytowane)
W dniu 15.01.2025 o 16:43, Karister napisał(a):

IMO poniosła Cię tutaj fantazja. To, że fizyka korzysta z matmy, nie znaczy, że się do niej sprowadza. Fizyka korzysta z matematyki jako narzędzia do opisywania zjawisk, którymi ta się nie zajmuje. Biologia i chemia się zazębiają, ale również zajmują się różnymi zagadnieniami. 

Jeżeli w fizyce nie da się czegoś wyrazić matematyką, to wchodzi się w sferę filozofii ;)
Współczesna fizyka, to do bólu grzebanie w modelach matematycznych. To nadal jest nazywane fizyką, tylko dlatego że to podzbiór matematyki, jej praktyczne zastosowanie, plus pewna abstrakcja opisująca sens wzorów i wyliczeń.

Podobnie z chemią. Nie kojarzę, żeby było w niej coś nieopisywalnego prawami fizyki. Plus znowu pewna abstrakcja pomagająca zrozumieć co się właściwie dzieje.

Biologia, to połączenie chemii i fizyki, plus kolejna abstrakcja pojęciowa.

 

W kontekście możliwości symulowania, odtworzenia, te wszystkie zagadnienia sprowadzają się do matematyki, a ta dosyć dobrze się wkłada w komputery. Jedyne czego mocno brakuje, to mocy obliczeniowej, żeby to wszystko dokładnie modelować, budować coraz bardziej złożone układy.

W dniu 15.01.2025 o 16:43, Karister napisał(a):

Kilka razy w tygodniu mam kontakt z pracownikami naukowymi, którzy prowadzą badania z genetyki na uczelniach w Polsce i USA za dziesiątki milionów. Twierdzą inaczej.

Tutaj ciężko mi skomentować, bo nie wiem czy odnosisz się do konkretnych tez jakie postawiłem, czy do całości. Tak samo nie precyzujesz czym te badania z genetyki są, do jakich zagadnień się odnoszą.

Tak czy inaczej jak na razie nikt nie udowodnił istnienia duszy, żeby praca mózgu wymykała się prawom fizyki. A skoro się nie wymyka, to jest możliwe algorytmiczne odtworzenie pracy umysłu. Oczywiście nie jest to na tyle proste, że się zrobi od ręki, jest sporo niewiadomych typu "gdzie/kiedy pojawia się świadomość". Być może coraz bardziej zaawansowane i złożone sieci neuronowe pomogą i te sprawy odkryć.

 

@Áltair

Ten obraz z drzewem jeżeli jest wygenerowany, to faktycznie ciężko odróżnić od zdjęcia. Bardziej już trzeba zwracać uwagę na pewną logiczną część, a nie niedoskonałości samego obrazowania. Np. trochę za mocno obrośnięty ten pień na pierwszym planie, sucha trawa zbyt często zagięta/złamana.

7 godzin temu, Áltair napisał(a):

Tak działa ludzie oko.

Ludzkie oko ma dosyć małą głębię ostrości, może nie rozmywa tak mocno jak zdjęcia nastawione na ten efekt, ale ogólnie bardzo wąsko widzimy ostro. Wystarczy spojrzeć na górę strony, a dół będzie nieczytelny, w zasadzie już kilka linijek obok ciężko cokolwiek odczytać.

Druga kwestia, to mózg bardzo dużo rzeczy sobie dopowiada, interpretuje, więc pewne rzeczy nie wydają się w postrzeganiu nieostre.

Trzecia, to zasady optyki są te same. Im bliżej jest obserwowany obiekt, tym tło bardziej rozmyte, im dalej ostrzymy, tym obiekty blisko bardziej rozmyte.

Edytowane przez Bono_UG
Opublikowano
1 godzinę temu, Bono_UG napisał(a):

Jeżeli w fizyce nie da się czegoś wyrazić matematyką, to wchodzi się w sferę filozofii ;)
Współczesna fizyka, to do bólu grzebanie w modelach matematycznych. To nadal jest nazywane fizyką, tylko dlatego że to podzbiór matematyki, jej praktyczne zastosowanie, plus pewna abstrakcja opisująca sens wzorów i wyliczeń.

Podobnie z chemią. Nie kojarzę, żeby było w niej coś nieopisywalnego prawami fizyki. Plus znowu pewna abstrakcja pomagająca zrozumieć co się właściwie dzieje.

Biologia, to połączenie chemii i fizyki, plus kolejna abstrakcja pojęciowa.

Kompletnie się nie zgadzam, że fizyka to podzbiór matematyki. Tak jak napisał Karister, matematyka jest w fizyce narzędziem. I to o wiele mniej doskonałym, niż się powszechnie uważa. Nie mamy lepszego i z tym należy się zgodzić. Ale wiele modeli ma charakter jedynie przybliżony i to na przeróżne sposoby i z przeróżnych powodów. To jest zajebista sprawa, że świat jest w miarę matematyczny, ale - przynajmniej na obecnym poziomie wiedzy - kompletnie nie da się go sprowadzić do znanych nam modeli matematycznych. Sztandarowy przykład może być choćby taki, że zjawiska nadprzewodnictwa nijak nie potrafimy wyprowadzić z podstawowych modeli matematycznych funkcjonujących w fizyce. A jest takich przykładów sporo więcej, np. przepływy cieczy itd.

 

Z tym że chemia musi się sprowadzać do fizyki trzeba się zgodzić, ale ponownie nie znamy odpowiednich struktur matematycznych (mogą istnieć albo mogą nie istnieć - nie wiadomo), które by umożliwiły przewidzenie pewnych rzeczy w chemii, na podstawie podstawowych praw fizyki. Rozum mówi, że to się musi sprowadzać, ale jeszcze mamy zbyt słabo zaawansowaną wiedzę, aby to w praktyce działało. na ile znamy i rozumiemy prawa fizyki, też można dyskutować.

 

Czy biologia sprowadza się do fizyki i chemii, to osobny duży temat.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
    • Czy dałoby się w laptopie HP 530 8HTF12864HDY-667E1 Mobile Intel Calistoga-GME i945GME wymienić 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz na 2-rdzeniowy procesor Intel Pentium Dual-Core T4200. Znalazłem zapusty laptop PP33L z popękanym i zepsutym monitorem i uszkodzoną płytą główną i 2-rdzeniowym procesorem Intel Pentium Dual-Core T4200 ale mam sprawny laptop HP 530 ale ma tylko 1-rdzeniowy procesor Intel(R) Celeron(R) M CPU 530 @ 1.73GHz i chciałbym ten procesor wymienić na 2-rdzeniowy. Oryginalnie ten laptop miał 1 GB pamięci RAM i wymieniłem RAM na 4 GB. Jaki system operacyjny najlepiej pasowałby do tego laptopa HP 530. Nie wiem jaki model ma płyta głowna z Laptopa PP33L dlatego że nie dało się tego laptopa uruchomić żeby sprawdzić w BIOSie albo w systemie. Spisałem jakieś liczby z płyty głownej tego laptopa CN-OP-132H-48643-8CB-0220-A00 DP/N OP132H BPB8C0020 002219 DA8B70-LanID GX D-VOA 94V-0 2-1 0842 E0EC 909G8222E M47 REV :  D DA0FM7MB8D0 PWB T012G REV : A00 Weźcie pod uwagę że zero to moze być duża litera o i odwrotnie.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...