Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano (edytowane)
12 godzin temu, Karister napisał(a):

Nie dzieje się, jeśli ma się zdrowy balans chodzenia, jeżdżenia na rowerze i jeżdżenia samochodem. Czyli tak jak pisałem - zawsze jest to kwestia rozsądnego użytkowania wszelakich udogodnień.

To jest naturalny postęp, nie degradacja. Kiedyś coś się robiło samodzielnie, dzisiaj jest to zautomatyzowane (niekoniecznie przez AI), a ja za to skupiam się na czymś innym. Za dziesięć lat być może to coś też będzie już ograne jakimś narzędziem, a moja praca będzie potrzebna w miejscu obok. Przykładowo dekadę temu praca programisty polegała mocno na pisaniu kodu. Dzisiaj w branży IT liczy się rozwiązywanie problemów, spinanie tuzina rzeczy do kupy oraz ratowanie wydajności. Nie widzę problemu z powrotem do technologii, od której miałem przerwę. Coś się pewnie pozmieniało, ale idea ta sama. Nie widzę też większego problemu z wejściem w nową technologię, bo ona pewnie służy do rozwiązywania pewnego zagadnienia, które już widziałem w kilku innych technologiach. Tu jest właśnie ważna cecha ogarniętego człowieka - umiejętność adaptacji i łączenia faktów. AI robi to w sposób sztuczny i często upośledzony.

Przede wszystkim prawdziwa sztuczna inteligencja a to co teraz jest tak (w wiekszosci przypadków ) nazywane to dwie rozne rzeczy. Słowo "AI" stało sie marketingowym zwrotem tak popularnym jak kiedyś "nanocząsteczki" używa się go często i gęsto zeby podnieść swoją wartość/popularnosc w oczach klienta. Na prawdziwą sztuczną inteligencję jeszcze sobie poczekamy. Na przykładzie generowanie obrazów widać to bardzo dobrze , obecna "sztuczna inteligencja" to zaawansowany mikser do zdjęć i ilustracji jakie zostały wprowadzone do modelu szkoleniowego a nie żadna "sztuczna inteligencja" która rozumie to co generuje. No ale tymczasem mamy to co mamy.

 

obstawiam ze w przyszłosci pisanie aplikacji zostanie całkowicie zastąpione przez maszynę tak jak kiedys  języki niskiego poziomu (assembler) zostały zastąpione przez języki wysokiego poziomu ze wsparciem roznych bibliotek i kompilatorów, nie bedzie czegos takiego jak programista (bo AI bedzie pisało tak zaawansowany kod i tak wydajny na konkretny hardware ze nikt tego nie bedzie rozumiał i nikt nie bedzie w stanie się "ręcznie" do tego zbliżyć)

 

ale powstanie zawód będący czyms w rodzaju ogniwa posredniczącego między klientem a AI, cos w rodzaju operatora konsultanta. A ludzki programista to bedzie taki zawód jak teraz np szewc (bedzie ich niewielu). Tak to widzę.

Edytowane przez Oldman
Opublikowano (edytowane)
2 godziny temu, Oldman napisał(a):

Przede wszystkim prawdziwa sztuczna inteligencja a to co teraz jest tak (w wiekszosci przypadków ) nazywane to dwie rozne rzeczy. Słowo "AI" stało sie marketingowym zwrotem tak popularnym jak kiedyś "nanocząsteczki" używa się go często i gęsto zeby podnieść swoją wartość/popularnosc w oczach klienta. Na prawdziwą sztuczną inteligencję jeszcze sobie poczekamy.

Ja wiem, co to jest AI, miałem okazję poczynić kilka przykładów od zera. Sztuczna inteligencja to jest tak naprawdę wiele różnych algorytmów. Mogą to być LLMy, sieci neuronowe uczone metodą propagacji wstecznej albo takie samoorganizujące się. Algorytmy genetyczne też zaliczają się do sztucznej inteligencji. Do tego wiele innych. Nie ma czegoś takiego jak prawdziwa albo nieprawdziwa SI. To są po prostu algorytmy mielące wieloma liczbami w pewne specyficzne sposoby i to jest właśnie prawdziwa na dzisiejsze czasy SI. Nazwa wzięła się stąd, że ów algorytmy często naśladują naturę i żywe organizmy. Nazwa chwyciła i została z nami na dobre. Nie ma tutaj żadnej mowy o rozumieniu przez algorytm tego, co robi. Jeśli komuś się marzy AI w postaci robota, który rozumuje, kojarzy i odczuwa tak, jak człowiek, obecnie jest to mrzonka. Tutaj żaden algorytm tego nie da. Nawet jeśli byłby super-skomplikowany i dający dobre wyniki, to jest to tylko powierzchowny efekt, za którym stoi bezduszna matematyka. Tutaj pojawiają się tematy takie jak kojarzenie, pamięć i uczucia, więc mowa dodatkowo o biologii i chemii, a nie tylko informatyce i matematyce. Umiemy sklonować człowieka, ale czy potem tenże będzie miał potem te same wspomnienia i uczucia, co oryginał? Nauka tego nie wie. Formalnie, bo jest to zabronione z powodów etycznych, a co się dzieje w zamkniętych laboratoriach, nie wiemy.

2 godziny temu, Oldman napisał(a):

obstawiam ze w przyszłosci pisanie aplikacji zostanie całkowicie zastąpione przez maszynę tak jak kiedys  języki niskiego poziomu (assembler) zostały zastąpione przez języki wysokiego poziomu ze wsparciem roznych bibliotek i kompilatorów, nie bedzie czegos takiego jak programista (bo AI bedzie pisało tak zaawansowany kod i tak wydajny na konkretny hardware ze nikt tego nie bedzie rozumiał i nikt nie bedzie w stanie się "ręcznie" do tego zbliżyć)

Ciężko mi się z tym zgodzić, będąc bardzo daleko w swojej karierze w IT. Większość ludzi spoza branży nie jest świadomych, że programowanie to już dzisiaj nie jest pisanie kodu. Piętnaście lat temu rozkładali dywan i sypali kwiaty za to, że ktoś umie klepać kod. Dzisiaj kod to jest tylko narzędzie do osiągnięcia celu, jakim jest poprawne zaprojektowanie i zaimplementowanie mechanizmów, jakie występują w dużych systemach rozproszonych działających w chmurze. To oczywiście tylko przykład, jeden z wielu możliwych, bo soft jest różny i inne wyzwania stawia gra komputerowe, inne aplikacja mobilna, a jeszcze inne oprogramowanie serwerowe. Ten po prostu jest mi bliski i zajmuję się tym na co dzień. Im bardziej doświadczony programista, tym mniej kodu pisze w dużym systemie. Czemu? Bo nie opłaca się takiej osobie płacić jej często mocno wygórowanej stawki za zwyczajne klepanie. Jej zadaniem jest zaprojektowanie dobrego rozwiązania, przeanalizowanie możliwości i wyzwań, zwrócenie uwagi na potencjalne pułapki oraz rozrysowanie tego zespołowi mniej doświadczonych programistów, którzy właśnie mogą klepać. Assembler absolutnie nie został niczym zastąpiony, tylko częściej pisze się kod w językach wysokiego problemu. który potem jest tłumaczony właśnie na asembler. Gdyby tak nie było, nie trzeba by było kompilować osobno kodu źródłowego na różne platformy. Są oczywiście jeszcze języki interpretowane, ale te z kolei i tak często mają JIT. Temat na osobną dyskusję. Po prostu sprzęt poszedł do przodu i bardziej opłaca się szybko napisać mniej efektywny kod w języku wysokopoziomowym typu Java niż asemblerze w większości sytuacji. To poszło dalej i nie opłaca się wszystkiego implementować samodzielnie w Javie, a używa się gotowych frameworków typu Spring, który generuje masę niezbyt wydajnego kodu, ale szybko można dostarczyć gotową aplikację serwerową. Także czy to asembler, czy język wysokiego poziomu, czy frameworki, to są tylko narzędzia. Jedne się sprawdzą lepiej w sytuacji A, a inne w sytuacji B. Znajdziesz miejsca, gdzie wciąż pisze się w asemblerze, ale to jest nisza w przypadku polskiego rynku pracy.

2 godziny temu, Oldman napisał(a):

ale powstanie zawód będący czyms w rodzaju ogniwa posredniczącego między klientem a AI, cos w rodzaju operatora konsultanta. A ludzki programista to bedzie taki zawód jak teraz np szewc (bedzie ich niewielu). Tak to widzę.

To jest dla mnie zgadywanie odległej przyszłości. To, co pojawi się zdecydowanie szybciej, to specjalista od naprawiania kaczanów, które AI poczyniła. Czyli po prostu programista, który rozumie to, co robi, a nie kopiuje do chata. Po prostu programista będzie pisał mniej kodu, a więcej projektował i myślał. Zresztą już dzisiaj to widać po ofertach pracy w dobrych firmach technologicznych. Rzadko kiedy szuka się programisty, a częściej inżyniera oprogramowania, czyli osoby, która umie skonfigurować cały system, skonfigurować jego automatyczne deploymenty na serwer, spiąć to z monitoringiem i potworzyć automatyczny alerting. Do tego szuka się ludzi, którzy potrafią dobrać technologie tak, aby zaprojektowana całość radziła sobie z dużym ruchem bez problemów sieciowych i bez utykania na bazie danych oraz ich nie gubiła z powodu problemów braku synchronizacji czy nieudanej transakcji. Na koniec liczy się umiejętność pisania kodu, a raczej umiejętność pisania go tak, aby miał ręce i nogi oraz był automatycznie testowany. Zawód ten, jak wiele innych, ewaluuje. Kiedyś modne było takie prześmiewcze pojęcie klepacza kodu, a dzisiaj do czegoś podobnego degraduje się programista. Pisanie kodu to jest naprawdę ułamek tego, co czym może się zajmować dobry fachowiec. AI jest obecnie na etapie klepania kodu z brakiem poszanowania dla jakichkolwiek praktyk dobrego rozwoju softu. O całej reszcie typu infrastruktura, ekosystem i ogarnianie synchronizacji danych można zapomnieć. Tutaj właśnie trzeba kogoś, kto jest świadom tych zagadnień, rozumie je i ma doświadczenie. Taka osoba może i użyje sobie AI, żeby wygenerować trochę boilerplate'u i nie głowić się składnią w tuzinie technologii wokół, ale cały koncept i jego poprawne wdrożenie to praca dla człowieka. Dzisiaj. Za dwadzieścia lat może i się to zmieni, ale pewnie pojawi się coś, gdzie dalej będzie potrzebny w tym IT.

 

Tak w skrócie dzisiaj pozycje junior oraz regular/mid to jest właśnie pisanie kodu z mniejszym lub większym zrozumieniem. Senior do tego często coś jeszcze zaprojektuje i zwróci uwagę na jakieś niuanse. W dużych firmach, robiących ciekawsze rzeczy, masz dalszą drabinkę pod tytułem staff, principal, distinguished. Są to pojęcia względnie nowe i jeszcze nie usystematyzowane, więc często oznaczają one coś zupełnie innego w firmach, ale generalnie są to mega-ogarniacze i architekci oprogramowania/systemów na różnych poziomach.

Edytowane przez Karister
Opublikowano
W dniu 14.01.2025 o 11:00, Karister napisał(a):

Nie dzieje się, jeśli ma się zdrowy balans chodzenia, jeżdżenia na rowerze i jeżdżenia samochodem. Czyli tak jak pisałem - zawsze jest to kwestia rozsądnego użytkowania wszelakich udogodnień.

Jak się spojrzy na poszczególne jednostki to tak. Jak na ogół społeczeństwa, to to nie działa.

Ludzie po prostu są wygodni, jak nie muszą czegoś robić, mogą zastąpić automatem, to to robią i nie oznacza, że zwolniony czas poświęcą na inne wyższe cele.

 

Chyba najbardziej znany przykład, to nawigacja satelitarna. Pojawiają się artykuły, które wprost dowodzą, że od tego się głupieje, bo jest się wszędzie prowadzonym za rączkę.

Z SI będzie to samo, automat, asystent cyfrowy zrobi za nas, więc w ogóle się nie będziemy zastanawiać jak ta czynność wygląda. Padł wyżej przykład wypełniania pism urzędowych, danie do automatycznego napisania skutkuje brakiem zrozumienia co w tym dokumencie się znajduje, z jakiej przyczyny, na podstawie czego itd. Jak nie wiesz co i jak, to nie zweryfikujesz czy automat dobrze to zrobił. Jak padnie, to tak jak pisałem ni be ni me.

Można też spojrzeć jak ludzie traktują informacje z internetu, komputera, aplikacji. Praktycznie zero krytycyzmu, refleksji czy to jest prawda. Przy odpowiedziach z chatów SI jest jeszcze większe przekonanie, że to dobre odpowiedzi.

W dniu 14.01.2025 o 11:00, Karister napisał(a):

To, czy się pojawią doskonalsze narzędzie, to jest gdybanie. Był wielki boom przez ostatnie dwa czy trzy lata i teraz to wszystko stoi w przypadku AI w IT. Powstają nowe modele, nowe narzędzia i wszystkie robię te same błędy. Do tego koszty obsługi AI są tak duże, że te firmy mają problemy z rentownością.

Nie, to ekstrapolacja tego jak inne narzędzia się rozwijały, jak wchodziły do powszechnego użycia.

13 godzin temu, Karister napisał(a):

Nazwa wzięła się stąd, że ów algorytmy często naśladują naturę i żywe organizmy. Nazwa chwyciła i została z nami na dobre. Nie ma tutaj żadnej mowy o rozumieniu przez algorytm tego, co robi. Jeśli komuś się marzy AI w postaci robota, który rozumuje, kojarzy i odczuwa tak, jak człowiek, obecnie jest to mrzonka. Tutaj żaden algorytm tego nie da. Nawet jeśli byłby super-skomplikowany i dający dobre wyniki, to jest to tylko powierzchowny efekt, za którym stoi bezduszna matematyka. Tutaj pojawiają się tematy takie jak kojarzenie, pamięć i uczucia, więc mowa dodatkowo o biologii i chemii, a nie tylko informatyce i matematyce. Umiemy sklonować człowieka, ale czy potem tenże będzie miał potem te same wspomnienia i uczucia, co oryginał? Nauka tego nie wie. Formalnie, bo jest to zabronione z powodów etycznych, a co się dzieje w zamkniętych laboratoriach, nie wiemy.

Biologia, to w zasadzie chemia, ta w zasadzie jest fizyką, która sprowadza się do matematyki. To wszystko jest do ogarnięcia, tylko brakuje mocy obliczeniowej i pełnej wiedzy jak działają poszczególne mechanizmy mózgu.

Mózg to jest bezduszna maszyna przetwarzająca bodźce, przechowująca wzorce. Tu nie ma większej filozofii, jedynie jego skomplikowana struktura nie pozwala nam jak na razie skopiować tego na komputery. Te wszystkie wyższe funkcje, które przypisujemy naszym umysłom, to są te powierzchowne efekty.

 

Oczywistym jest, że klon nie będzie miał tych samych wspomnień, w końcu obecna technologia to tylko przeniesienie dna, a nie kompletna kopia osobnika.

Nawet jeżeli stworzysz bliźniaki o identycznym kodzie genetycznym, to nie dasz rady zapewnić identycznych warunków rozwoju płodowego, a następnie środowiska przebywania i uczenia się. To spowoduje, że powstaną inne połączenia nerwowe, więc i mózg będzie inaczej pracował.

Robiąc bardzo mocne założenie, że jednak się uda nieskończenie dokładnie odtworzyć warunki rozwoju, nie ma pewności czy pewne procesy nie są losowe. Jeżeli są, to znowu dojdzie do zróżnicowania struktury mózgu, a zatem i jego działania.

Opublikowano
Godzinę temu, Bono_UG napisał(a):

Jak się spojrzy na poszczególne jednostki to tak. Jak na ogół społeczeństwa, to to nie działa.

Ludzie po prostu są wygodni, jak nie muszą czegoś robić, mogą zastąpić automatem, to to robią i nie oznacza, że zwolniony czas poświęcą na inne wyższe cele

Ok, możliwe. Tym lepiej dla ambitnych. 

Godzinę temu, Bono_UG napisał(a):

Biologia, to w zasadzie chemia, ta w zasadzie jest fizyką, która sprowadza się do matematyki.

IMO poniosła Cię tutaj fantazja. To, że fizyka korzysta z matmy, nie znaczy, że się do niej sprowadza. Fizyka korzysta z matematyki jako narzędzia do opisywania zjawisk, którymi ta się nie zajmuje. Biologia i chemia się zazębiają, ale również zajmują się różnymi zagadnieniami. 

Godzinę temu, Bono_UG napisał(a):

Mózg to jest bezduszna maszyna przetwarzająca bodźce, przechowująca wzorce. Tu nie ma większej filozofii, jedynie jego skomplikowana struktura nie pozwala nam jak na razie skopiować tego na komputery.

Godzinę temu, Bono_UG napisał(a):

Oczywistym jest, że klon nie będzie miał tych samych wspomnień, w końcu obecna technologia to tylko przeniesienie dna, a nie kompletna kopia osobnika.

Kilka razy w tygodniu mam kontakt z pracownikami naukowymi, którzy prowadzą badania z genetyki na uczelniach w Polsce i USA za dziesiątki milionów. Twierdzą inaczej. 

Opublikowano (edytowane)

Strasznie ogólnikowy ten artykuł. Mark Russinovich to jest mega łebski facet i fajni by było mieć w nim chociaż link do opisywanej pracy. Jest nowe narzędzie, to i stwarza nowe zagrożenia. Klasyczne IT bez AI też tak wygląda. Web i HTTP same w sobie pozwalają na gazylion różnych ataków i też się nie da przed tym w 100% ochronić, zwłaszcza gdy użytkownik jest dzbanem. Przykład? Jeśli hasło ma mieć na przykład dziesięć znaków, to dodanie na końcu dwóch wykrzykników, żeby zapamiętać swoje standardowe ośmioznakowe hasło, nie zwiększa jego bezpieczeństwa. Teraz dodać do tego, że większość ludzi ma to samo hasło do każdej strony www i przepis na katastrofę gotowy. Potem lament, jak te banki nie dbają o bezpieczeństwo swoich klientów. xD

 

Poza tym nawet najlepsze zabezpieczenia IT nie mają znaczenia, gdy atakujący dostanie się wewnątrz firmy. U nas mamy dwa razy do roku audyt bezpieczeństwa robiony przez zewnętrzną firmę. Robimy grey-box testy naszego softu i zawsze mamy blisko maxa punktów za zabezpieczenia i pentesterom nie udaje się przebić. Czy to oznacza, że nie da się tego złamać? Nie, przecież są 0-daye. Natomiast na pewno złamać nie jest łatwo i nie zrobi tego pierwszy lepszy zawodnik z gimnazjum. Tyle że to jest połowa sukcesu. Potem taki koleś wskakuje we wdzianko elektryka/hydraulika/speca od klimy i nagle sobie śmiga po biurze, bo ktoś go zawsze wpuści. Albo nawet się nie przebiera, bo gdy w biurze pracuje kilkaset osób, a większości nie znasz, bo praca z domu przez większość czasu, to wystarczy wejść do windy z dowolną grupą wracającą akurat z lunchu. I już obcy koleś sobie łazi po biurze.

Edytowane przez Karister
Opublikowano
W dniu 15.01.2025 o 16:43, Karister napisał(a):

 

Kilka razy w tygodniu mam kontakt z pracownikami naukowymi, którzy prowadzą badania z genetyki na uczelniach w Polsce i USA za dziesiątki milionów. Twierdzą inaczej.

Co twierdzą inaczej, to że klon będzie posiadał wspomnienia oryginału? Obawiam się, że Cię nabierają.

Opublikowano (edytowane)

Nie, nie twierdzą tak. Obawiam się, że mocno nadintepretujesz, bo inaczej nie znaczy przeciwnie. Pisałem wcześniej, co w tej kwestii mówi nauka (ta publicznie dostępna). Najchętniej udzielana odpowiedź na coś, co nie ma eksperymentalnego potwierdzenia, brzmi "nie wiadomo". Zarówno w kwestii klonowania, jak i kopiowania. Osoby od lat pracujące w nauce nie dają odpowiedzi typu tak/nie w kwestiach, które nie są faktem podpartym jakimiś solidnymi eksperymentami. Tymczasem ludzie niebędący znawcami, często walą na pewniaka, bo przeczytali coś w sieci albo im się wydaje. Typowy błąd poznawczy Dunninga-Krugera. Do tego jeszcze dochodzi kwestia tego, że nauka może się mylić, co jeszcze bardziej sprawy komplikuje. Niemniej, nie poczuwam się do przekonywania kogokolwiek do czegokolwiek w tej tematyce, bo jest mi o wiele bardziej odległa od AI. Ja tylko napisałem, że ludzie głęboko siedzący w temacie (wygrywający stypendia naukowe oraz mający wysokie współczynniki cytowań) nie oceniają takch rzeczy zerojedynkowo.

Edytowane przez Karister
Opublikowano (edytowane)
W dniu 13.01.2025 o 21:04, Oldman napisał(a):

z mojego doswiadczenia zarówno realizm jak i kwestie artystyczne są mocno po stronie MJ, jakis rok temu jak testowałem to pamietam ze Dalle lepiej rozumiał złożone polecenia niz MJ ale nie wiem jak jest teraz moze zrobie prosty test, postacie wychodziły (i chyba nadal wychodzą ) duzo mniej naturalnie i realistycznie w Dalle



 

O to mi dokładnie chodziło, pisząc o realizmie vs kwestie artystyczne. Gdyby prawa autorskie zostały uregulowane, ilustracje z Dalle można by dawać prosto na okładki dzieł popkulturowych, jak książki z kategorii fantastyka, bo pasują stylem do tych tworzonych ręcznie przez rysowników i ilustratorów (obrazek żołnierzy). MJ próbuje naśladować realizm (zdjęcia, filmy z zaawansowanym CGI), jakby przestawione tam zwierzęta, stworki czy ludzie były prawdziwe, ale ciągle ma przy tym problem z perspektywą. Obiekty blisko "obiektywu" są ostre, a dalej - rozmazane. Tak to w ogóle nie wygląda, czy się patrzy oczami, czy robi zdjęcia aparatem (chyba że się włączy specjalne ustawienia). Przykład kobiety i zamazanego tła z MJ oraz zdjęcie drzewa (gdyby robiło je MJ, z tyłu nic by nie było widać, tylko jakieś plamy).

 

MJ.jpg

 

IMG_20250119_094631.jpg

 

_5f2caa08-ad93-4b79-a05a-ae54e059c32d.jpg

Edytowane przez Áltair
Opublikowano (edytowane)

Swoją drogą, zastanawia mnie, czemu Open AI/GPT jest tak słabe w tłumaczeniach.

O niebo lepsze efekty daje Gemini czy Claude.

 

Ale w sumie już chyba stary Bard potrafił kreatywnie pisać?

Edytowane przez Kamiyanx
Opublikowano (edytowane)
Godzinę temu, Áltair napisał(a):

Tak to w ogóle nie wygląda, czy się patrzy oczami, czy robi zdjęcia aparatem (chyba że się włączy specjalne ustawienia)

Łomatkobosko.
Najpierw zdjęcie:
2024-India-Amritsar-12.jpg
To nie jest efekt żadnych 'specjalnych ustawień'. To jest efekt fizyki optycznej. Tak wyglądają zdjęcia z małą głębią ostrości zrobione z tzw. jasnym obiektywem i aparatem z większą matrycą od telefonicznych. MJ najwidoczniej stara się dosyć często symulować małą głębię ostrości. Jeżeli nie lubisz takiego 'odcięcia' tematu od tła, zapewne bez problemu da się odpowiednim elementem promptu wymusić dużą głębię ostrości na plikach z MJ. Tak samo, jak da się to zrobić w aparacie.

6 minut temu, LeBomB napisał(a):

a to nie jest po prostu tak, że stworzenie bardzo dokładnego tła pochłania zbyt dużo zasobów i dlatego zostało to uproszczone?

Absolutnie nie. Patrz wyżej. Można sobie też wpisać w google frazę "zdjęcia z małą głębią ostrości".

PS. Jeżeli już o zasobach, to już bardziej rozmycie je by zużywało mocniej, niż brak rozmycia. Widać to w świecie telefonów, w których coraz szybsze procki, wraz z lidarami, są w stanie coraz lepiej symulować to, co jest naturalne dla "poważnych" aparatów.

Edytowane przez jagular
  • Upvote 2
Opublikowano (edytowane)

@jagular wiem że można robić zdjęcia z rozmytym tłem i że to też od optyki zależy itd.

Jednak uważam, że wygenerowanie szczegółowego tła, mającego dużo detali zajęłoby za dużo czasu i zabrało za dużo zasobów. W związku z tym łatwiej ograniczyć tła do zarysów obiektów i rozmycia.

 

Edit: co do telefonów, to w nokii 625 czyli 13 lat temu? miałem opcję zmiany ostrości i głębi na już zrobionym zdjęciu.

Edytowane przez LeBomB
Opublikowano
17 minut temu, LeBomB napisał(a):

Jednak uważam, że wygenerowanie szczegółowego tła, mającego dużo detali zajęłoby za dużo czasu i zabrało za dużo zasobów. W związku z tym łatwiej ograniczyć tła do zarysów obiektów i rozmycia.

Żeby zrobić dobrze wyglądający efekt rozmycia tła, nazywany często efektem bokeh, trzeba się napracować. Ten efekt nie jest przypadkowy. To nie jest po prostu rozmyta prosta tekstura. 
Myślę że bez problemu da się zrobić w MJ obrazek bez takiego 'efektu', więc to nie jest tak, że MJ specjalnie sobie ułatwia obliczenia.

Tak naprawdę to takie rozmycie tła (i nie tylko, rozmywane jest wszystko poza zakresem ostrości) jest bardzo często porządane przez fotografujących. Obiektywy, które potrafią mocno rozmywać tło to najdroższe wersje obiektywów. Mówimy tu o poziomie kilkunastu-kilkuset tysięcy zł.

I nie, nie sądzę żeby kilkunastoletnia Nokia mogła dobrze rozmywać (programowo) tło na zdjęciach. Dopiero niedawno ten efekt w telefonach przeszedł z etapu "żałosny cringe" do "ok, jak przymknę oko to nawet" - przez zwiększenie mocy przerobowej oraz obecność lidarów. Nokia sprzed lat nie miała lidara, nie?

Opublikowano
6 godzin temu, Karister napisał(a):

 nie oceniają takch rzeczy zerojedynkowo.

Generalnie okej. Powstał rodzaj mody na odpowiedzi typu: nie wiemy, nie jesteśmy pewni itp. powstało takie przekonanie, że naukowcy powinni tak mówić, bo to jest takie naukowe oraz skromne. I ma to w tym też pewien udział. Co do klonów: one nigdy nie będą się tak samo rozwijać. Wystarczy, że zjedzą inne rzeczy albo o innej godzinie i już rozwój organizmu potoczy się nieco inną drogą. Zobaczą albo usłyszą inne rzeczy i już powstaną inne połączenia międzyneuronowe. A wspomnienia to na pewno połączenia międzyneuronowe. Być może nie tylko one, ale na pewno między innymi. Dlatego o kopiowaniu wspomnień w drodze klinowania nie może być mowy. Wg mnie zero-jedynkowo.

Opublikowano (edytowane)
13 godzin temu, jagular napisał(a):

Łomatkobosko.
To nie jest efekt żadnych 'specjalnych ustawień'. To jest efekt fizyki optycznej. Tak wyglądają zdjęcia z małą głębią ostrości zrobione z tzw. jasnym obiektywem i aparatem z większą matrycą od telefonicznych. MJ najwidoczniej stara się dosyć często symulować małą głębię ostrości. Jeżeli nie lubisz takiego 'odcięcia' tematu od tła, zapewne bez problemu da się odpowiednim elementem promptu wymusić dużą głębię ostrości na plikach z MJ. Tak samo, jak da się to zrobić w aparacie.

Absolutnie nie. Patrz wyżej. Można sobie też wpisać w google frazę "zdjęcia z małą głębią ostrości".
 

O tym właśnie piszę. Najzwyklejsze zdjęcie, robione bez wybierania ustawień, będzie miało w tle ostre obiekty, gdy przedmiot dominujący, jak ten Twój mężczyzna ze zdjęcia czy drzewo, będą się znajdować ponad 2 metry od obiektywu/obserwatora. Tak działa ludzie oko. I w tym zdaniu tkwi sendo (kwestia nakarmienia MJ treściami graficznymi z sieci):

 

Cytat

MJ najwidoczniej stara się dosyć często symulować małą głębię ostrości.

 

Edytowane przez Áltair
Opublikowano (edytowane)
17 godzin temu, Áltair napisał(a):

 MJ próbuje naśladować realizm (zdjęcia, filmy z zaawansowanym CGI), jakby przestawione tam zwierzęta, stworki czy ludzie były prawdziwe, ale ciągle ma przy tym problem z perspektywą. Obiekty blisko "obiektywu" są ostre, a dalej - rozmazane. Tak to w ogóle nie wygląda, czy się patrzy oczami, czy robi zdjęcia aparatem (chyba że się włączy specjalne ustawienia). Przykład kobiety i zamazanego tła z MJ oraz zdjęcie drzewa (gdyby robiło je MJ, z tyłu nic by nie było widać, tylko jakieś plamy).

 

 

To nie jest problem z perspektywą tylko zabieg celowy, przeciez na wielu zdjeciach portretowych też masz głębie ostrosci małą w celu zwiekszenia czytelnosci 1 planu. MJ korzysta z takich zdjęć do szkolenia modeli bo to sie ludziom podoba i jest znacznie czytelniejsze i przyjemniejsze w odbiorze niz portrety z duzą głębią ostrosci. Tutaj nie chodzi o to zeby AI było w stanie wygenerowac tylko i wyłącznie takie zdjecia jak widzi ludzkie oko ale też inne

Edytowane przez Oldman
Opublikowano
2 godziny temu, Áltair napisał(a):

O tym właśnie piszę. Najzwyklejsze zdjęcie, robione bez wybierania ustawień, będzie miało w tle ostre obiekty, gdy przedmiot dominujący, jak ten Twój mężczyzna ze zdjęcia czy drzewo, będą się znajdować ponad 2 metry od obiektywu/obserwatora. Tak działa ludzie oko. I w tym zdaniu tkwi sendo (kwestia nakarmienia MJ treściami graficznymi z sieci):

 

 

Nie :)

Zawsze są jakieś ustawienia, w zależności od sprzętu taka mała głębia ostrości to mogą być ustawienia domyślne, z których się zaczyna ustawianie parametrów. To, że na zdjęciach z telefonów nie ma aż tak zaakcentowanego efektu rozmycia jest wynikiem jedynie tego, że telefony mają malutkie matryce i obiektywy, a nie że jakaś specjalna, dodatkowa magia się gdzieś wydarza ;) 

 

I znowu nie: fotografia nie działa jak ludzkie oczy :) 

 

Mała głębia ostrości to po prostu, jak wyżej napisano, efekt pożądany i tyle.

Opublikowano (edytowane)
W dniu 15.01.2025 o 16:43, Karister napisał(a):

IMO poniosła Cię tutaj fantazja. To, że fizyka korzysta z matmy, nie znaczy, że się do niej sprowadza. Fizyka korzysta z matematyki jako narzędzia do opisywania zjawisk, którymi ta się nie zajmuje. Biologia i chemia się zazębiają, ale również zajmują się różnymi zagadnieniami. 

Jeżeli w fizyce nie da się czegoś wyrazić matematyką, to wchodzi się w sferę filozofii ;)
Współczesna fizyka, to do bólu grzebanie w modelach matematycznych. To nadal jest nazywane fizyką, tylko dlatego że to podzbiór matematyki, jej praktyczne zastosowanie, plus pewna abstrakcja opisująca sens wzorów i wyliczeń.

Podobnie z chemią. Nie kojarzę, żeby było w niej coś nieopisywalnego prawami fizyki. Plus znowu pewna abstrakcja pomagająca zrozumieć co się właściwie dzieje.

Biologia, to połączenie chemii i fizyki, plus kolejna abstrakcja pojęciowa.

 

W kontekście możliwości symulowania, odtworzenia, te wszystkie zagadnienia sprowadzają się do matematyki, a ta dosyć dobrze się wkłada w komputery. Jedyne czego mocno brakuje, to mocy obliczeniowej, żeby to wszystko dokładnie modelować, budować coraz bardziej złożone układy.

W dniu 15.01.2025 o 16:43, Karister napisał(a):

Kilka razy w tygodniu mam kontakt z pracownikami naukowymi, którzy prowadzą badania z genetyki na uczelniach w Polsce i USA za dziesiątki milionów. Twierdzą inaczej.

Tutaj ciężko mi skomentować, bo nie wiem czy odnosisz się do konkretnych tez jakie postawiłem, czy do całości. Tak samo nie precyzujesz czym te badania z genetyki są, do jakich zagadnień się odnoszą.

Tak czy inaczej jak na razie nikt nie udowodnił istnienia duszy, żeby praca mózgu wymykała się prawom fizyki. A skoro się nie wymyka, to jest możliwe algorytmiczne odtworzenie pracy umysłu. Oczywiście nie jest to na tyle proste, że się zrobi od ręki, jest sporo niewiadomych typu "gdzie/kiedy pojawia się świadomość". Być może coraz bardziej zaawansowane i złożone sieci neuronowe pomogą i te sprawy odkryć.

 

@Áltair

Ten obraz z drzewem jeżeli jest wygenerowany, to faktycznie ciężko odróżnić od zdjęcia. Bardziej już trzeba zwracać uwagę na pewną logiczną część, a nie niedoskonałości samego obrazowania. Np. trochę za mocno obrośnięty ten pień na pierwszym planie, sucha trawa zbyt często zagięta/złamana.

7 godzin temu, Áltair napisał(a):

Tak działa ludzie oko.

Ludzkie oko ma dosyć małą głębię ostrości, może nie rozmywa tak mocno jak zdjęcia nastawione na ten efekt, ale ogólnie bardzo wąsko widzimy ostro. Wystarczy spojrzeć na górę strony, a dół będzie nieczytelny, w zasadzie już kilka linijek obok ciężko cokolwiek odczytać.

Druga kwestia, to mózg bardzo dużo rzeczy sobie dopowiada, interpretuje, więc pewne rzeczy nie wydają się w postrzeganiu nieostre.

Trzecia, to zasady optyki są te same. Im bliżej jest obserwowany obiekt, tym tło bardziej rozmyte, im dalej ostrzymy, tym obiekty blisko bardziej rozmyte.

Edytowane przez Bono_UG
Opublikowano
1 godzinę temu, Bono_UG napisał(a):

Jeżeli w fizyce nie da się czegoś wyrazić matematyką, to wchodzi się w sferę filozofii ;)
Współczesna fizyka, to do bólu grzebanie w modelach matematycznych. To nadal jest nazywane fizyką, tylko dlatego że to podzbiór matematyki, jej praktyczne zastosowanie, plus pewna abstrakcja opisująca sens wzorów i wyliczeń.

Podobnie z chemią. Nie kojarzę, żeby było w niej coś nieopisywalnego prawami fizyki. Plus znowu pewna abstrakcja pomagająca zrozumieć co się właściwie dzieje.

Biologia, to połączenie chemii i fizyki, plus kolejna abstrakcja pojęciowa.

Kompletnie się nie zgadzam, że fizyka to podzbiór matematyki. Tak jak napisał Karister, matematyka jest w fizyce narzędziem. I to o wiele mniej doskonałym, niż się powszechnie uważa. Nie mamy lepszego i z tym należy się zgodzić. Ale wiele modeli ma charakter jedynie przybliżony i to na przeróżne sposoby i z przeróżnych powodów. To jest zajebista sprawa, że świat jest w miarę matematyczny, ale - przynajmniej na obecnym poziomie wiedzy - kompletnie nie da się go sprowadzić do znanych nam modeli matematycznych. Sztandarowy przykład może być choćby taki, że zjawiska nadprzewodnictwa nijak nie potrafimy wyprowadzić z podstawowych modeli matematycznych funkcjonujących w fizyce. A jest takich przykładów sporo więcej, np. przepływy cieczy itd.

 

Z tym że chemia musi się sprowadzać do fizyki trzeba się zgodzić, ale ponownie nie znamy odpowiednich struktur matematycznych (mogą istnieć albo mogą nie istnieć - nie wiadomo), które by umożliwiły przewidzenie pewnych rzeczy w chemii, na podstawie podstawowych praw fizyki. Rozum mówi, że to się musi sprowadzać, ale jeszcze mamy zbyt słabo zaawansowaną wiedzę, aby to w praktyce działało. na ile znamy i rozumiemy prawa fizyki, też można dyskutować.

 

Czy biologia sprowadza się do fizyki i chemii, to osobny duży temat.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Dokładnie, ale to dalej bardzo dobre karciochy, więc można sobie na nich jeszcze siedzieć. Ja myślałem o 5070TiS, ale chyba można zapomnieć. Teraz mi chodzi po głowie, czy może nie kupić jakiejś 5070Ti/5080 na wszelki wypadek, bardziej bym się skłaniał ku 5070Ti. Niby jeszcze mi 12GB pamięci nie brakło, ale jak ma coś pójść nie tak i ceny pójść znacząco w górę Szkoda mi tylko wymieniać kartę dla samej pamięci i tylko 25% wydajniejszą, bo fanu z tego nie będzie  Troche tak, zwłaszcza jak Ty siedzisz dość długo na jednej karcie. Ale to jest patologia w wykonaniu nvidii co oni wyprawiają z tą pamięcią. 5060Ti, która jest w rasterze 25% wydajniejsza od 5 letniej 3060Ti ma tyle samo pamięci co 5080, gdzie 5080 z miejsca powinna mieć 24GB. Już nie mówiąc o 4060Ti 16GB i 4070Ti 12GB.
    • Wkleiłem @DaveCam Nawet cytowany @Jardier zachował się prawie tak samo niekonkretnie. Mam ci wyszukać wszystkich żeby zaspokoić twoje ego ? Chyba obaj nie wypełzliśmy spod jutubowego kamienia.   Wkleiłem linki twórców, którzy uważam że coś wnoszą, testują głębiej James Baldwin, @GamersMuscle
    • Możesz pokazać kto tak robi ze mówi: mi też się nie podoba i że jest to bełkot? Bo tylko widzę narzekanie że ten i tamten narzeka i bełkocze ale bez jakiś konkretów, że narracja jest taka i wszystkich jakby się zmówili co mają mówić. Trochę to wygląda jak? Bełkot
    • Przeciez roznica miedzy 9700x a 9800xd to 75-100mhz   W grach roznica jest zadna miedzy odkreconym cpu, a limitem ppt 88W  To co najwyzej w cine bedziesz mial wiecej ptk i to tyle   Jakie napieice i vid podczs testu raportuje ?  Nie wiem jak bardzo by musiala byc spartolona gra zebys mial drop z 250 na 120 fps tak wiec wymyslac torche abstrakcyjne scenariusze  I to by byla tylko i wylacznie wina gry a nie slabego cpu. Jak widac na ciebie placebo dobrze dziala ale to najwazniejsze ze dziala   W codzie na skreconym ppt i prilu bez kaganca nie ma zadnej roznicy w testach  Wiem bo testowalem   Jak jakis wbity limit nie dziala tzn ze jest problem z plyta/bios. Ja nie mam problemu z limitami, co  wklepie tak jest wiec moze sprawdz inny bios lub czy faktycznie zapisujesz ustawienia. Pusc cb23 i pokaz ile wypluje ptk przy takim poborze, jestem ciekaw.
    • piłeś nie pisz albo idź już spać i patrz co cytowałem https://brd24.pl/spoleczenstwo/pijany-biznesmen-w-darlowie-sedzia-nie-zabrala-mu-nawet-prawa-jazdy-umorzenie/
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...