Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano (edytowane)
15 godzin temu, Bono_UG napisał(a):

Jeżeli w fizyce nie da się czegoś wyrazić matematyką, to wchodzi się w sferę filozofii ;)
Współczesna fizyka, to do bólu grzebanie w modelach matematycznych. To nadal jest nazywane fizyką, tylko dlatego że to podzbiór matematyki, jej praktyczne zastosowanie, plus pewna abstrakcja opisująca sens wzorów i wyliczeń.

Podobnie z chemią. Nie kojarzę, żeby było w niej coś nieopisywalnego prawami fizyki. Plus znowu pewna abstrakcja pomagająca zrozumieć co się właściwie dzieje.

Biologia, to połączenie chemii i fizyki, plus kolejna abstrakcja pojęciowa.

Zupełnie o czym innym była mowa. Matematyka, fizyka i chemia to są osobne nauki, które zajmują się różnymi tematami. To, że jedna korzysta z drugiej niczego tu nie zmienia. Chyba, że ktoś trywializuje wszystko do poziomu podstawówki i wszystko to dla niego to samo, bo są cyferki. W geografii też są.

15 godzin temu, Bono_UG napisał(a):

W kontekście możliwości symulowania, odtworzenia, te wszystkie zagadnienia sprowadzają się do matematyki, a ta dosyć dobrze się wkłada w komputery. Jedyne czego mocno brakuje, to mocy obliczeniowej, żeby to wszystko dokładnie modelować, budować coraz bardziej złożone układy.

Jak wyżej - ja nie mam tendencji do upraszczania wszystkiego do granic możliwości i dopuszczam, że jest coś, czego nie wiem. Mocy obliczeniowej może brakować do jakiegoś algorytmu, który już został opracowany na podstawie wiedzy o symulowanym zjawisku. Natomiast ów wiedzy często jeszcze brakuje i jak sam zauważyłeś:

15 godzin temu, Bono_UG napisał(a):

Oczywiście nie jest to na tyle proste, że się zrobi od ręki, jest sporo niewiadomych typu "gdzie/kiedy pojawia się świadomość". Być może coraz bardziej zaawansowane i złożone sieci neuronowe pomogą i te sprawy odkryć.

Zatem być może pomogą, a być może nie, bo wciąż brakuje wiedzy z chemii i biologii oraz istnieje wiele niewiadomych. Dlatego znowu nie kupuję uogólnień i trywializacji pod tytułem:

15 godzin temu, Bono_UG napisał(a):

A skoro się nie wymyka, to jest możliwe algorytmiczne odtworzenie pracy umysłu.

Właśnie sęk w tym, że obecnie nie jest to możliwe. Bez dokładniejszego zrozumienia mechanizmów stojących za pracą umysłu i świadomości żadna moc obliczeniowa, póki co nie pomoże. Co będzie kiedyś - tego ani ja, ani Ty, ani naukowcy nie wiemy. Równie dobrze może być tak, że całe AI odejdzie w zapomnienie, a nauka wróci do klasycznych algorytmów. Świat się zachłysną nową technologią i dominują click-baitowe tytuły o jej niesamowitych możliwościach, ale warto też popatrzeć na drugą stronę medalu. Open AI liczy roczne straty w miliardach dolarów z powodu kosztów ponoszonych na potrzebną moc obliczeniową i nie przewiduje wyjścia na plus przed 2029.

Edytowane przez Karister
Opublikowano

@adashi

Nie ma i nigdy nie będzie dokładnych modeli, to jest po prostu niemożliwe.

Problem nie wynika z samych braków w matematyce, tylko w złożoności układów jakie próbujemy opisać. Ta wspomniana mechanika płynów, żeby ją dobrze opisać, to potrzeba by wzorów na wszystkie interakcje, wszystkich cząstek w danym miejscu. Dodatkowo musielibyśmy znać dokładny stan każdej z tych cząstek, żeby te równania rozwiązać.

 

Modele przybliżone jak na razie do większości rzeczy nam wystarczają, są wystarczająco dokładne.

I tak, zgodzę się że do pełnej symulacji w chemii są za słabe, tyle że tutaj znowu jest problem odtworzenia warunków początkowych interakcji na poziomie elektronów itp.

Tak samo zgoda, że język fizyki, chemii, biologii są pewnymi uproszczeniami, agregacją tych interakcji cząstek w abstrakcję na poziomie sił, związków chemicznych, fizjologii itp. Tak po prostu łatwiej opisać te zjawiska niż wzorem na kilka tomów.

 

Ale to też pokazuje w jakim kierunku można iść w SI, że sednem powinno być budowanie abstrakcji na poziomie przepływającej informacji, a nie sama fizyczna konstrukcja sieci neuronowych, czy innych algorytmów.

 

@Karister

Dla mnie sedno problemu w SI jest chęć odtworzenia pracy mózgu - literalnie. Nie, do stworzenia faktycznie sztucznej inteligencji nie musimy tego robić 1:1, więc też nie potrzebujemy pełnej wiedzy.

Skupianie się jak faktycznie działa, jaka jest interakcja między neuronami, hormonami itp. to częściowo ślepa uliczka z bardzo dużymi kosztami rozwoju.
Tak jak w fizyce nie musimy mieć bardzo dokładnych modeli, tak i tutaj nie potrzeba, tylko trzeba się skupić na sednie sprawy, czyli na poziomie informacji zbieranej i przetwarzanej w mózgu. To właśnie ta informacja jest inteligencją, wiedzą, świadomością, nie jakiś nieodkryty organ, jakieś niezwykłe właściwości fizyczne, czy chemiczne neuronów.

 

Wybacz za kolejną trywializację, ale pojedynczy neuron można sprowadzić do pojedynczego tranzystora. Jest wejście, wyjście i warunki do spełnienia, żeby przepuścić sygnał. Wiadomo, że to bardziej skomplikowany układ z wieloma wejściami, wieloma modyfikatorami działania, ale sednem jest przyjęcie informacji, ewentualne proste przetworzenie i wydanie (bądź nie) informacji na zewnątrz. To potrafimy zbudować i to będzie pojedynczy węzeł sieci neuronowej. Łączyć w sieci też potrafimy, czyli mamy już podstawy do tworzenia sztucznego mózgu.

 

Rozbijamy się na zbyt prostych sieciach, braku mocy obliczeniowej. Gdy zwiększymy możliwości, to będzie łatwiej zrobić bardziej złożone struktury.

Obecne sprowadzają się do wytwarzania wzorców i generacji na ich podstawie. Pewnie nie jestem na bieżąco, ale brakuje sprzężenia zwrotnego, nieustannej nauki, przebudowy struktury sieci. Druga kwestia dotyczy poszerzenia zakresu wytwarzanych wzorców, bo obecne są dosyć monotematyczne i skupione głównie na wzorcach językowych i obrazach. Zdecydowanie brakuje wzorców behawioralnych, tego czego uczymy się od niemowlaka.

Mózg biologiczny ciągle odbiera bodźce zewnętrzne, ciągle je przetwarza. Tak samo bodźce wewnętrzne ciągle krążą, są na nowo przetwarzane. Tego sztuczne sieci z tego co wiem są pozbawione, wpuszcza się dane do przetworzenia i po wydaniu proces ustaje.

 

Tutaj może się kryć trudność z przeskoczeniem na wyższy poziom, że nie wiemy w jaki sposób taką sieć zapętlić, w jaki sposób przygotować algorytmy do samoistnej rozbudowy, przemodelowania sieci. Ale to po prostu trzeba drążyć i próbować różnych rzeczy, tak jak do tej pory to się działo z postępem technologicznym.

7 godzin temu, Karister napisał(a):

Równie dobrze może być tak, że całe AI odejdzie w zapomnienie, a nauka wróci do klasycznych algorytmów.

Nauka nie odejdzie od algorytmów SI, po prostu są zbyt dobre do rozwiązywania części problemów, z którymi klasyczne sobie kiepsko radzą. Tak samo jak nie odeszło się od metod numerycznych, algorytmów MC, bo szukanie dokładnego rozwiązania jest zbyt skomplikowane lub zbyt czasochłonne.

Biznesowo owszem, może się nie spinać i będzie odwrót, ale znając życie to na jakąś dekadę, bo wtedy znowu będzie jakiś duży krok do przodu. Nie pierwsza i nie ostatnia fala popularności SI, a ile miała wcześniejszych nazw (pamięta ktoś cybernetykę?).

Opublikowano

Są nieliczne dokładne modele odwzorowujące rzeczywistość. Np. model oddziaływania dwóch ciał. Dokładamy trzecie ciało i nagle mamy klops. Czyli już tylko model z przybliżeniami. A raczej nie sposób uważać, że układ trzech ciał to układ nadmiernie skomplikowany. Zatem jest tu problem o wiele bardziej fundamentalny niż poziom komplikacji technicznych. I wszystko co wymaga różnych odmian rachunku zaburzeń takie jest. Plus to co się wykonuje w sprzeczności ze znaną matematyką aby uzgodnić teorię z doświadczeniem. Różne takie usuwania nieskończoności i takie tam.

 

Matematyka to użyteczny język opisu ale na obecnym etapie jego rozumienia chyba nieco przereklamowany. Jeśli tylko wyjdziemy poza poziom szkolny.

Dodajmy do tego kompletną porażkę teorii super strunowych. A taka to była śliczna matematyka.

 

Dla mnie jesteśmy nadal bardzo daleko od realnej sztucznej inteligencji. Nie podzielam niepokojów Dragana et cons.

Opublikowano

Jest coś podobnego do chatgpt pod kątem pisania skryptów? Jak był jeszcze w wersji darmowej to testowałem go pod katem pisania skryptów do MTA w języku lua i radził sobie całkiem nieźle. Testowałem też, np. google gemini i co prawda napisze czasem jakiś skrypt ale marnie mu to idzie.

Opublikowano

Pewnie to co zwykle. Zaczniemy od spraw najważniejszych. Czyli od parytetów dla kobiet, onu/jenu oraz dla czarnych w tym nowym sektorze. Trzeba też będzie pomyśleć nad regulacjami, abyśmy nie mieli tu przypadkiem wolnej amerykanki. Na myślenie o pieniądzach przyjdzie czas.

  • Haha 2
  • Upvote 1
Opublikowano
2 godziny temu, GordonLameman napisał(a):

Zmusi amerykańskie korporacje do grania według europejskich zasad :) 

Im europa mnie znaczy, tym mniej będzie mogła dyktować warunki. Na to liczę. UE ma zostać sprowadzone do nieistotności na globalnym rynku. 

Opublikowano
15 godzin temu, cichy45 napisał(a):

https://www.cbsnews.com/amp/news/trump-announces-private-sector-ai-infrastructure-investment/

 

Trump ogłosi pakiet 500 miliardów dolarów inwestycji w sektor AI. 

l0HefZY0mFfLS9AFa.webp

 

Ciekawe co europa na to :)

 

Ale bida, tworzy się wokół każdej gwiazdy superkomputer Matrioszka tak w całej Galaktyce i powstaje Godlike AI, a nie te bieda Trumpowe wymysły. :E

Opublikowano
7 godzin temu, cichy45 napisał(a):

Im europa mnie znaczy, tym mniej będzie mogła dyktować warunki. Na to liczę. UE ma zostać sprowadzone do nieistotności na globalnym rynku. 

Dziecięce bzdury.

 

Europa to większy rynek niż USA i Kanada razem :) 

 

Zawsze jesteśmy łakomym kąskiem i dlatego zawsze giganci tej branży się do nas koniec końców przystosowują. :) 

Opublikowano
Godzinę temu, GordonLameman napisał(a):

Europa to większy rynek niż USA i Kanada razem :) 

 

Zawsze jesteśmy łakomym kąskiem i dlatego zawsze giganci tej branży się do nas koniec końców przystosowują. :) 

Popełniasz klasyczny błąd ludzi niewyedukowanych, którzy myślą że jak było tak, to już zawsze będzie. 

Opublikowano
1 minutę temu, cichy45 napisał(a):

Popełniasz klasyczny błąd ludzi niewyedukowanych, którzy myślą że jak było tak, to już zawsze będzie. 

Mam lepszą edukację biznesową niż ty dziecko.

 

Liczba ludności się nie zmienia a zamożność europy jest wciąż duża. Zupełnie inaczej niż się uroiło w twojej główce.

Opublikowano

 

 

 

 

Cytat

Darmowe $100 salda do Kluster.ai (m.in. API do DeepSeek-R1 - porównywalny model AI do o1 od OpenAI)

 

Platforma kluster.ai oferuje $100 w darmowych kredytach dla nowych użytkowników na start. To świetna okazja do przetestowania niedawno wydanego, porównywalnego do o1 od OpenAI modelu sztucznej inteligencji po API.

 

Co można zrobić za te kredyty
- Używać jak zwykłego chatu w trybie playground
- Używać po API model DeepSeek-R1 (normalnie za darmo jest wersja bez API, tutaj: chat.deepseek.com/)

 

Coś szczególnego?


Dzięki takiemu dostępowi API można samemu stworzyć coś na wzór wczoraj opublikowanego operatora od OpenAI - agenta, który wykona polecenia z dostępem do przeglądarki, np wyszuka promocje, zarezerwuje wizyty, czy inne rzeczy w zakresie przeglądarki.
Póki co operator od OpenAI działa tylko w USA, w planie za $200, a na dodatek używa słabszego modelu 4o, który jest dużo gorszy od DeepSeek-R1.

https://www.pepper.pl/promocje/darmowe-100-salda-do-klusterai-min-api-deepseek-r1-porownywalny-do-o1-od-openai-978071#comments

  • Upvote 1
Opublikowano
W dniu 25.01.2025 o 21:01, LeBomB napisał(a):

DeepSeek ma faktycznie spore możliwości, komunikuje się też po Polsku. Jedyny zgrzyt dla mnie, to fakt, że jest chińskim produktem więc pod jakie standardy ochrony danych podlega. 

 

 

Chwilę testowałem czy u mnie w pracy się sprawdzi i o dziwo potrafi wypluć całkiem dobry kod, gdzie ChatGPT totalnie leży i daje składnię, która nie istnieje. 

 

Podobno świetnie liczy i rozwiązuje zadania np. z tematyki maklerskiej.

Opublikowano

Chińczyki potrafią walnąć z grubej rury, z kapitalizacji Nvidia wyparowało ponad 560 mld dolarów :o

 

Cytat

Za nami największa w historii strata kapitalizacji rynkowej. Ponad 550 mld dol. jednego dnia

Pojawienie się sztucznej inteligencji DeepSeek doprowadziło do wyprzedaży akcji spółek technologicznych. Najwięcej straciła Nvidia, która nie jest już najdroższą firmą na świecie. Z jej kapitalizacji wyparowało ponad 560 mld dol.

 

...

 

Chińczycy prztyczkiem w nos pokazują Zachodowi, że można w składzie 150-200 osób z niskim budżetem dać ludzkości otwarte modele AI, za których rozwój inwestorzy płacili miliardy dol. — mówi Jarosław Królewski, CEO i współzałożyciel Synerise dla Business Insider Polska.

https://businessinsider.com.pl/gielda/za-nami-najwieksza-w-historii-strata-kapitalizacji-rynkowej-ponad-550-mld-dol-jednego/j2sdx4y

 

 

Spoiler

GiUqPGTW4AA7jvY?format=png&name=small

 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Dokładnie, ale to dalej bardzo dobre karciochy, więc można sobie na nich jeszcze siedzieć. Ja myślałem o 5070TiS, ale chyba można zapomnieć. Teraz mi chodzi po głowie, czy może nie kupić jakiejś 5070Ti/5080 na wszelki wypadek, bardziej bym się skłaniał ku 5070Ti. Niby jeszcze mi 12GB pamięci nie brakło, ale jak ma coś pójść nie tak i ceny pójść znacząco w górę Szkoda mi tylko wymieniać kartę dla samej pamięci i tylko 25% wydajniejszą, bo fanu z tego nie będzie  Troche tak, zwłaszcza jak Ty siedzisz dość długo na jednej karcie. Ale to jest patologia w wykonaniu nvidii co oni wyprawiają z tą pamięcią. 5060Ti, która jest w rasterze 25% wydajniejsza od 5 letniej 3060Ti ma tyle samo pamięci co 5080, gdzie 5080 z miejsca powinna mieć 24GB. Już nie mówiąc o 4060Ti 16GB i 4070Ti 12GB.
    • Wkleiłem @DaveCam Nawet cytowany @Jardier zachował się prawie tak samo niekonkretnie. Mam ci wyszukać wszystkich żeby zaspokoić twoje ego ? Chyba obaj nie wypełzliśmy spod jutubowego kamienia.   Wkleiłem linki twórców, którzy uważam że coś wnoszą, testują głębiej James Baldwin, @GamersMuscle
    • Możesz pokazać kto tak robi ze mówi: mi też się nie podoba i że jest to bełkot? Bo tylko widzę narzekanie że ten i tamten narzeka i bełkocze ale bez jakiś konkretów, że narracja jest taka i wszystkich jakby się zmówili co mają mówić. Trochę to wygląda jak? Bełkot
    • Przeciez roznica miedzy 9700x a 9800xd to 75-100mhz   W grach roznica jest zadna miedzy odkreconym cpu, a limitem ppt 88W  To co najwyzej w cine bedziesz mial wiecej ptk i to tyle   Jakie napieice i vid podczs testu raportuje ?  Nie wiem jak bardzo by musiala byc spartolona gra zebys mial drop z 250 na 120 fps tak wiec wymyslac torche abstrakcyjne scenariusze  I to by byla tylko i wylacznie wina gry a nie slabego cpu. Jak widac na ciebie placebo dobrze dziala ale to najwazniejsze ze dziala   W codzie na skreconym ppt i prilu bez kaganca nie ma zadnej roznicy w testach  Wiem bo testowalem   Jak jakis wbity limit nie dziala tzn ze jest problem z plyta/bios. Ja nie mam problemu z limitami, co  wklepie tak jest wiec moze sprawdz inny bios lub czy faktycznie zapisujesz ustawienia. Pusc cb23 i pokaz ile wypluje ptk przy takim poborze, jestem ciekaw.
    • piłeś nie pisz albo idź już spać i patrz co cytowałem https://brd24.pl/spoleczenstwo/pijany-biznesmen-w-darlowie-sedzia-nie-zabrala-mu-nawet-prawa-jazdy-umorzenie/
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...