Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano
6 godzin temu, VRman napisał(a):

Ale takie beztalencia jak ja mają czasem nienajgorszy pomysł, tylko brak umiejętności.

Od dekady marzy mi się program, który byłby faktycznie rozumny i wykonywał niebezpośrednie rozkazy odnośnie muzyki, typu "tu zmień trochę nastrój" albo "oprzyj się o styl taki a taki widywany w latach takich a takich w takich a takich miejscach" czy "podmień instrumenty tak, aby uzyskać rezultat który bardziej będzie pasował do (tu wstaw atmosferę jaką chcesz uzyskać)

No właśnie, bo czasem masz pomysł, masz melodię i brzmienie w głowie, ale nie masz umiejętności i zdolności by to przenieść na instrumenty lub ustawienia w programach. 

Opublikowano

:rotfl2:

 

Cytat

Od 40 minut czekam aż ChatGPT zamówi mi pizzę. 
Kiedy już zrozumiał, że jeden z agregatorów jedzeniowych wbił mu złe miasto na podstawie nazwy ulicy, to nie był w stanie ogarnąć, że poprawienie miasta w adresie z Łodzi na Kraków nie sprawi, że nagle łódzka pizzeria obsłuży mu dowóz do Krakowa. Na szczęście po kilkudziesięciu próbach obejścia  tego samego komunikatu błędu i klikania w co popadnie oprzytomniał! Poddał się i wrócił do wyszukiwarki aby znaleźć jakąś pizzerię z Krakowa. No i... z tysięcy pizzerii w Krakowie wybrał Pizzę Hut 🤦‍♂️ potem 8 minut przechodził ścieżkę zakupową i przez 6 kolejnych męczył się z tym, jak zamówić jako "gość", bez logowania. 
Pizzy wciąż nie mam, ale mimo wszystko jestem zadowolony. Do zagłady świata spowodowanej AI-em jeszcze minie trochę czasu. No chyba, że strategia AI to zagłodzić nas na śmierć.


556465670_10163262538589183_635552046457

https://www.facebook.com/piotrkonieczny/posts/pfbid02xDTfWTJdMaC1ee7mC6Tc1MFcf27XQE2CkRMeWTCi1ZoddQ9c2K9MGC39UT7vspYJl

  • Haha 1
Opublikowano (edytowane)

@ITHardwareGPT

 

jakie AI, bys tu polecił lokalnie ? na tym sprzęcie 

 

Płyta Głowna - ASRock - B450M-HDV R.4.0
System : Windows 11 Home
Internet : Światłowód
Procesor - AMD Ryzen 5 4500 3.6 GHz
Chłodzenie procesora : Arctic Freezer 36 120mm
Pamięć Ram - G.Skill Aegis DDR4 32 GB (2x16GB) 3200MHz CL16
Dysk - Lexar 1TB M.2 PCIe NVMe NM620 ( z radiatorem)
System dysk : 464 GB SSD NVME
Dysk na GRY : 488 GB SSD NVME
Dysk na Dane : 446 GB SSD
Karta Graficzna - Inno3D RTX 3060 12GB
Obudowa - Silver Monkey X Fence TG
Zasilacz - Seasonic FOCUS GX-650 80Plus Gold 650W

 

puki co testuje, dockera, open web gui, Polski model Językowy Bielik 11B

 

 

Edytowane przez T-Srcipt-36
Opublikowano
@T-Srcipt-36 – z Twoją 3060 12 GB da się sporo zamieszać. Poniżej szybki „starter pack” pod lokalne AI (obrazy, tekst, wideo, audio):

1. LLM (teksty, czaty)
• Ollama / text-generation-webui (CUDA) – najprościej odpalisz:
– Bielik 11B Q4_K_M (PL) – już masz.
– Mistral-7B-Instruct Q4_K_S – świetny ogólny, 12-15 tok/s.
– Llama-2-13B Q4_0 – wejdzie, ale część RAM-CPU; 6-8 tok/s.
– Phi-2 (2,7 B) – szybki „notesik” + koderka.
Tip: GGUF + `--n-gpu-layers 35` (3060 bierze ~9 GB, reszta na RAM).

2. Grafika (Stable Diffusion) – AUTOMATIC1111 lub ComfyUI
GPU 12 GB =
• SD 1.5: idzie pełne 768/832 px bez kombinacji.
– Fotoreal: RealisticVision 5.1, EpicRealism, Juggernaut v9.
– Anime/toon: Anything v4.5, MeinaMix, Counterfeit.
• SDXL 1.0: 1024 px w trybie `--medvram`/xFormers (z refinerem na 0.25).
– Przyspieszacz: SDXL Lightning / LCM-LoRA → 4–8 kroków.
• Must-have nody: ControlNet (canny, depth, openpose, tile), IP-Adapter, InstantID.
• Upscale/retusz: Real-ESRGAN x4 general + CodeFormer.

3. Wideo/animacja
• AnimateDiff (MotionModule 512, SD 1.5) – 512–640 p, 16 kl./s, 2–3 s klipy ← wchodzi ~11-12 GB VRAM.
• Stable Video Diffusion img2vid-XT (576 p) – zjada ~9 GB; generujesz 48-72 klatek → Real-ESRGAN do 1080 p.
• Interpolacja płynności: RIFE 4.6 (CUDA) – potem FFmpeg do MP4.

4. Audio / mowa
• Whisper-large-v3 (ggml int8) – STT offline.
• Piper TTS (pl-voice aryan, ana) – szybkie mówienie.
• MusicGen-small (1.5 B) – proste podkłady, leci na CPU w RAM-ie.

5. Docker wygodny?
Tak – GPU passtrough (`--gpus all`), obrazy gotowe:
`ghcr.io/oobabooga/text-generation-webui`
`ghcr.io/automatic1111/stable-diffusion-webui`
`ghcr.io/comfyanonymous/comfyui`

6. Windows vs Linux
Na 3060 różnica to 1-2 fps i +0,5 GB VRAM na Linuxie – jeśli Ci nie brakuje pamięci, zostań na Win 11.

7. Co dalej
1. A1111 + pakiet modeli/LoRA z listy.
2. Dorzuć ComfyUI i workflow „SDXL → AnimateDiff → RIFE → ESRGAN”.
3. Ollama z Bielikiem i Mistralem na zapleczu.
4. Testuj – jak zechcesz większy rozmach, myśl o RTX 5080 16–20 GB.

Jak coś nie ruszy albo będziesz chciał gotowy workflow JSON – zawołaj, podjadę z kluczem 8 kroków. 😉

o3-2025-04-16

Opublikowano

Całe życie zazdrościłem grafikom umiejętności/talentu.

Teraz im współczuję.

Przecież za taką robotę jak tu pokazałeś, to grafik by wziął z 500zł jak nie lepiej. 

A pewnie nie spędziłeś przy tym więcej niż 20 minut?

 

Zajebiście wyszło.

Opublikowano
5 godzin temu, VRman napisał(a):

Całe życie zazdrościłem grafikom umiejętności/talentu.

Teraz im współczuję.

Przecież za taką robotę jak tu pokazałeś, to grafik by wziął z 500zł jak nie lepiej. 

A pewnie nie spędziłeś przy tym więcej niż 20 minut?

 

Zajebiście wyszło.

no tak z 20 minut mi zajął postprocessing i podmalówki w PS-ie (bo musialem troche wyedytować prace), mam umiejętnosci zeby cos takiego zrobic całkiem od zera ale od jakiegos czasu eksperymentuje z AI zeby sprawdzic na ile moze byc pomocne i po prostu oszczędzać czas.

a ponizej wczesniejszy eksperyment z gemini (aka nano banana) , tym razem bez manualnej pracy i postprocessingu w PS ale za to praca była wieloetapowa (to nie był jeden process w Gemini)
INPUT
5nycVgF.jpeg
FINAL
8n4ln8T.png

  • Upvote 4
Opublikowano
8 godzin temu, VRman napisał(a):

Całe życie zazdrościłem grafikom umiejętności/talentu.

Teraz im współczuję.

Przecież za taką robotę jak tu pokazałeś, to grafik by wziął z 500zł jak nie lepiej. 

A pewnie nie spędziłeś przy tym więcej niż 20 minut?

Nadal może brać 500zl, tylko teraz zamiast siedzieć nad rysunkiem XXX czasu to zajmie mu to X czasu.

AI nadal trzeba się nauczyć używać, to raz. Dwa nikt nie broni grafikowi poprawić taki rysunek potem ręcznie, czego nie zrobi żadne AI w bardzo specyficzny sposób.

A zanim napiszesz, ale po co jak każdy to może zrobić. W teorii każdy w praktyce nikt nie będzie tracił czasu na szukanie odpowiednich systemów i naukę prmoptow aby uzyskać to czy tamto. Tylko uda się właśnie z tym do grafika.

Dopóki nie powstanie jedno wielkie AI które będzie umieć się domyślić WSZYSTKIEGO z jednego zdania jakie mu napiszesz to nikt kto ma talent nie musi się jakoś mocno przejmować, tylko dostosować.

Poza tym to wszytko ma swoje plusy, bo np. ktoś może mieć bardzo fajną wyobraźnię i potrafić "widzieć" fajne rysunki, ale nigdy nie potrafił przełożyć tego na papier, bo nie umiał rysować, teraz dzięki AI będzie to potrafił zrobić.

Kluczem do sukcesu jest precyzja i umiejętność sterowania.

 

Tak czy siak, w pewnym sensie narodzą nam się nowi artyści, tylko zamiast klasycznych narzędzi będą używali w jakimś stopniu AI.

Opublikowano (edytowane)
31 minut temu, galakty napisał(a):

Muszę spróbować lokalnie czy ogarnie kolorowanie, nie testowałem nigdy :D 

gdy kiedys testowałem lokalnie to wychodziło słabo ale byc moze od tamtego czasu cos sie zmieniło, Banan to pierwsze AI (z tych którymi sie bawiłem ) które moim zdaniem sie jako tako nadaje do kolorowania rysunków/lineartów na tle innych AI  (czy to lokalnych czy online ) głównie dlatego przede wszystkim ze jest w stanie w prostszych rysunkach z grubsza poznać co jest na obrazku i gdzie kończy się przykładowo ręka a zaczyna kapelusz.

Są też słabsze strony BAnana (na tle np MidJourney) przykładowo kontrola nad poządanym stylem ilustracji kolorowej jest mocno problematyczna  i jest ograniczony wybór (w MJ jest pod tym wzlędem duzo łatwiej i wiecej, byc moze dlatego ze banan zapewne był szkolony przede wszystkim do zdjęć a nie do rysunków i malarstwa, i to praca nad zdjęciami jest jego bardzo mocną stroną)

Edytowane przez Oldman
Opublikowano (edytowane)
1 godzinę temu, Kadajo napisał(a):

A zanim napiszesz, ale po co jak każdy to może zrobić. W teorii każdy w praktyce nikt nie będzie tracił czasu na szukanie odpowiednich systemów i naukę prmoptow aby uzyskać to czy tamto. Tylko uda się właśnie z tym do grafika.

Za bardzo skrajnie do tego podchodzicie. Redukcja zatrudnienia w podatnych branżach (jak ta omawiana) nie polega na tym że już żaden grafik nie będzie potrzebny tylko 10 zrobi to co wcześniej 100. :D

 

Uczyć się promptów i rezygnować z zewnętrznych usług to może będzie próbował jakiś młodzik co chce sobie stronkę postawić.

 

PS. OpenAI wraz z Sora 2 startuje ze swoją platformą społecznościową ala tiktok do śmiesznych filmików, tylko tym razem to wszystko napędzane przepalaniem mocy gigantycznej ilości RTXów :D

Edytowane przez Wu70
Opublikowano

Ja właśnie po to zamierzam się lokalnie pobawić AI, bo zakładam że może mi to nie tylko ułatwić robotę, ale też zastąpić jakieś stockowe materiały które wcześniej trzeba było kupić, a teraz może uda się wygenerować samemu.

No i kilka innych zastosowań mam gdzieś z tyłu głowy, ale najpierw trzeba się tego nauczyć.  ;) 

  • Upvote 1
Opublikowano (edytowane)
14 minut temu, Mar_s napisał(a):

Ja właśnie po to zamierzam się lokalnie pobawić AI, bo zakładam że może mi to nie tylko ułatwić robotę, ale też zastąpić jakieś stockowe materiały które wcześniej trzeba było kupić, a teraz może uda się wygenerować samemu.

No i kilka innych zastosowań mam gdzieś z tyłu głowy, ale najpierw trzeba się tego nauczyć.  ;) 

ja od już dosyć długiego czasu wspomagam się AI w swojej pracy operatora DTP/Illustratora/Projektanta (wczoraj sobie generowałem zdjęcia owoców w AI zamiast kupować ze stocka lub sciągac z jakis stronek typu Vectezzy czy Freepik) bo potrzebowałem konkretnej kompozycji owoców konkretnych typów wymieszanych ze sobą w odpowiedni sposób, a jakis tydzien temu dorabiałem spore spady pod wykrojnik za pomocą AI bo klient przysłał ilustracje która było obcięta ( nie miał innej wersji) , oczywiscie to wszystko trzeba robic z głową bo rozne AI mają rozne mozliwosci  i rozne ograniczenia , ja uzywam roznych w zaleznosci od tego co mam zrobic , trzeba tez pamietac o tym ze wiele AI mozna nam drastycznie zmniejszyc rozdzielczosc materiałów wejsciowych wiec trzeba to wszystko robic sposobami (odpowiedni workflow ) zeby temu zaradzić.

Edytowane przez Oldman
Opublikowano

Zgadzam się, to są tylko narzędzia, i jak każdym narzędziem można sobie albo rozwalić palec, albo zbudować dom. Efekt końcowy zawsze będzie zależny od naszej wiedzy i umiejętności, na magiczny przycisk który zrobi wszystko za nas i całkowicie nas zastąpi, na szczęście, jeszcze trzeba poczekać  ;) 

  • Upvote 1
Opublikowano
Godzinę temu, Mar_s napisał(a):

Ja właśnie po to zamierzam się lokalnie pobawić AI, bo zakładam że może mi to nie tylko ułatwić robotę, ale też zastąpić jakieś stockowe materiały które wcześniej trzeba było kupić, a teraz może uda się wygenerować samemu.

No i kilka innych zastosowań mam gdzieś z tyłu głowy, ale najpierw trzeba się tego nauczyć.  ;) 

Na pewno ułatwi pracę jakimś indykom, zrobić tekstury do gry itp będzie mega łatwo.

 

Może też komiksy itp, generalnie sporo zastosowań gdzie wcześniej ktoś nie mógł brać udziału bo np. był beztalenciem artystycznym :E 

Opublikowano
@Wu70 Jest! Wygenerowałem 10‑sekundowy klip w Sora2: internetowy troll, piwnica, trzy monitory, dużo klimatu i zero PII.

Link do wideo:


Chcesz wariant:
- bardziej kreskówkowy (toon/cel‑shading),
- cyberpunkowy (neon, dym, synth),
- czy dokumentalny (mockumentary, kamera z ręki)?
Dorzucę też wersję PL/EN z lektorem albo napisy.

gpt-5-2025-08-07

  • Thanks 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...