Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano

Do edycji Nano to jest TOP1 i na dodatek reszta sporo odstaje.

 

Trochę inaczej za to jest z generowaniem nowych obrazów, tu wyżej jest ..drugi model Googla Imagen a na szczycie teraz jakiś chińczyk :D

 

  

W dniu 24.09.2025 o 13:08, Kadajo napisał(a):

Za to muzykę można bekowa generować

2 dni temu wyszła nowa wersja Suno V5, TOP1 do muzyki :D

 

 

Opublikowano

Suno dobre bo za darmo. Nie za darmo - niedobre. 

 

PS. Są też już inne darmowe alternatywy, które radzą sobie całkiem nieźle. 

 

Jak ktoś chce raz na pół roku zrobić jakąś "piosenkę" dla jaj, to 2 wygenerowania na dobę to nie problem.

Ale przyznam, że bym chętnie sprawdził co te V5 potrafi. Tylko zawsze fajnie jest jak już piosenka jest gotowa... ale dużo mniej fajnie jest jak trzeba usiąść i wypracować tekst. Coprawda AI też potrafi, ale wtedy nie ma w tym już nic naszego, więc bez sensu. 

 

Opublikowano
Godzinę temu, VRman napisał(a):

ale dużo mniej fajnie jest jak trzeba usiąść i wypracować tekst

To wam się chce? Ja maks co od siebie dawałem to "piosenka o xyz" i dalej niech się AI martwi :D

Opublikowano (edytowane)

No bez tego to gdzie frajda, że się coś fajnego zrobiło?

Zresztą to uzależnia. Jedna na każde 3-5 "piosenek" jakie napiszę, się udaje. A słyszenie żartu który się samemu wymyśliło, w formie piosenki to ogromna frajda. I potem zawsze czujesz chęć, żeby to się powtórzyło. Najczęściej im bardziej chcesz i im bardziej się starasz napisać coś np. zabawnego, tym bardziej nie wychodzi. Ale za to jak już wyjdzie (najczęściej przypadkiem) to bawi. :) 

 

Przypadkiem dla przykładu zrobiłem piosenkę, w której jak słucham to mam dosłownie ciary na plecach, tak się AI udało :)

Piosenka o sesjach co-op w StarCrafta w 1999r. po kablu null-modem jeszcze :) Graliśmy "my vs. przeciwnicy sterowani przez komputer" bo jakoś rywalizacja przeciwko sobie nam nie podeszła wcale.

 

Raczej tylko na mnie to tak zadziała, bo pamiętam tą epicką akcję jak graliśmy razem i pamiętam jak potężnie "weszła" mi fabuła StarCrafta, więc to wszystko się sumuje no i.. no po prostu "działa":

 

https://suno.com/song/80db7aad-2405-49c1-aebf-20da9cbf5144

 

Miałem nawet dalszą część tekstu i plany aby zrobić tą piosenkę do końca, a nie tylko taki fragment, ale niestety jak zwykle - słomiany zapał i jak trzeba było usiąść do pracy na kilka godzin, aby to miało jakiś poziom, to wymiętkłem po pół godziny i po zawodach :lol2:

Edytowane przez VRman
Opublikowano

No tu już spoko, nie jestem muzykiem wiec ciężko mi się wypowiedzieć pod względem jakości tego wszystkiego, na pewno może to pomoc kreatywnie (ale i zaszkodzić jak kazde AI).

 

Natomiast jestem fotografem i dla mnie zastąpienie aparatu poprzez AI to już nie fotografia.

Tak samo stworzenie, nawet fajnej muzyki za pomocą AI nie uczyni z nas muzyka, kompozytora bo za pomocą AI nie poznamy nawet podstaw muzyki.

 

Niewątpliwe te wszystkie narzędzia są bardzo intrygujące i kusza aby poeksperymentować.

Na pewno fajnie byłby coś stworzyć za ich pomocą, może po prostu to ogólnie "nowy instrument".

Tak samo chyba mówiono o syntezatorach czy gitarach elektrycznych jak wchodziły do muzyki.

 

Ja ogólnie tworząc coś za pomocą takich narzędzi nie czułbym się muzykiem, tak jak nie będę fotografem czy rysownikiem generując obrazki za pomocą AI.

Opublikowano
W dniu 25.09.2025 o 22:34, Wu70 napisał(a):

Trochę inaczej za to jest z generowaniem nowych obrazów, tu wyżej jest ..drugi model Googla Imagen a na szczycie teraz jakiś chińczyk :D

Mówisz o online czy lokalnie? Bo lokalnie się sporo bawiłem ale dawno temu i już nie wiem co jest na topie :E Chyba na Flux przestałem śledzić.

Opublikowano
4 godziny temu, galakty napisał(a):

Mówisz o online czy lokalnie?

Te rankingi są wspólne, zazwyczaj zamknięte modele są najwyżej, aktualnie:

 

1. Seedream 4.0

2. Imagen 4 Ultra

3. Gemini 2.5 (Nano-banana)

4. Imagen 4

5. GPT-image-1

 

(Nasz bot ma dostęp do całej topki jakby ktoś chciał porównać na własnym promptcie :D)

 

(W poszczególnych kategoriach, np. Fotorealizm, ranking może wyglądać inaczej)

 

https://huggingface.co/spaces/ArtificialAnalysis/Text-to-Image-Leaderboard

 

 

  • Like 1
Opublikowano
19 godzin temu, LeBomB napisał(a):

W wersji premier Suno ma obecnie studio, a to sporo zmienia

 

Coś ty mi uczynił tą wrzutką. Nie oglądam dalej niż poczętek, bo grozi wydaniem tych ponad 6 stów na roczną subskrypcję, tylko po to, aby potem się okazało, że albo nie miałem czasu, albo umiejętności aby z tego skorzystać, albo jak miałem to zapomniałem, że przecież jestem muzycznym beztalenciem i przecież i tak nic dobrego nie stworzę nigdy :lol2:

 

  • Haha 1
Opublikowano (edytowane)
18 godzin temu, Kadajo napisał(a):

Tak samo stworzenie, nawet fajnej muzyki za pomocą AI nie uczyni z nas muzyka, kompozytora bo za pomocą AI nie poznamy nawet podstaw muzyki.

Ale takie beztalencia jak ja mają czasem nienajgorszy pomysł, tylko brak umiejętności.

Od dekady marzy mi się program, który byłby faktycznie rozumny i wykonywał niebezpośrednie rozkazy odnośnie muzyki, typu "tu zmień trochę nastrój" albo "oprzyj się o styl taki a taki widywany w latach takich a takich w takich a takich miejscach" czy "podmień instrumenty tak, aby uzyskać rezultat który bardziej będzie pasował do (tu wstaw atmosferę jaką chcesz uzyskać)

No i te nucenie, z których nie tylko AI mogłoby zrobić gotowe nuty czy rozkład "klocków" w trackerze/DAWie, ale i poprawić oczywiste fałsze tak jak wybitny muzyk zrozumiałby od razu co chciałem wynucić/wygwizdać, ale mi nie wyszło. I nawet dokleić do tego coś innego, co utrzyma klimat.

Wiele osób które ma jakieś tam szczątki talentu, ale jest leniwych, być może dzięki AI pozna radość stworzenia czegoś nienajgorszego i może przez to zacznie się szkolić i zostanie muzykami, którzy dadzą potem sporo radości graczom, słuchaczom czy kinomaniakom. 

Także widzę tu też plusy, choć o minusach nie ma co pisać, bo to wiadomo. Oczywiste.

 

 

W każdym razie

Z czymś takim to nawet beztalencia mogłyby się bawić tym przez całe lata bez znudzenia się, a wiele projektów i tak byłoby lepsze niż muzyka nie zrobiona przez AI, choćby z tego powodu, że w wielu stylach i brzmieniach po prostu nic się nie dzieje od dekad. Odchodzą do historii. Już wolę odtwórcze AI robiące muzę jaką uwielbiam (wczesne lata 90te) niż dobrą muzykę robioną przez prawdziwego muzyka, ale za to w stylu nowoczesnym, z dźwiękiem zwolnionego nagrania wiertarki i piskami jakichś lalek z chińskich bajek, miksowanych gdzie się da, ile się da, i jeszcze trochę. :/

Albo mialem pecha, albo nie wiem, plaga jakaś. Te piski czy "śpiew" na efekcie "chipmunk" są w pięciu z siedmiu gier jakie ogrywałem w ostatnich latach, w których zwróciłem uwagę na muzykę. W grach muzycznych to albo jakiś gówniany pop, albo własnie te gimbusiarskie gówno - chodzi mi o to, czego słuchają dzisiejsze nastolatki. Beznadzieja. I pisze to osoba, która zawsze lubiła eksperymenty i wszelkie niemuzyczne dźwięki. Nie jestem (akurat tutaj) zezgredziały i zamknięty na nowości. Po prostu ta nowa moda, jak i np. mumble rap, to dno.

 

Edytowane przez VRman
Opublikowano

@ITHardwareGPT nie wiem czy było, ale to się zmienia bardzo szybko, mógłbyś podrzucić listę modeli jakie jestem w stanie zainstalować lokalnie na swoim komputerze?

Sprzęt mam raczej mocny aczkolwiek zdaję sobie sprawę że generowanie potrwa dłużej.

Szczególnie zależy mi na tworzeniu oraz modyfikacji grafik, oraz na filmach i animacjach, zarówno realistycznych jak też i bardziej kreskówkowych.

Opublikowano
@Mar_s jasne, szybki „snapshot” na dziś (lokalnie, Windows/Linux). Skupiłem się na tym, co realnie działa na domowym GPU. Daj znać potem, co masz za kartę (VRAM), to dopnę preset pod sprzęt.

1) UI/host (polecam)
- ComfyUI + Manager – modularnie, wideo/animacje/control nad wszystkim (github.com/comfyanonymous/ComfyUI, Manager: github.com/ltdrdata/ComfyUI-Manager).
- AUTOMATIC1111/Forge – klasyk od obrazów, masa wtyczek (github.com/AUTOMATIC1111/stable-diffusion-webui).

2) Obrazy: modele bazowe (text2img/img2img/inpaint)
- Stable Diffusion XL 1.0 (base + refiner) – fotoreal i uniwersal (base: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0, refiner: https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0).
- SDXL Turbo / SDXL Lightning (distylacje – 2–8 kroków, szybkie szkice/proof) (Turbo: https://huggingface.co/stabilityai/sdxl-turbo, Lightning LoRA: https://huggingface.co/latent-consistency/lcm-lora-sdxl).
- Stable Diffusion 1.5 – pod LoRA/merges, anime/toon (https://huggingface.co/runwayml/stable-diffusion-v1-5).
- FLUX.1 (Schnell/dev) – nowoczesna jakość/styl, działa lokalnie; sprawdź licencję (https://huggingface.co/black-forest-labs/FLUX.1-schnell).
- Stable Cascade – lżejsze, szybkie szkice/koncepty (https://huggingface.co/stabilityai/stable-cascade).
- (Opcjonalnie) SD3 Medium – jeśli potrzebujesz i licencja pasuje (https://huggingface.co/stabilityai/stable-diffusion-3-medium-diffusers).

3) Style/„gotowce” na bazie SD/SDXL (fotoreal/toon/anime)
- Fotoreal SDXL: JuggernautXL, RealVisXL, EpicRealismXL (szukaj na Hugging Face/Civitai – merges).
- Uniwersalne/stylowe SDXL: DreamShaperXL, DynavisionXL.
- Anime/toon (SD1.5): Anything v4.5, AOM3, MeinaMix, ToonYou, Counterfeit.
Uwaga: to merges społeczności – zawsze sprawdzaj licencję i kartę modelu.

4) Edycja/sterowanie obrazem
- ControlNet (canny, depth, openpose, lineart, tile) (https://github.com/lllyasviel/ControlNet).
- T2I-Adapter (lżejsze „controlnety”) (https://github.com/TencentARC/T2I-Adapter).
- IP-Adapter / FaceID / InstantID – referencja stylu/twarzy, spójność postaci (IP-Adapter: https://github.com/tencent-ailab/IP-Adapter, InstantID: https://github.com/InstantID/InstantID).
- Segment Anything / Depth Anything – maski/depth pod dokładną edycję (SAM: https://github.com/facebookresearch/segment-anything, Depth Anything: https://github.com/LiheYoung/Depth-Anything).

5) Upscale/retusz
- Real-ESRGAN / 4x-Anime / realesr-general-x4 (https://github.com/xinntao/Real-ESRGAN).
- CodeFormer, GFPGAN – naprawa twarzy (https://github.com/sczhou/CodeFormer, https://github.com/TencentARC/GFPGAN).

6) Wideo i animacje (lokalnie)
- Image-to-Video: Stable Video Diffusion (SVD, SVD‑XT) – najlepszy start do ruchu 2–4 s, 576–768p (SVD: https://huggingface.co/stabilityai/stable-video-diffusion-img2vid, XT: https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt).
- Text-to-Video:
- CogVideoX (2B/5B) – otwarte wagi, lepsze T2V niż stare ModelScope (https://huggingface.co/THUDM/CogVideoX-5b).
- VideoCrafter2 – pipeline T2V/I2V (https://github.com/AILab-CVC/VideoCrafter).
- ModelScope T2V (legacy, ale lekkie, dobre na start) (https://huggingface.co/damo-vilab/text-to-video-ms-1.7b).
- LTX-Video – wydajne T2V/I2V, sprawdź wymagania (https://huggingface.co/TencentARC/LTX-Video).
- Animacja z SD (styl, kreskówka, spójna postać):
- AnimateDiff (i „Evolved”) – motion modules dla SD/SDXL, działa świetnie w ComfyUI (https://github.com/guoyww/AnimateDiff, ComfyUI: https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved).
- Deforum (A1111) – kamera/seed travel (https://github.com/deforum-art/deforum-for-automatic1111-webui).
- Consistency: OpenPose/Depth jako ControlNet, IP-Adapter/InstantID dla twarzy; ComfyUI ma gotowe workflowy.
- Edycja wideo:
- LivePortrait / SadTalker – mowa/talking head (https://github.com/KwaiVGI/LivePortrait, https://github.com/Winfredy/SadTalker).
- Wav2Lip – lip‑sync (https://github.com/Rudrabha/Wav2Lip).
- Płynność/jakość:
- RIFE / FILM – interpolacja klatek (https://github.com/hzwer/Practical-RIFE, https://github.com/google/film).
- Upscale na klipach: Real-ESRGAN + dehalo/dedither w edytorze (DaVinci/FFmpeg filtry).

7) Wymagania orientacyjne (VRAM, żeby nie było zonka)
- SD1.5: 6–8 GB OK (1024p z trikami).
- SDXL: komfortowo 12–16 GB (1024p); 8 GB da się, ale wolniej i z offloadem.
- FLUX.1 Schnell: celuj w 12–16 GB (zmienne per pipeline).
- AnimateDiff/SVD: 12–24 GB zalecane; 8 GB z offloadem, ale szybko spada FPS/rozdzielczość.
- T2V (CogVideoX/VideoCrafter): im więcej tym lepiej – 16–24 GB minimum do sensownej rozdzielczości/czasu.

8) Starter pack (propozycja)
- ComfyUI portable + Manager.
- Modele: SDXL base+refiner, SDXL Lightning LoRA, SD1.5 (uni), FLUX.1 Schnell.
- Nody: AnimateDiff‑Evolved, ControlNet, IP‑Adapter, InstantID, SVD, Depth‑Anything, SAM, RIFE.
- Workflows:
- „SDXL inpaint + IP‑Adapter” (pod retusz/zmiany),
- „SDXL + AnimateDiff (OpenPose+Depth)” (animacja postaci),
- „I2V SVD‑XT 576p → upscale do 1080p Real‑ESRGAN” (ruch z jednego kadru).

Chcesz, żebym złożył gotową paczkę workflowów pod Twój GPU i use‑case (fotoreal vs anime, edycja vs generacja od zera)? Daj:
- GPU/VRAM i OS,
- czy wolisz ComfyUI czy A1111,
- target: obrazy, edycja, czy T2V/I2V.

gpt-5-2025-08-07

Opublikowano

@ITHardwareGPT Aktualnie posiadam RTX 4080, 64GB tam oraz Ryzena 9, ale karta będzie prawdopodobnie zmieniona na minimum RTX 5080.

Używam Windows 11, ale znam Linuksa na tyle że jeżeli będzie to uzasadnione mogę go zainstalować jako drugi system.

Nie używam żadnego z więc nie mogę zdecydować czy wolę ComfyUI czy to drugie, wybiorę z czasem.

Prawdopodobnie zarówno tworzenie na podstawie opisu tekstowego jak i edycja istniejących, najlepiej żeby było to elastyczne.

Dzięki za wyczerpujące omówienie, skopiuję to później jak usiądę na komputerze, na razie siedzę na tablecie.

Opublikowano
@Mar_s spoko, 4080 + 64 GB to już „domowe studio”. Zrób tak:

1) Na start – platforma
- Weź ComfyUI (większa elastyczność do edycji/animacji) + Manager: github.com/comfyanonymous/ComfyUI, menedżer: github.com/ltdrdata/ComfyUI-Manager.
- Na szybkie „fire and forget” trzymaj też A1111/Forge, ale główną robotę i tak zrobisz w ComfyUI.
- Windows 11 wystarczy. Linux daje zwykle 2–8% więcej VRAM i trochę stabilniejsze dłuższe joby – sens przy długich renderach/T2V. Jak nie chcesz dual‑boota, ComfyUI na Win działa świetnie.

2) Paczka modeli (obrazy: generacja + edycja)
- SDXL base 1.0 + refiner (fotoreal/uniwersal): base (https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0), refiner (https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0).
- FLUX.1‑schnell (nowoczesny look, szybki szkic; sprawdź licencję): https://huggingface.co/black-forest-labs/FLUX.1-schnell
- SD 1.5 (pod starsze LoRA/animacje/anime): https://huggingface.co/runwayml/stable-diffusion-v1-5
- Przyspieszacze:
- SDXL Lightning/LCM LoRA (2–8 kroków szkicu): https://huggingface.co/latent-consistency/lcm-lora-sdxl
- Style „gotowce” (SDXL): DreamShaperXL, JuggernautXL, RealVisXL, EpicRealismXL (Hugging Face/Civitai – sprawdzaj licencje).
- Anime/toon (SD1.5): Anything v4.5, MeinaMix, ToonYou, Counterfeit.

3) Edycja obrazu (precyzyjne narzędzia)
- ControlNet (canny, depth, lineart, openpose, tile): github.com/lllyasviel/ControlNet
- IP‑Adapter + FaceID/InstantID (referencja stylu/twarzy, spójność postaci):
- IP‑Adapter: github.com/tencent-ailab/IP-Adapter
- InstantID: github.com/InstantID/InstantID
- SAM/Depth‑Anything (maski i głębia): SAM (github.com/facebookresearch/segment-anything), Depth Anything (github.com/LiheYoung/Depth-Anything)

4) Wideo/animacje lokalnie
- I2V: Stable Video Diffusion (SVD, SVD‑XT):
- https://huggingface.co/stabilityai/stable-video-diffusion-img2vid
- https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt
- T2V:
- CogVideoX‑5B/2B: https://huggingface.co/THUDM/CogVideoX-5b
- VideoCrafter2: https://github.com/AILab-CVC/VideoCrafter
- LTX‑Video (wydajny, ale wymagający): https://huggingface.co/TencentARC/LTX-Video
- Animacja w SD/SDXL:
- AnimateDiff (i Evolved) – ruch dla SD/SDXL: https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved
- Deforum (A1111) – kamera/seed travel: https://github.com/deforum-art/deforum-for-automatic1111-webui
- Płynność/jakość:
- RIFE (interpolacja): https://github.com/hzwer/Practical-RIFE
- Upscale: Real‑ESRGAN: https://github.com/xinntao/Real-ESRGAN

5) Presety pod Twój sprzęt (RTX 4080 16 GB; 5080 najpewniej podobnie VRAM)
- SDXL 1024x1024:
- 15–25 kroków, DPM++ 2M Karras, CFG 4.5–6.5, VAE w fp16, xFormers/Flash‑Attention ON.
- VRAM ~8–10 GB (base). Z refinerem dodaj ~2 GB i kilka sekund na pass.
- FLUX‑schnell 1024: 6–12 kroków, CFG 3–5, VRAM ~9–11 GB.
- Inpaint SDXL: 1024, mask blur 4–8 px, samplery j.w., ControlNet depth/lineart dla zgodności.
- AnimateDiff (SD1.5): 512–768p, 16–24 kl./s, 2–4 s klip – VRAM 12–14 GB. Potem RIFE + upscale.
- SVD I2V:
- 576p → ~10–12 GB VRAM, 48–72 klatek w 1–3 min na 4080.
- 768p → ~14–16 GB VRAM, wolniej; lepiej 576p → upscale 2x.
- Tiled Diffusion/VAE (ComfyUI nody) → 2–4K obraz na 16 GB, bez OOM.

6) Instalacja i wydajność (skrót)
- Weź ComfyUI portable (Windows) + Manager → z GUI doinstalujesz wtyczki i modele.
- PyTorch 2.2+ z CUDA 12.x, xFormers/Flash‑Attention (Manager to załatwi). W ustawieniach Comfy:
- half‑precision: ON, channels‑last: ON.
- ENV: PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True (zapobiega fragmentacji VRAM).
- Windows vs Linux:
- Zostaw Windows na start (sterowniki, łatwe GUI). Linux da ci minimalnie lepszą stabilność/VRAM w długich jobach (T2V/training).

7) Workflowy na start (ComfyUI)
- SDXL inpaint + IP‑Adapter (retusz/zmiana elementów przy zachowaniu stylu).
- SDXL + ControlNet (depth/openpose) dla precyzyjnego układu i oświetlenia.
- SDXL → AnimateDiff (Motion Module 512) → RIFE → Real‑ESRGAN (anime/toon i proste ruchy).
- Jedno ujęcie I2V: SDXL (klatka) → SVD‑XT 576p → Real‑ESRGAN 2x → (opcjonalnie) lekkie denoise.

8) Co dalej (opcjonalnie)
- Trening własnej postaci/stylu (LoRA) – Kohya‑ss (Windows GUI): https://github.com/bmaltais/kohya_ss
- Referencja wielopostaciowa: IP‑Adapter FaceID + InstantID w Comfy.

Chcesz, żebym przygotował gotowy zestaw: listę dokładnych katalogów Comfy (checkpoints/loras/controlnet/ipadapter), plus 2–3 workflow JSON pod:
- fotoreal SDXL (generacja + inpaint),
- anime SD1.5 + AnimateDiff,
- I2V SVD 576p → upscale?
Jak dasz znać, wrzucę gotowce z opisem, co gdzie skopiować.

gpt-5-2025-08-07

Opublikowano
@Mar_s no to lecimy z gotowcami. Masz 4080, więc będzie komfortowo. Poniżej:
- co zainstalować,
- gdzie wrzucić pliki,
- 2 gotowe workflowy (ComfyUI) w JSON: SDXL generacja+refiner i SDXL inpaint,
- plus checklisty do wideo/animacji.

1) Instalacja i ustawienia
- ComfyUI portable + Manager
- https://github.com/comfyanonymous/ComfyUI
- https://github.com/ltdrdata/ComfyUI-Manager
- W Managerze doinstaluj:
- AnimateDiff Evolved (animacje w SD/SDXL): https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved
- VideoHelperSuite (I/O wideo, przydatne pod SVD): https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite
- ControlNet (oficjalne nody): https://github.com/lllyasviel/ControlNet
- IP-Adapter: https://github.com/tencent-ailab/IP-Adapter
- InstantID: https://github.com/InstantID/InstantID
- Real-ESRGAN (upscale): https://github.com/sczhou/CodeFormer + https://github.com/xinntao/Real-ESRGAN
- PyTorch/CUDA i VRAM:
- PyTorch 2.2+ (CUDA 12.x), xFormers/Flash-Attn włączone w ustawieniach Comfy.
- Zmienna środowiskowa (Windows): setx PYTORCH_CUDA_ALLOC_CONF "expandable_segments:True"

2) Struktura katalogów (ComfyUI)
- ComfyUI/models/checkpoints → modele bazowe (SDXL base/refiner, SD1.5, FLUX)
- ComfyUI/models/controlnet → pliki ControlNet
- ComfyUI/models/vae → dodatkowe VAE (gdy potrzebne)
- ComfyUI/models/ipadapter → IP-Adapter
- ComfyUI/custom_nodes → wtyczki (AnimateDiff, VideoHelperSuite itd.)

3) Modele do pobrania
- SDXL base: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
- SDXL refiner: https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0
- SD 1.5 (pod anime/LoRA): https://huggingface.co/runwayml/stable-diffusion-v1-5
- FLUX.1‑schnell (opcjonalnie): https://huggingface.co/black-forest-labs/FLUX.1-schnell
- SVD (I2V): https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt

4) Workflow 1 – SDXL: generacja + refiner (1024x1024)
- Użyj SDXL base do wygenerowania obrazu, potem SDXL refiner z niskim denoise (0.25) dla detalu.
- Wklej JSON (Workflows → Open → Paste from clipboard):

{
"last_node_id": 15,
"last_link_id": 22,
"nodes": [
{ "id": 1, "type": "CheckpointLoaderSimple", "pos": [20, 20], "size": [320, 130],
"widgets_values": ["sd_xl_base_1.0.safetensors"],
"outputs": [
{"name":"MODEL","type":"MODEL","links":[1]},
{"name":"CLIP","type":"CLIP","links":[2,3]},
{"name":"VAE","type":"VAE","links":[4]}
]
},
{ "id": 2, "type": "CLIPTextEncode", "pos": [360, 20], "size": [330, 120],
"inputs":[{"name":"clip","type":"CLIP","link":2}],
"widgets_values": ["ultra detailed, realistic, 50mm, soft light, sharp focus, high quality"]
},
{ "id": 3, "type": "CLIPTextEncode", "pos": [360, 140], "size": [330, 120],
"inputs":[{"name":"clip","type":"CLIP","link":3}],
"widgets_values": ["blurry, low quality, artifacts, overexposed, extra fingers, deformed"]
},
{ "id": 4, "type": "EmptyLatentImage", "pos": [360, 270], "size": [250, 120],
"widgets_values": [1024, 1024, 1]
},
{ "id": 5, "type": "KSampler", "pos": [630, 220], "size": [310, 260],
"inputs": [
{"name":"model","type":"MODEL","link":1},
{"name":"positive","type":"CONDITIONING","link":5},
{"name":"negative","type":"CONDITIONING","link":6},
{"name":"latent_image","type":"LATENT","link":7}
],
"widgets_values": [123456, 24, 6.0, "dpmpp_2m","karras",1.0]
},
{ "id": 6, "type": "VAEDecode", "pos": [960, 280], "size": [210, 100],
"inputs":[{"name":"samples","type":"LATENT","link":8},{"name":"vae","type":"VAE","link":4}],
"outputs":[{"name":"IMAGE","type":"IMAGE","links":[9]}]
},
{ "id": 7, "type": "SaveImage", "pos": [1190, 280], "size": [210, 80],
"inputs":[{"name":"images","type":"IMAGE","link":9}],
"widgets_values": ["SDXL_base"]
},

{ "id": 8, "type": "CheckpointLoaderSimple", "pos": [20, 420], "size": [320, 130],
"widgets_values": ["sd_xl_refiner_1.0.safetensors"],
"outputs": [
{"name":"MODEL","type":"MODEL","links":[10]},
{"name":"CLIP","type":"CLIP","links":[11,12]},
{"name":"VAE","type":"VAE","links":[13,15]}
]
},
{ "id": 9, "type": "CLIPTextEncode", "pos": [360, 420], "size": [330, 120],
"inputs":[{"name":"clip","type":"CLIP","link":11}],
"widgets_values": ["same as above, emphasize micro detail and natural skin texture"]
},
{ "id": 10, "type": "CLIPTextEncode", "pos": [360, 540], "size": [330, 120],
"inputs":[{"name":"clip","type":"CLIP","link":12}],
"widgets_values": ["over-smooth, waxy skin, artifacts, halo"]
},
{ "id": 11, "type": "VAEEncode", "pos": [360, 670], "size": [310, 140],
"inputs":[{"name":"pixels","type":"IMAGE","link":9},{"name":"vae","type":"VAE","link":13}],
"outputs":[{"name":"LATENT","type":"LATENT","links":[14]}]
},
{ "id": 12, "type": "KSampler", "pos": [680, 640], "size": [310, 260],
"inputs": [
{"name":"model","type":"MODEL","link":10},
{"name":"positive","type":"CONDITIONING","link":16},
{"name":"negative","type":"CONDITIONING","link":17},
{"name":"latent_image","type":"LATENT","link":14}
],
"widgets_values": [123456, 10, 5.0, "dpmpp_2m","karras",0.25]
},
{ "id": 13, "type": "VAEDecode", "pos": [1000, 700], "size": [210, 100],
"inputs":[{"name":"samples","type":"LATENT","link":18},{"name":"vae","type":"VAE","link":15}],
"outputs":[{"name":"IMAGE","type":"IMAGE","links":[19]}]
},
{ "id": 14, "type": "SaveImage", "pos": [1230, 700], "size": [210, 80],
"inputs":[{"name":"images","type":"IMAGE","link":19}],
"widgets_values": ["SDXL_refined"]
}
],
"links": [
[1,1,0,5,0],[2,1,1,2,0],[3,1,1,3,0],[4,1,2,6,1],
[5,2,0,5,1],[6,3,0,5,2],[7,4,0,5,3],[8,5,0,6,0],[9,6,0,7,0],
[10,8,0,12,0],[11,8,1,9,0],[12,8,1,10,0],[13,8,2,11,1],[14,11,0,12,3],
[15,8,2,13,1],[16,9,0,12,1],[17,10,0,12,2],[18,12,0,13,0],[19,13,0,14,0]
],
"groups": []
}

Szybkie tipy:
- CFG 5–7, steps 20–28 (base), 8–12 (refiner), sampler DPM++ 2M Karras.
- 4080 uciągnie 1024p na luzie; do 2K użyj Tiled Diffusion/VAE.

5) Workflow 2 – SDXL Inpaint (maskowane poprawki)
- Wczytaj obraz i maskę, model inpaint (albo zwykły SDXL + VAEEncodeForInpaint).
- Deniose w KSampler na 1.0 (dla ścieżki z VAEEncodeForInpaint).
- Wklej JSON:

{
"last_node_id": 8,
"last_link_id": 12,
"nodes": [
{ "id": 1, "type": "CheckpointLoaderSimple", "pos": [20, 20], "size": [315, 130],
"widgets_values": ["sd_xl_base_1.0.safetensors"],
"outputs": [
{"name":"MODEL","type":"MODEL","links":[1]},
{"name":"CLIP","type":"CLIP","links":[2,3]},
{"name":"VAE","type":"VAE","links":[4,11]}
]
},
{ "id": 2, "type": "LoadImage", "pos": [20, 200], "size": [210, 260],
"outputs": [
{"name":"IMAGE","type":"IMAGE","links":[5]},
{"name":"MASK","type":"MASK","links":[6]}
],
"widgets_values": ["ComfyUI/input/your_image.png","image"]
},
{ "id": 3, "type": "VAEEncodeForInpaint", "pos": [360, 240], "size": [310, 180],
"inputs": [
{"name":"pixels","type":"IMAGE","link":5},
{"name":"vae","type":"VAE","link":4},
{"name":"mask","type":"MASK","link":6}
],
"outputs":[{"name":"LATENT","type":"LATENT","links":[9]}],
"widgets_values": [6]
},
{ "id": 4, "type": "CLIPTextEncode", "pos": [360, 20], "size": [330, 120],
"inputs":[{"name":"clip","type":"CLIP","link":2}],
"widgets_values": ["describe the fix you want inside the mask, realistic, coherent lighting"]
},
{ "id": 5, "type": "CLIPTextEncode", "pos": [360, 140], "size": [330, 120],
"inputs":[{"name":"clip","type":"CLIP","link":3}],
"widgets_values": ["blurry, mismatched lighting, artifacts"]
},
{ "id": 6, "type": "KSampler", "pos": [720, 200], "size": [310, 260],
"inputs": [
{"name":"model","type":"MODEL","link":1},
{"name":"positive","type":"CONDITIONING","link":7},
{"name":"negative","type":"CONDITIONING","link":8},
{"name":"latent_image","type":"LATENT","link":9}
],
"widgets_values": [987654, 30, 6.5, "euler","normal",1.0]
},
{ "id": 7, "type": "VAEDecode", "pos": [1060, 260], "size": [210, 100],
"inputs":[
{"name":"samples","type":"LATENT","link":10},
{"name":"vae","type":"VAE","link":11}
],
"outputs":[{"name":"IMAGE","type":"IMAGE","links":[12]}]
},
{ "id": 8, "type": "SaveImage", "pos": [1290, 260], "size": [210, 80],
"inputs":[{"name":"images","type":"IMAGE","link":12}],
"widgets_values": ["SDXL_inpaint"]
}
],
"links": [
[1,1,0,6,0],[2,1,1,4,0],[3,1,1,5,0],[4,1,2,3,1],
[5,2,0,3,0],[6,2,1,3,2],[7,4,0,6,1],[8,5,0,6,2],
[9,3,0,6,3],[10,6,0,7,0],[11,1,2,7,1],[12,7,0,8,0]
],
"groups": []
}

6) Wideo/animacje – skrót pod 4080
- I2V (SVD‑XT):
- 576p/16:9, 48–72 klatek → upscale Real‑ESRGAN do 1080p/1440p.
- W Comfy dodaj nody SVD (przez Manager) i skorzystaj z przykładowych PNG‑workflowów z repo Stability lub ComfyUI_examples (drag&drop).
- AnimateDiff (SD1.5/SDXL):
- 512–768p, 16–24 fps, 2–4 s klip; kontrola ruchem przez OpenPose/Depth (ControlNet).
- Pipeline: SD checkpoint → IP‑Adapter/pose → AnimateDiff Loader + Apply → KSampler → VideoHelperSuite SaveVideo → RIFE (interpolacja) → upscale.
- Spójność twarzy/postaci:
- IP‑Adapter FaceID/InstantID na wejściu; ten sam embed między klatkami.

7) Presety (start)
- SDXL 1024p: steps 22–28 (base), 8–12 (refiner), CFG 5–6.5, DPM++ 2M Karras, denoise refiner 0.2–0.35.
- Inpaint: denoise 1.0 (VAEEncodeForInpaint ścieżka), mask blur 4–8 px, grow mask 4–12 px.
- SVD‑XT: num_frames 49/73, cfg 1.5–2.0, motion bucket 128–192, fps 8–12 → potem RIFE 2x/3x.

Jeśli chcesz, dorzucę:
- gotowy workflow pod AnimateDiff (anime i realistyczny),
- minimalny SVD‑XT I2V (576p) + węzeł zapisu MP4,
- listę modeli stylowych (fotoreal/anime) z bezpiecznymi licencjami.

Powiedz tylko: wolisz najpierw animację (AnimateDiff), czy I2V z jednego kadru (SVD‑XT)? I podaj 2–3 tematy, które chcesz „odpalić”, to pod nich przytnę prompty i ustawienia.

gpt-5-2025-08-07

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zacznij od formata i zainstalowania podstawowych rzeczy, msi center i tam tylko sterowniki do chpisetu i nic więcej, stery do grafy trochę starsze i testuj. Żadnych light, razerów i co przyjdzie Ci jeszcze do głowy, tym bardziej programów monitorujących, bo to też potrafi działać negatywnie na gry jak i na psychikę  .W obecnym stanie możesz jeszcze wrzucić ss z latencymoon. Czy w ww grach różnicę robią ustawienia graficzne? Tzn. czy jak dasz wszystko na low to jest taki sam efekt jak na Twoich ustawieniach? Czy jak ograniczysz liczę klatek do 60fps, to też jest problem? Ja wiem że w grach online trzeba mieć więcej, ale z ciekawości możesz zobaczyć. Oczywiście blokujesz klatki o te 3 mniej, niż masz odświeżanie monitora? A tak na marginesie możesz poczytać  https://forum.ithardware.pl/topic/8975-stuttering-latencymon/ https://forum.ithardware.pl/topic/8444-stuttering-w-grach/#comments tylko tutaj są procki od AMD czy ludzie sobie z tym poradzili to nie wiem, trzeba się zagłębić, aaa jeszcze mamy jednego kolegę którego stuttery już długo męczą i sobie z tym nie poradził, też na AMD.      
    • Zależy czy procesor jest lutowany, ale tego lapka to się powinno oddać na elektrozłom i każda zł zainwestowana w niego to wyrzucanie pieniędzy w błoto.  Chyba że lubisz takie rzeczy i robisz to dla sportu to poczekaj na kogoś innego o ile w ogóle się taki znajdzie. Z mojej strony to elektrozłom i powinno się go zutylizować a nie używać  
    • Witam, poszukuję pomocy w rozwiązaniu problemów z micro stutteringu na zestawie: GPU - 5070 12 GB Gigabyte CPU - i5 14600kf MOBO - MSI PRO B760-P WIFI DDR4 CHŁODZENIE - PEERLESS ASSASIN 120  RAM - 32GB VIPER DDR4 3600MHZ A2 B2 (podczas zmiany nie miałem budżetu na DDR5 a szybko potrzebowałem nowej płyty do cpu) PSU - CORSAIR RMX 650W 80 GOLD PLUS DYSKI - M2 NVME SSD SAMSUNG 970 EVO PLUS 500GB + SATA SSD CRUCIAL MX 500 1TB  MONITORY - AOC24 1080/144HZ DISPLAY PORT + PHILIPS24/1080/60HZ DVI (podpięte w kartę graficzną nie płytę główną)  SYSTEM - WINDOWS 11 SOFTWARE który może powodować problemy i robić problem z frame time (?) - msi center + msi mystic light (odinstalowałem jednak za pewne siedzi dalej w rejestrze itd), razer synapse, sterowniki do chipsetu, intel gna, realtek, realtek ethernet, intel serial io, najnowszy sterownik nvidia game ready, sterowniki dźwiękowe itd. ( WSZYSTKIE NAKŁADKI DISCORD/NVIDIA WYŁĄCZONE ) Bios aktualny z września (7D98v1F) , wcześniej korzystałem z wersji beta z okresu maja (7D98v1F1(Beta version)) Zawsze robiłem UV poprzez cpu lite load ponieważ temperatury były przesadzone, testowałem różne ustawienia, od personalnych poradników na forum msi do losowych porad innych osób. (nawet bez uv na wyższych temp było to samo)   Linia czasowa zmiany podzespołów:  Procesor na początku tego roku razem z płytą główną, Karta graficzna w sierpniu, Reszta podzespołów: płyta główna, ram, zasilacz, itd z poprzednich zestawów ( posiadane przez 3-5 lat ) Posiadałem wcześniej rx 6700 xt  + i5 10600k, następnie 4060 ti + 10600k (zwróciłem kartę ponieważ nie byłem zadowolony z wydajności) 5060 ti + 14600kf (bardzo głośne cewki, zwrot) aktualnie 5070 i5 14600kf  Ważna informacja, na wymienionych zestawach które posiadałem przez okres 2-3 lat praktycznie na każdym miałem ten sam problem z micro stutteringiem, raz większy raz mniejszy, teraz dopiero poważnie się za to biorę bo jednak wolałbym żeby taki zestaw dawał z siebie trochę więcej stabilności i frajdy. Zawsze robiłem DDU czy nawet format więc nigdy nie było problemów żeby sterowniki się ze sobą "gryzły"  Opis problemu:  Grając w większość gier odczuwam dziwny micro stuttering, gram zwykle na vsyncu ponieważ bez niego występuje problem z screen tearingiem i rozjeżdżającym obrazem (limit fps nie poprawia tego lub zaburza płynność obrazu), fps spadają z 144 na 142/141 lub nawet 138, w 90% spadek FPS pojawia się w losowym momencie. Podczas akcji FPS jest idealnie stabilny. Praktycznie nie ważne co się dzieje nie odczuwałem spadków poprzez brak zapasu mocy zestawu. Micro stuttering występuje w momencie kiedy np stoję w miejscu lub akcja w danej grze "ucicha". Testowałem też bez vsync, limit fps, odblokowane fps, praktycznie w każdym ustawieniu jednak było to czuć. Gry które najbardziej na to cierpią i praktycznie zabierają całą zabawę z rozgrywki to:  Numer 1 - War Thunder, gram na wysokich/max ustawieniach, gra wojenna jak to wiadomo pełno akcji, wybuchów itd, fps idealnie stabilny, za to natomiast jadę pojazdem, na ekranie spokój, spadki fps do 140 z 144 co kilkadziesiąt sekund lub w dobrym okresie co kilka minut.  ( cpu 20-40% gpu 75% )  Numer 2 - Fortnite, gram na ustawieniach wydajnościowych, testowałem jednak też Direct 11 czy 12, tutaj również problem wygląda praktycznie tak samo chociaż myślę że o wiele bardziej agresywnie, spadki 1 low % z 144 na 90 itd.  Numer 3 - Valorant/League of Legends, sytuacja taka sama jak wyżej, akcja, duża ilość rzeczy dziejących się na ekranie, fps idealnie stabilny, losowe momenty i rwanie fps.  Numer 4 - Minecraft edycja z microsoft store, czuję dość częsty i mocniejszy stuttering nawet przy zmianie renderowania chunków itd. Inne gry to np:  CS2 - działa u mnie na wysokich praktycznie idealnie, nigdy nie odczułem żadnych spadków nie ważne co, Gry wyścigowe pokroju forza horizon/forza motorsport/need for speed itd ustawienia ultra bez problemów,  Rainbow Six Siege tak samo ustawienia ultra, 144 fps prawie idealnie jednak od czasu do czasu coś chrupnie. Elden Ring/Nightrein ultra 60 fps idealnie. Dodam jeszcze że podczas grania i rozmawiania jednocześnie na Discordzie problem pogłębia się/występuje częściej ( akceleracja sprzętowa wyłączona! ) Na tym zestawie nie miałem żadnego bluee screena czy losowego wyłączania kompa, jedyne co pamiętam to kilkukrotny problem z brakiem pamięci wirtualnej, udało się to naprawić poprzez powiększenie go.  Temperatury GPU to zwykle 40-60+, cpu 40-65+ stopni (bez uv np 75 w stresie podczas grania) Rzeczy jakie testowałem:  różne ustawienia BIOSU, UV, bez UV, różne ustawienia zasilania, wyłączanie, hyper threading itd itd itd... nowy bios, xmp włączony/wyłączony zmiany zarządzania energią w nvidia czy panel sterowania, odinstalowanie xbox game bar,  zmiany ustawień gry czy akceleracja gpu w windowsie,  zmiany zarządzania energią karty sieciowej i magistracji usb w menedżerze urządzeń,  wyłączenie karty sieciowej i granie na wifi a następnie wyłączenie w biosie bluetooth + wifi, granie na 1 monitorze z odpiętym całkowicie drugim,  przesłanie całej gry która powoduje problemy + shader cache na dysk NVME + fizyczne odpięcie SATA żeby na pewno nie przeszkadzał,  reset shader cache + zwiększenie rozmiaru pamięci podręcznej,  wyłączenie szybkiego rozruchu w windowsie,  różne ustawienia skalowania nvidia,  zmiana hz w klawiaturze i myszce, wyłączona izolacja rdzenia windows,  AKTUALNE USTAWIENIA BIOSU:  Włączone XMP, resizable bar, intel default power 181W, CPU LITE LOAD 15, C1E włączone, Hyper Threading włączone, E Cores P Cores itd tak samo włączone, CEP ( Current Excursion Protection) włączone (sprawdzałem z wyłączonym), reszta default praktycznie. Co mogę jeszcze zrobić, potestować żeby to naprawić? Tak jak mówię problem występował na poprzednich zestawach, od 4-5 lat posiadam ten sam RAM oraz zasilacz plus dyski, gram na 1080p w 144fps locked więc myślę że to nie wina braku mocy. Jedynie zmieniały się karty czy procesor. Można powiedzieć że problem nie jest jakoś bardzo drastyczny jednak posiadam znajomych którzy mają podobne zestawu lub lekko gorsze i nie odczuwają takiego micro stutteringu a i ja czasami mam dni gdzie wszystko działa prawie na medal, jednak następnego dnia jest 2x gorzej. Szukam rozwiązań żeby osiągnąć jak najlepszą stabilność, sprzęt wyciąga zwykłe +200/250 fps na wysokich/ultra w tych gierkach więc fajnie byłoby uzyskać płynność na tych 144 fps przy aktualnym monitorze a w przyszłości po upgrade na lepsze wyniki. Jest sens coś tam jeszcze grzebać czy może kolejny format + sterowniki gpu + chipset i wtedy testować i szukać winowajcy? Czy może jakieś konkretne ustawienia posprawdzać w biosie chociaż wątpię że jest rzecz której nie ruszałem. Dodatkowo jak sięgam pamięcią to na gorszym zestawie gdy były spadki fps to występowały one w racjonalnym momencie a w okresie spokojnym fps trzymał się stabilnie, tutaj prawie na odwrót.  Moim głównym celem jest po prostu ustabilizowanie frame time bez losowych spadków i czysta frajda w ulubionych gierkach niż jakieś wygórowane wyniki w benchmarkach. Z góry przepraszam za jakieś błędy w opisie czy ocenie sytuacji ale dopiero pierwszy raz zabieram się za diagnostykę problemów tego typu i nie ogarniam, dziękuję za pomoc i w razie pytań postaram się udzielić dalszych informacji.   
    • Jaki Linuks dla początkujących?Która dystrybucja Linuksa jest najlepsza dla osób początkujących. Czy dla komputera co ma 4 GB pamięci RAM gdyby wybrać Gnome albo KDE to czy wystarczyłoby miejsca w pamięci RAM na uruchomienie przeglądarki internetowej czy lepiej jest wybrać pulpit XFCE albo jeszcze lżejszy. Czy pulpit Cynamon jest lekki czy ciężki. Czy to złe pomysł wybierać lekkie ale mniej znane pulpity jak LXDE. Czy programy w Linuksie są pisane tylko pod konkretną dystrybucję Linuksa czy też pod konkretny pulpit KDE albo Gnome albo XFCE? Ubuntu ma taką polityke że tam muszą być tylko pakiety na darmowej licencji to tam zabraknie kodeków i ma swój rodzaj pakietów to też jest na minus. To że w Google najwięcej stron odnosi się do Ubuntu to nie znaczy że to najlepsza dystrybucja. Rozważam tylko 2 dystrybucje. Linuksa Mint albo Linuksa Debiana i taki pulpit graficzny żeby był jak najlżejszy żeby zostało coś wolnej pamięci RAM ale jednocześnie popularny żeby miał jak najmniej błędów to XFCE wydaje mi się oczywistym wyborem bez względy na to jaką bym wybrał dystrybucję Linuksa. Linuks Mint jest dużo łatwiejszy od Linuksa Debiana ale Linuks Debian jest dużo czystszym Linuksem od Linuksa Minta i dużo stabilniejszy i ma programy z w wersji ESU z długoterminowym czasem wsparcia na przykład przeglądarka internetowa Firefox. Interesuje mnie taki Linuks żeby był na zasadzie żeby zainstalować i zapomnieć i się z nim nie mordować. Co z tego że Linuks Mint jest dużo łatwiejszy od Linuksa Debiana jak Linuks Debian ma dużo więcej deweloperów i jest dużo lepiej dopracowany i stabilniejszy i jak coś będzie trudniej zainstalować to można użyć ChataGPT. Sprawdzałem różne Linuksy w wirtualnej maszynie VMWare Worsktation to sporo programów w Linuksie Mincie i tak trzeba ręcznie z konsoli za pomocą ChataGPT zainstalować i Linuks Debian oferuje dodatkowo większą stabilność. Czy da się tak Ustawić Linuksa żeby w czasie uruchamiania systemu nie trzeba było wpisywać hasła i nawet do wchodzenia do panelu sterowania i zarządzania partycjami i żeby systemowa konsola każde polecenia traktowała jako administratora tak jak to jest w Windowsie? Na naukę Linuksa najlepszy jest osobny komputer z przydzielonym całym dyskiem to nie ma takiej obawy że usunie przez pomyłkę Windowsa. Mam zainstalowanego Windowsa 10 22H2 64 bit na dysku talerzowym i tylko 8GB pamięci RAM to jest to do dupy pomysł żeby powolny dysk twardy jeszcze obciążać instalację Linuksa na VMWare Workstation. W takiej własnie konfiguracji Lnuks będzie najbardziej mulił. Czy gdybym zdecydował się na instalacje Linuksa na komputerze z 2003 roku na procesorze 1 rdzeniowym i obsługującym tylko 32 bity to czy lepszym pomysłem jest wybranie ostatniej dystrybucji Linuksa Debiana albo Minta co jeszcze obsługiwała 32 bity czy mniej znanej ale najnowszej co obsługuje 32 bity. Czy na procesorze 1 rdzeniowym muliłby YouTube gdyby na takim komputerze był zainstalowany najlżejszy możliwy graficzny Linuks. Dla Windowsa żeby oglądać bezpośrednio YouTube absolutne minimum to 2 rdzenie i 2 wątki. Czy Linuks nadaje się do codziennego użytku zamiast Windowsa. Czy MacOS jest dużo lepszy od Linuksa i czy Linuks jest tylko dlatego alternatywą dla Windowsa że jest darmowy i nie wymaga specjalnych komputerów i czy gdyby wszyscy ludzie byli bogaci to gdyby zrezygnowali z Windowsa to czy braliby tylko pod uwagę MacaOSa? Czy Linuks jest dla biednych osób i trudny terminal w Linuksie jest za kare że nie chciało się ludziom pracować i zarabiać więcej pieniędzy żeby sobie kupić lepszy komputer do najnowszego Linuksa albo komputer od MacaOSa?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...