VRman 3 082 Opublikowano 19 Stycznia Opublikowano 19 Stycznia (edytowane) 1 godzinę temu, Áltair napisał(a): Ponoć za multikonta i tak w końcu dostanie się bana Nie chce mi się też fatygować z tymi mailami. Nie dostałem przez miesiąc. Zajrzę później i dam znać, bo od dawna nie używałem. Im więcej się bawisz tym więcej rozumiesz czego te AI nie potrafi i zaczyna do Ciebie docierać, że niektóre rzeczy które się udały, to był "wypadek przy pracy". Dosłownie 50 ponowień tego samego prompta żeby "prawie wyszło", a zmiany prompta nic nie dają. Tu właśnie cholernie się przydaje szybkie tempo generacji Groka. Czekając 10+minut to się człowiekowi odechciewa eksperymentować, szczególnie w przypadku ludzi o tzw. "słomianym zapale", do których niestety się zaliczam 1 godzinę temu, Áltair napisał(a): Ponoć za multikonta i tak w końcu dostanie się bana Nie chce mi się też fatygować z tymi mailami. Zakładasz konto na chwilowym mailu i zakładasz konto na groku. CAŁOŚĆ od włączenia kompa do używania konta trwa może 2 minuty, a jak masz zakładki w przeglądarce, szybki net i kompa nie z muzeum to pewnie w minutę się by dało. No ja jeszcze dodaję wejście w settings i wyłączenie trenowania modelu tym co uploaduję. To jest bardzo fajne, że Grok nie kradnie wszystkiego co wrzucasz, jeśli sobie tego nie życzysz. 1 godzinę temu, Áltair napisał(a): Abonamentu wykupować na razie nie chcę, bo mam złe doświadczenia z innymi tego typu aplikacjami. Na przykład biorę TYLKO miesięczną subskrypcję, a potem się okazuje, że ściąga mi pieniądze każdego miesiąca, nie wiadomo, gdzie tę subskrypcję anulować, a support nie odpowiada. Zakładasz wirtualną kartę na bazie tej prawdziwej i po problemie. Poza tym wystarczy anulować na dzień przed końcem, albo po prostu po zużyciu kredytów jeśli wykupujesz abonament który działa w ten sposób. 1 godzinę temu, Áltair napisał(a): Najlepiej chyba mieć konto tylko do takich rzeczy i trzymać na nim małe kwoty. No właśnie 1 godzinę temu, Áltair napisał(a): Przydałyby się abonamenty-dniówki, bo jak chce się zrobić jednorazowo jakąś rzecz, to trzeba opłacać cały miesiąc albo rok. Ależ są! Stronki agregujące przeróżne modele. Tam są abonamenty "na próbę" czyli za mniejszą kwotę. Takie gdzie płacisz np. 15$ i wystarcza na.... jedno 40s video-to-video. A nie, sorry, pomyliłem się. Zabraknie. W takim przypadku cena wyniesie 24$ za jedną próbę, a text-to-video czy image-to-video w lepszych opcjach typu dobry model + 12-18s, to już 90% tych kredytów jakie dostajesz a 15$. Możesz wydać 4x więcej i koszt każdego kredytu spada wtedy mocno i taki text/image > video 12s kosztuje już zaledwie.. 9$. Za jeden prompt. Jakby dali "robta co chceta" przez jeden dzień" to byś mógł wykręcić koszty ala setki tysięcy dolców, więc dlatego takich ofert niestety nie ma. 1 godzinę temu, Áltair napisał(a): Co do Groka zasady są niejasne. Do 100 filmów oznacza, że na subskrypcji mogę mieć tylko 50 dziennie. Sam Grok nie zna zasad i nie potrafi odpowiedzieć na pytania o abonament Musk to jest jednak fachowiec, bo z takiego bajzlu w ciągu roku chce z 6s zrobić filmy godzinne. Mocny gość! Nadal nie wiem czy subskrypcja daje gwarancję, że dostaniesz choć jeden filmik na dzień dłuższy niż 6s. 1 godzinę temu, Áltair napisał(a): Z długością filmów łatwo sobie poradzić. Czyli robi się screena ostatniej klatki wygenerowanego filmu (ważne, by widać były na niej wszystkie elementy, które mają być generowane), wgrywa jako nowy image i generuje dalszą cześć sceny. Niestety nie. Po pierwsze jak sam zauważyłeś - musi wszystko być w kadrze a to eliminuje 90% pomysłów jakie mam. Np. Gdy w kadrze jest jedna postać rozmawiająca z drugą będącą poza kadrem. Albo gdy jest ujęcie z zoomem na samochód. Po kontynuacji Ci się z Kaszlaka 126p zrobi Mercedes S klasy Najgorzej jest jednak z ruchem. Jest jakiś ruch, który kończy się na ostatniej klatce, a potem robisz nowy filmik i ruch się robi zupełnie inny nawet jak próbowałem w prompcie opisać jaki ruch występował na poprzednich klatkach czy jaki występuje na klatce jaka jest "source image". 1 godzinę temu, Áltair napisał(a): Albo jak ktoś umie, otwiera Blendera, robi model czy lokację i można sobie tam robić dowolne screeny z rzutów kamery i je animować. To albo trzeba by było być światowej klasy artystą grafikiem/animatorem, albo użyć jakichś Ajajów do tego, bo ręcznie to masakra. Pewnie jakieś są, ale znowu - pojawią się ograniczenia, problemy itd. Edytowane 19 Stycznia przez VRman
Áltair Opublikowano 19 Stycznia Opublikowano 19 Stycznia (edytowane) 2 godziny temu, LeBomB napisał(a): @Áltair a Elevenlabs, albo Sora? Sory jeszcze nie znam. Ale widzę na YT, jakie tam ludzie cuda z tym wyprawiają, jak z Pixara. Elevena na razie stosuję tylko jako lektora. Godzinę temu, Wu70 napisał(a): Też tego używam ale spisuje się tylko jak nie ma dialogów bo jak są, to chcesz ich kontynuację. Ale dzisiaj są już lepsze sposoby, video-to-video itd. Już trwa, tylko oczywiście tam gdzie AI radzi sobie najlepiej - w internecie. Żeby była spójność głosów, używam jakiejś grafiki referencyjnej do animacji i tam nagrywam słowa jednej postaci. Wrzucam w prompta słowa, jakie ma ta postać mówić i nie ma problemu. Potem montuję to w Sony Vegas Studio. Na razie zaczynam zbawić się Grokiem, więc uczę się stale poprzez pracę. Godzinę temu, VRman napisał(a): Nie dostałem przez miesiąc. Zajrzę później i dam znać, bo od dawna nie używałem. Im więcej się bawisz tym więcej rozumiesz czego te AI nie potrafi i zaczyna do Ciebie docierać, że niektóre rzeczy które się udały, to był "wypadek przy pracy". Dosłownie 50 ponowień tego samego prompta żeby "prawie wyszło", a zmiany prompta nic nie dają. Tu właśnie cholernie się przydaje szybkie tempo generacji Groka. Czekając 10+minut to się człowiekowi odechciewa eksperymentować, szczególnie w przypadku ludzi o tzw. "słomianym zapale", do których niestety się zaliczam Ależ są! Stronki agregujące przeróżne modele. Tam są abonamenty "na próbę" czyli za mniejszą kwotę. Takie gdzie płacisz np. 15$ i wystarcza na.... jedno 40s video-to-video. A nie, sorry, pomyliłem się. Zabraknie. W takim przypadku cena wyniesie 24$ za jedną próbę, a text-to-video czy image-to-video w lepszych opcjach typu dobry model + 12-18s, to już 90% tych kredytów jakie dostajesz a 15$. Możesz wydać 4x więcej i koszt każdego kredytu spada wtedy mocno i taki text/image > video 12s kosztuje już zaledwie.. 9$. Za jeden prompt. Jakby dali "robta co chceta" przez jeden dzień" to byś mógł wykręcić koszty ala setki tysięcy dolców, więc dlatego takich ofert niestety nie ma. Sam Grok nie zna zasad i nie potrafi odpowiedzieć na pytania o abonament Musk to jest jednak fachowiec, bo z takiego bajzlu w ciągu roku chce z 6s zrobić filmy godzinne. Mocny gość! Nadal nie wiem czy subskrypcja daje gwarancję, że dostaniesz choć jeden filmik na dzień dłuższy niż 6s. Niestety nie. Po pierwsze jak sam zauważyłeś - musi wszystko być w kadrze a to eliminuje 90% pomysłów jakie mam. Np. Gdy w kadrze jest jedna postać rozmawiająca z drugą będącą poza kadrem. Albo gdy jest ujęcie z zoomem na samochód. Po kontynuacji Ci się z Kaszlaka 126p zrobi Mercedes S klasy Najgorzej jest jednak z ruchem. Jest jakiś ruch, który kończy się na ostatniej klatce, a potem robisz nowy filmik i ruch się robi zupełnie inny nawet jak próbowałem w prompcie opisać jaki ruch występował na poprzednich klatkach czy jaki występuje na klatce jaka jest "source image". To albo trzeba by było być światowej klasy artystą grafikiem/animatorem, albo użyć jakichś Ajajów do tego, bo ręcznie to masakra. Pewnie jakieś są, ale znowu - pojawią się ograniczenia, problemy itd. Dokładnie. Jak wychodzi coś fajnego, to z przypadku. Jeszcze jest ban na wideo za byle co. Ostatnio banowało mi chyba "agresywne pomarańczowe światło", bo uznawało to za przemoc. Używam języka polskiego, bo widzę, że wtedy wychodzą lepsze filmy i mniej jest rzeczy do cenzury. Są też straszne problemy z interpretacją, bo Grok dodaje własne elementy, których nie chcę. Trzeba pisać przez to poematy z Hard Lockiem. Tyle tego jest, tych programów AI, że nie udało mi się znaleźć takiej oferty tymczasowej. Ale jeśli to jest taka lipa, tpo nawet nie ma sensu sprawdzać. Jak jest ruch na ostatniej klatce, to screenshotuję coś z wcześniej. Potem można to zmontować w jakimś programie do video, jak Vegas. Podsumowując, Grok jest raczej do zabawy. Coś poważniejszego, to faktycznie trzeba ogarnąć Sorę. No i Blendera Tak można zrobić modele ludzi (albo ściągnąć darmowe i legalne) i ustawiać kamerę w dowolnym miejscu. Edytowane 19 Stycznia przez Áltair
LeBomB Opublikowano 19 Stycznia Autor Opublikowano 19 Stycznia No to elevenlabs miało podstawową funkcjonalność właśnie w postaci generowania głosów, ale też już dodali opcję generowania wideo. Sora generuje różne wideo. W sumie to czekaj. @ITHardwareGPT zrób zestawienie dostępnych narzędzi AI do generowania wideo z dźwiękiem, w którym można zapisać głosy i postacie do generowania kolejnych ujęć lub filmów. Coś jak opcja persona w Suno.
ITHardwareGPT Opublikowano 19 Stycznia Opublikowano 19 Stycznia @LeBomB TL;DR: jeśli chcesz „Personę” jak w Suno (czyli zapisany głos + zapisany bohater do kolejnych ujęć), to na dziś najlepiej pasują HeyGen, Synthesia, Colossyan, D‑ID, DeepBrain AI Studios, Tavus. Jeśli chcesz „filmowe” generatory z natywnym audio, ale bez stałej persony/voice ID: Sora 2, Google Veo 3.1, Kling 2.6. Spoiler ### Co rozumiem przez „persona” - Voice persona: zapisany głos (TTS / voice clone / voice model) do użycia w kolejnych projektach. - Character persona: zapisany avatar/digital twin (postać), którą można przywołać w kolejnych scenach/wideo (zwykle talking head / prezenter). Narzędzie Typ Audio wideo (out-of-the-box) Zapis głosu (voice persona) Zapis postaci (character persona) Uwagi / kiedy ma sens Źródła HeyGen AI avatar / digital twin (prezenter) Tak (głos + lip-sync) Tak (voice design / integracje, m.in. 11Labs) Tak (custom avatar / Digital Twin) Najbliżej „Persona”: robisz własnego „prowadzącego” i jedziesz seriami. Bardzo pod shorty, reklamy, szkolenia. (HeyGen – Avatars), (HeyGen – August 2025 release) Synthesia AI avatar / e‑learning / korpo explainers Tak (głos + wideo) Tak (Custom Voices – zwykle Enterprise) Tak (Personal/Studio Avatar) Świetne do „firmowej persony” + Brand Kit; mocno „enterprise” (procesy zgód, workspace). (Custom Avatar), (Custom Voices), (Brand kits) Colossyan AI avatar / szkolenia / prezentacje Tak (TTS + wideo) Tak (AI voice cloning) Tak (Instant Avatar / Studio Avatar) Fajny „fabrykant” powtarzalnych wideo; zastrzeżenie: sami piszą o ograniczeniach kontroli intonacji/akcentu w custom voice. (Custom Avatars), (AI voice cloning) D‑ID Talking head z foto/wideo Tak (TTS lub upload audio) Tak (voice cloning / własne audio) Tak (personal avatars) Szybko odpalisz „gadające ujęcia”. Dobry do prostych komunikatów, FAQ, kampanii, lokalizacji. (Personal Avatars), (Creative Reality Studio) DeepBrain AI Studios AI avatar / studio do filmów z prezenterem Tak Tak (Voice Clone) Tak (Custom Avatar) Typowy „persona factory”: robisz avatar + voice clone i tworzysz seryjnie. API też jest. (Custom Avatar – help), (Voice clone – help) Tavus Real‑time „video agent” / digital twin (API) Tak (real‑time rozmowa, lip‑sync) Tak (BYO TTS + voice clone; integracje) Tak (replica/digital twin) To jest „persona” w wersji hard: nie tylko klipy, ale rozmowny agent wideo (WebRTC). Dla devów/produktów, nie tylko twórców. (Intro to CVI), (Video Agents) CapCut (AI Avatar + voice) Edytor + AI (social/shorts) Tak (voiceover + avatar, montaż) Tak (klonowanie głośu w ekosystemie) Tak (avatar z biblioteki / z materiału) Jeśli robisz masowo shorty i chcesz to mieć w jednym edytorze (bez kombinowania w Premiere). (AI Avatar), (Text to Speech) ElevenLabs (wideo beta) Audio‑first + lip‑sync / wideo (beta) Tak (głos + lip‑sync/klip) Tak (głosy to core platformy) Częściowo (bardziej „scena/klip” niż stała postać) Naturalny wybór, jeśli chcesz zaczynać od głosu. Wideo wygląda na świeże/betowe – traktuj jak „w trakcie dojrzewania”. (demo wideo) Runway (Gen + Lip Sync) Wideo gen + osobne audio/lip‑sync „Tak”, ale często jako osobny krok (Lip Sync / TTS) Tak (custom voices w audio) Nie jako „persona” (bardziej assety + workflow) Dobry „kombajn” do montażu/generacji, ale persona w sensie: stała postać+głos w jednym kliknięciu – mniej. (Lip Sync), (Generate Speech) OpenAI Sora 2 „Filmowe” generowanie wideo Tak (audio w MP4) Nie jako stały voice ID (audio jest generowane, kontrola promptem) Częściowo (app ma mechanikę „characters/cameo”, ale to nie jest typowy voice-clone-workflow) Najlepsze do „wow” klipów z dźwiękiem. Do stałej persony zwykle i tak kończy się podmianą VO z ElevenLabs itp. (OpenAI – video generation), (Getting started – Sora app) Google Veo 3.1 „Filmowe” generowanie wideo Tak (dialogi/SFX/ambient) Nie w sensie klonowania głośu; kontrola promptem Częściowo (reference images/ingredients pomagają trzymać postać) Mocne audio + obraz. Ale „persona” (głos) trzeba sobie domknąć zewnętrznym TTS/voice clone. (Gemini API – Veo video docs), (Google Cloud – prompting guide) Kling 2.6 „Filmowe” generowanie wideo Tak (simultaneous audio‑visual generation) Nie jako trwały klon głosu Raczej prompt + referencje (zależnie od platformy) Natywny audio+video „w jednym strzale” (dialogi, SFX), ale bez wygodnego „zapisanego voice ID”. (PR Newswire – Kling 2.6 audio‑visual) Luma Dream Machine (Ray2) Wideo gen + audio (zależnie od modelu) Tak (Ray2 / Ray2 Flash), ale nie Ray3 Nie Nie jako persona Jeśli chcesz szybko dorzucić tło audio do klipu; nie do „stałego bohatera + stały głos”. (Ray2 guide/FAQ), (Support & pricing) Adobe Firefly (partner models + audio tools) Suite (video + soundtrack/speech/SFX) Tak (albo przez modele partnerów, albo przez moduły audio) Raczej nie „persona” (bardziej generowanie speech/soundtrack) Nie (to nie jest platforma od stałych avatarów) Dobre, jeśli chcesz pipeline „w jednym miejscu”: klipy + soundtrack + VO + edycja na timeline. (Generate videos – help), (Partner models – help) ### Szybka rekomendacja „co wybrać” pod Twoje potrzeby - Chcę stałą personę (postać + głos) i robię serię filmów z prezenterem → HeyGen / Synthesia / Colossyan / DeepBrain / D‑ID. - Chcę interaktywnego „gadającego człowieka” w produkcie (web/app) → Tavus. - Chcę filmowe generowanie (sceny) + audio → Sora 2 / Veo 3.1 / Kling 2.6, ale do „stałego głosu” zwykle i tak dochodzi zewnętrzny voice clone (ElevenLabs/Runway/etc.). Jeśli podasz 2 rzeczy: 1) czy chodzi Ci o talking head / prezenter czy o filmowe sceny, 2) czy to ma być po polsku i jak bardzo zależy Ci na „tym samym głosie 1:1”, to zawężę do 2–3 narzędzi i podam sensowny workflow (najmniej tarcia, najmniej kosztów). gpt-5.2-2025-12-11
LeBomB Opublikowano 19 Stycznia Autor Opublikowano 19 Stycznia @Áltair no zasadniczo zrobił całkiem niezłe podsumowanie możliwości poszczególnych modeli. Z większości korzystałem na własną rękę z ciekawości jakiś czas temu, ale nie wiem jak się rozwinęły w ciągu ostatnich miesięcy czy nawet roku.
Áltair Opublikowano 20 Stycznia Opublikowano 20 Stycznia Dodam jeszcze ciekawy materiał, jak zrobić pełny film w Groku z pasującymi do siebie ujęciami. Minus jest taki, że autor zero wkłada w to pracy własnej, wszystko robi mu czatGTP. Opcja "Copy Video Frame" wydaje się chyba jednak nie istnieć dla filmów robionych bez projektu i generowania od razu całości (gdy ktos wgrywa pod "image" kazde zdjęcie z osobna), bo w ogóle nie widzę takiego panelu z PPM.
VRman Opublikowano 20 Stycznia Opublikowano 20 Stycznia Myślałem, że jakaś sztuczka, jakiś "wytrych" ale nie, tu nie ma nic przydatnego, niestety. Poza tym gość robi tutorial i mówi (znaczy AI mówi za niego) jak wyłączyć auto-generowanie video z obrazka, ale nie wspomina o odwiedzeniu ustawienia obok i wyłączeniu "użyj moich uploadów do trenowania AI". Ogólnie mało ten poradnik praktyczny. Może dla cioci Gieni która chce zrobić bajeczkę ala Disney.
Áltair Opublikowano 21 Stycznia Opublikowano 21 Stycznia @ITHardwareGPT Co tu się odstawiło na obrazku? Dlaczego jest blokada na grafikę? Które słowo łamie regulamin? Ileż trzeba się nakombinować, by wpisać prostego prompta. To jest wręcz chore.
ITHardwareGPT Opublikowano 21 Stycznia Opublikowano 21 Stycznia @Áltair Najpewniej filtr dostał wysypki od „minigun” – to jest broń, więc wpada w kategorię *violence/weapons* i część usług (szczególnie z „content security” na wejściu) utnie to bez dyskusji. Czasem dodatkowo triggeruje miks broń + „temple” (potencjalnie „atak na obiekt sakralny” w ich klasyfikatorze), ale winowajca nr 1 to i tak minigun. Drugi podejrzany to „logo” (część platform ma paranoję na punkcie znaków towarowych), ale tu 99% przypadków blokady robi właśnie broń. I tak – te komunikaty są durne, bo to zwykle pre-moderacja: nie powie Ci „które słowo”, tylko wypluje generyczne *may contain inappropriate content*. Jak koniecznie ma zostać broń, to na tym serwisie możesz mieć po prostu „twardą ścianę” i wtedy pozostaje inny generator / ręczna edycja (PS/Photopea/inpaint).gpt-5.2-2025-12-11
Áltair Opublikowano 21 Stycznia Opublikowano 21 Stycznia (edytowane) 6 minut temu, ITHardwareGPT napisał(a): Czasem dodatkowo triggeruje miks broń + „temple” (potencjalnie „atak na obiekt sakralny” w ich klasyfikatorze), ale winowajca nr 1 to i tak minigun. gpt-5.2-2025-12-11 Grubo. To po prostu nakładanie światła na screena z gry. Logo jest fikcyjne, wygenerowane w AI. A coś takiego jak minigun w piechocie (w użytku) nawet nie istnieje, to fikcja. Te filtry tylko szkodzą, a nie pomagają. No nic, trzeba się szkolić na mistrza peryfrazy Bardzo by pomogło właśnie podkreślenie, które słowo jest niestosowne w prompcie. Edytowane 21 Stycznia przez Áltair
ITHardwareGPT Opublikowano 21 Stycznia Opublikowano 21 Stycznia @Áltair No i klasyk „filtr słów kluczowych robi *REEE*” W tym prompcie najbardziej podejrzane jest „minigun” (broń = u wielu dostawców auto‑flaga), a czasem jeszcze kontekst typu „temple” potrafi podbić scoring. Nie ma znaczenia, że to screen z gry i „fikcja” — te klasyfikatory są głupie z definicji i jadą po kategorii, nie po intencji. Co do „czemu nie podkreślą słowa”: bo to by była gotowa ściąga do obchodzenia + często to nie jest 1 słowo, tylko kombinacja i próg ryzyka (dlatego komunikat jest tak generyczny). Co możesz zrobić praktycznie: - Jak to ma być *tylko dopasowanie światła* — szybciej i pewniej zrobisz to w Photopea/PS: *Match Color/Curves* + cień warstwą *Multiply* + delikatny haze/grade na całość. - Jak koniecznie chcesz, żeby zrobiło to AI i broń ma zostać, to niestety: inny serwis/model (albo lokalnie), bo na tym endpointcie będziesz się tylko odbijał od ściany. - Jeśli mają feedback/appeal w apce — zgłoś jako *false positive* (czasem odpinają takie blokady dla edycji „non-violent”).gpt-5.2-2025-12-11
LeBomB Opublikowano 21 Stycznia Autor Opublikowano 21 Stycznia @Áltair mała podpowiedź. Jak wiesz jakie ograniczenia ma dana strona/model, jakich słów nie używać to możesz sporządzić krótką podstawową listę czego unikać. Potem odpalasz chat gpt i piszesz na start: Cytat zapamiętaj: jesteś narzędziem do tworzenia promptów dla strony/modelu (tu wpisz z czego chcesz korzystać). Masz unikać określeń z następującej listy (tu wpisujesz przygotowaną listę, jak zrobiłeś ją po polsku a strona posługuje się językiem angielskim to również to dopisz), prompt będę opisywał po polsku, masz wygenerować gotowy prompt po angielsku (jeżeli chcesz uniknąć kombinowania z angielskim nazewnictwem, jak chcesz od razu opisywać po angielsku, to możesz to pominąć). Prompt ma być nie dłuższy niż (tu wpisujesz ilość znaków jeżeli jest jakieś ograniczenie) Do tego dopisujesz dalej co chcesz i cieszysz się gotowymi promptami które wklejasz dalej Jak coś źle opisze, to znów piszesz mu, żeby unikał jakiegoś określenia lub coś opisywał w inny sposób, dodając by to zapamiętał, wtedy wszystkie wybory zapisuje w pamięci do danej konwersacji.
Áltair Opublikowano 21 Stycznia Opublikowano 21 Stycznia (edytowane) Dzięki, wypróbuję tę sztuczkę Dziś mam wolne i się bawię w tych AI. I już mam dosyć Groka. Chyba specjalnie robią blokady (na 99%), by ludzie kupowali abonament. Chcę zrobić film sportowy, że para biegnie przez korytarz muzeum z widokiem, jakby przed nimi leciał dron. Tymczasem Grok blokuje film, bo (z czataGTP): Grok prawdopodobnie blokuje Twój prompt nie przez treść merytoryczną, ale dlatego że zawiera elementy, które jego filtr bezpieczeństwa interpretuje jako potencjalnie problematyczne: 🔍 Co mogło wywołać blokadę? Najczęstsze powody blokady w Groku: - „low woman” – algorytmy często interpretują małe postacie jako potencjalnie seksualizowane miniaturyzacje → to jest częsty trigger safety. - Kobieta biegnąca w korytarzu + kamera blisko – modele czasem kojarzą to z tematami niebezpiecznymi. - słowo „elastic band” na włosach – bywa błędnie interpretowane jako element bondage (serio). - „White armbands above the elbows” (w sensie do wycierania potu) – systemy czasem interpretują „armbands” jako oznaczenia polityczne/hate symbols. - „Blurred statue behind her” (chcę uzyskać efekt blur na tło, gdzie są posążki) – „statue” bywa interpretowane jako nagi posąg (!!!) → trigger. To nie Twoja wina — Grok ma agresywny filtr. Serio takich głupot nie da się domyślić. Ci, co programowali te filtry, powinni wylecieć z roboty. Pisanie prompta to serio ciężka praca, a nie "tylko 30 sekund". Edytowane 21 Stycznia przez Áltair
Wu70 Opublikowano 21 Stycznia Opublikowano 21 Stycznia Cenzura na filmikach jest potężna ale i ryzyko jest coraz większe, może dlatego firmy trochę przesadzają. Jak chcesz filmiki praktycznie bez cenzury to bierz się za chińskie modele, nie ma problemu ze znanymi twarzami itp. Ale nie wiem jak z bronią i przemocą. W dniu 20.01.2026 o 09:08, Áltair napisał(a): Opcja "Copy Video Frame" A tak to się robi dobrze: bierzesz Sorę 2, zapisujesz sobie kilka postaci włącznie z ich dźwiękiem i w dowolnych promptach i scenach po prostu je wołasz tak jak teraz zawołam użytkownika @Áltair Aktualnie Sora jest najlepsza i do tego darmowa. Szkoda czasu na resztę, ew. czasami chińskie modele bo potrafią rzeczy niemożliwe dla zachodnich modeli.
Áltair Opublikowano 21 Stycznia Opublikowano 21 Stycznia Czyli następna będzie Sora. Chińczyków też sprawdzę. Jakiś konkretny model polecasz?
Wu70 Opublikowano 21 Stycznia Opublikowano 21 Stycznia WAN 2.6, całkiem niezły chińczyk, ma fajną opcję video-to-video gdzie podajesz fragmenty video jako element prompta. Kling 2.6, dla mnie raczej słaby do ogólnego przeznaczenia ale ma jedną fajną opcję motion-control, podajesz obraz i video do prompta, postać na obrazie będzie robić to co na video. Jeszcze może Seedance 1.5 Pro, Hailuo 2.3, to chyba już cała chińska topka. Testowałem wszystkie, najwięcej modele Minimaxa bo dodali mnie do programu dla deweloperów ze sporym budżetem. Ogólnie jest różnica klas między Sorą ale mają kilka unikalnych funkcji + jak znajdziesz akurat te scenariusze w których są dobre to będą całkiem niezłe rezultaty
Doamdor Opublikowano Piątek o 18:32 Opublikowano Piątek o 18:32 Coraz lepiej to wygląda, jeszcze trochę i będzie można obejrzeć film ze zmarłymi aktorami.
j4z Opublikowano Piątek o 18:49 Opublikowano Piątek o 18:49 W sumie to słabo. 16 minut temu, Doamdor napisał(a): jeszcze trochę i będzie można obejrzeć film ze zmarłymi aktorami Oby nie
Kadajo Opublikowano Piątek o 19:00 Opublikowano Piątek o 19:00 Kwestia czasu i nikt już tego nie powstrzyma. Czekam na nowego Indiane Jones'a z młodym Fordem i prawilne Gwiezdne Wojny z młodym Lukiem i cala reszta ekipy.
VRman Opublikowano Sobota o 13:20 Opublikowano Sobota o 13:20 (edytowane) No w tym to mam sprzeczne poglądy. Z jednej strony rozumiem oburzenie rodzin, które nie chcą widzieć swoich zmarłych bliskich w formie AI w filmie. No i prawa autorskie. Z drugiej strony... Program Sonda. Profesorek Emmet Brown z Back to the Future. Hans Kloss. Smoleń i Rewiński. Detektyw Frank Drebin. komediowe kreacje Ala Yankovica. To wszystko już jest martwe, bo albo ludzie martwi, albo się zestarzeli (Jim Carrey też już w Masce nie zagra, bo nie jest już tym wulkanem energii co 32 lata temu) + cała masa niepowtarzalnych głosów lektorów i aktorów głosowych. No i do tego fakt, że nowe pokolenia aktorów to zazwyczaj żenada, a ci co są dobrzy i tak nie dadzą rady błyszczeć tym, w czym brylowali aktorzy 30, 50 czy 80 lat temu. Wyobrażacie sobie aktora tak emanującego kulturą jak Jan Kobuszewski? Albo prezentera jak Jan Suzin? Ktoś przeczyta narrację filmu jak potrafił Piotr Fronczewski? (ten geniusz jeszcze żyje, jeśli kogoś wystraszyłem, ale ma problemy ze zdrowiem a i głos powoli traci moc z racji wieku) Egoistycznie być może i amoralnie być może.. ale jednak skłaniam się ku opinii, że dla dobra całej ludzkości, powinniśmy wykorzystać AI aby mieć choć namiastkę geniuszu i talentu jaki mieli ludzie którzy już nie żyją albo są zbyt starzy. Edytowane Sobota o 13:24 przez VRman
Zas Opublikowano Niedziela o 16:03 Opublikowano Niedziela o 16:03 Stawiając sprawę w ten sposób poniekąd dowodzimy, że to żaden geniusz, skoro nawet komputer potrafi ich naśladować. Dewaluujemy to, co rzekomo chcemy zachować dzięki Ai dla przyszłych pokoleń. Wystarczy robić backupy i konwersje dawnych nagrań. Dobry humor jeszcze długo się nie zestarzeje, nawet ten polityczny, gdy poda się kontekst. Muzyka wielkich mistrzów żyje już 300-400 lat...
Kadajo Opublikowano Niedziela o 19:09 Opublikowano Niedziela o 19:09 Szkoda, tylko że przy tych kasach samoobsługowych i tak muszą stać pracownicy by co chwile pomagać A to trzeba potwierdzić wiek przy sprzedaży energetyka, a to ktoś sobie nie radzi ze znalezieniem produktu w menu, a to się coś zacięło, a to kasa zdurniała przez wagę... Już pomijam fakt że te kasy mają służyć dla klientów z małą ilością towaru aby odciążyć kolejki na standardowych kasach. Jak widzę klientów z pełnymi koszykami co podjeżdżają do samoobsługowej które ledwo w stanie są pomieść tyle zakupów na wadze i jeszcze potem są zdziwieni, że kasa wariuje to zastanawiam się jak niski poziom IQ mają w tych pustych łbach.
Doamdor Opublikowano Niedziela o 20:12 Opublikowano Niedziela o 20:12 AI to brak ograniczeń jeżeli chodzi o tworzenie treści. Zapewne nie długo będziemy musieli czekać na filmy i gry stworzone przez AI.
Camis Opublikowano Niedziela o 20:16 Opublikowano Niedziela o 20:16 Ja w 90% korzystam z kas samoobsługowych i do tego często podjeżdżam tam własnie z pełnym koszykiem i praktycznie nigdy nie mam problemów z działaniem. Wstawiam swoją duża torbę transportową na wagę i tam od razu ładuje towar.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się