VRman 3 320 Opublikowano 6 Kwietnia Opublikowano 6 Kwietnia Nie ma żadnych hajsów, bo YT demonetyzuje AI. Jakość rozumienia promptów nie bardzo chce iść do przodu, a czasem jest regres, więc może za te 2 lata będzie jak piszesz, a może nie będzie. Ludzkości to nie "uwolni", żadnego cudu nie będzie. A język polski jest ponoć lepszy do promptowania niż angielski.
Zas Opublikowano 6 Kwietnia Opublikowano 6 Kwietnia Tylko sprawdź dobrze to, czego się nauczyłeś. hubio. Mnie też kilka razy AI bardzo ładnie zebrało dane z sieci i wytłumaczyło fajnie kilka rzeczy. A dobrych kilkanaście razy przemyciło głupoty, uzupełniło sobie losowo to, czego nie "wiedziało" i podało błędne informacje, po czym oczywiście ładnie przeprosiło, gdy wytknąłem mu błąd.
hubio Opublikowano 6 Kwietnia Opublikowano 6 Kwietnia (edytowane) @VRman właśnie na szybko wrzuciłem zapytanie o tą demonetyzację i mi wypluło, że tylko treści chaotyczne bez ładu i składu z czym się zgadzam w 1000%. I absolutnie nie to chcę robić To ma być tylko narzędzie. @Zas od poziomu zero po 4 godzinach mam poziom z 40% i każdą jedną rzecz mi wytłumaczyło. Tak na pierwszy ogień, żeby ogarnąć całość to dla mnie wielkie WOW ! Wiadomo, że siedząc już bardzo głęboko lepiej się pytać społeczności. Podejrzewam, że w tym co w miarę ogarniam czyli np. Omsi 2 to Ai by wielu niunasów nie umiało. Bo zresztą sam to już sprawdzałem. Ale jak ktoś ma w czymś zerową wiedzę, ale umie jako tako analizować i uczyć się to jest mega. Dla mnie to game changer, jak pisałem. @VRman początki internetu jak się siedziało w kafejkach internetowych, a w domach był modem na wdzwanianie to też nikt nie myślał, że za 30 lat będzie to co teraz*. To są dopiero początki Ai. To co już robi i to co się dowiedziałem, że będzie za 2-5 lat to jest zmiana dla ludzkości. Przekonasz się Pamiętam jak w jakimś 2001 albo 2002r kupiłem na Allegro jakiś legalny OS Microsfta w pudełeczku itp i sprzedawca okazał się oszustem. Tzn nic nie wysyłał tylko wziął kasę i uciekł gdzieś. I tak go potem złapali. W każdym razie poszedłem na swoją lokalną policję, a człowiek mi mówi tak: Panieee, jak można kupić coś CZEGO SIĘ NIE WIDZI? Oczywiście podśmiechujki kolegów. Teksty w stylu, że oni kupują w sklepie. Że oni by nigdy tak nie zrobili. Oczywiście sprawę mi przyjął. Dochodzenie było wszczęte. Zresztą różne jednostki policji dostały wtedy od poszkodowanych. I cała rozmowa była miła... Raczej takie sympatyczne były te podśmiechujki... Ale obrazuje to podejście wtedy do internetu. I być może teraz tak jest do Ai. Pamiętam, dosłownie jeszcze chyba rok temu chatGPT free był limitowany do 5 zapytań. Teraz można gadać free godzinami... I jaki poziom odpowiedzi w stosunku do tego co było z rok temu. Edytowane 6 Kwietnia przez hubio
VRman Opublikowano 6 Kwietnia Opublikowano 6 Kwietnia (edytowane) Tymczasem zapowiedzi tydzień temu od Elona i nie tylko, w temacie Groka: - W przyszłym tygodniu wielki upgrade! "It will be epic!" - powiedział Musk. Tydzień minął. realia ocenił reddit: - dodano tryb "quality". Działa w kratkę, jednego dnia działa, innego jest totalna porażka, czasem działa gorzej niż normalny. Ale tylko do obrazków. Filmy nie dostały nic. - nic poza tym. Wielki upgrade w tym tygodniu może trzeba mikroskop, żeby go dostrzec. - teraz coś zapowiadają na koniec kwietnia (lol ) i ten EPIC upgrade to będzie... trochę lepsze animowanie ludzkich ruchów i mimiki twarzy oraz tryb 1080p o który chyba nikt nie prosił (przecież Grok się nadaje do popierdółek a nie pro filmów, więc co komu z tego 1080p. Ja nawet 720p nie używam, bo zjada limit szybciej i generuje się dłużej) - masowe narzekanie, że przestawili wajchę tak bardzo w drugą stronę, że teraz ludziom blokuje nawet filmiki na których są ubrani ludzi, albo filmiki na których w zasadzie nic nie powinno aktywować blokady. Ludzie już robią memy, jak strasznie są zawiedzeni, bo chcieli AI bez cenzury jak Elonik Pompuj Balonik obiecywał, a tu dupa blada. Znaczy content moderated, dupa czy blada czy nie - nie przejdzie już. miesiąc temu Musk zapewniał, że cenzura będzie na poziomie tego co jest w filmach kinowych R18. Na razie to wygląda jakby cenzura weszła na poziom telewizji Trwam albo AIatollahów, gdzie odsłonięcie kostkek lub kolan to już obraza majestatu Osobiście się nie wypowiem. Wywalało mi tylko w przypadku prób parodii gdzie gość dostaje lecącą lodówką, to pewnie wymyśliło, że to przemoc, bo napisałem "gets hit with a fridge". Poza tym raz jeszcze bez żadnej logiki, ale ogólnie mi żadna moderacja/cenzura jeszcze za skórę nie zaszła. A szczerze mówiąc, jak czytam płacze jakichś fanów anime, którzy kupili, żeby tworzyć anime-pornole czy coś, to bardziej się uśmiecham niż oburzam Reddit też dyskutuje o tym, że chatboty tekstowe idą do tyłu, głupieją i nie umieją tego co umiały - ktoś na reddicie pisze, że to przez naciski na cenzurę, więc model musi sprawdzić czy aby na pewno nie ma ryzyka, że odpowiedź będzie nieodpowiednia, przez co całość traci jakikolwiek sens i chatboty w osttnim roku strasznie przez to zgłupiały. Czy tak jest? Nie wiem. Jestem zdania że na pewno chatboty OpenAI i Groka są głupie i bezużyteczne niemal i że rok temu było znacznie lepiej (pozdrawiam osoby spodziewające się utrzymania tempa i mega postępu rok temu ) - ale nie znam powodów. Jak miałbym strzelać, to pewnie po prostu rozwodnili i teraz ilość zasobów na chat jest pewnie 5x mniejsza niż na początku, bo wtedy mieli mniej userów i chcieli się promować, a teraz ci wredni dziennikarze i inwestorzy coś gadają o kosztach i zyskach i nie dają przepalać kasy bez sensu, chamy jedne! Ktoś z aluminiową czapeczką na głowie też zapewnia, że rozszyfrował zystem - że te usługi Video to była akcja rządów/korpo żeby pozbierać dane, że ludzie sami trenowali AJaje, a teraz Sorę i resztę powyłączają, bo już AI zassało wszystko i nie potrzeba więcej. Edytowane 6 Kwietnia przez VRman
Keller Opublikowano 6 Kwietnia Opublikowano 6 Kwietnia Moim zdaniem znacznie ważniejsze jest to co robić by zabezpieczyć się na rynku pracy w razie czego. Czyli zrobić coś, by wyprzedzić "przeciętnych" ludzi w robieniu np. kursów. Kiedyś tak było z testerem automatycznym. Teraz dostać się na juniora ciężko, a wtedy tylko kurs.
Wu70 Opublikowano 6 Kwietnia Opublikowano 6 Kwietnia Chcesz być dobrym operatorem AI to po prostu trzeba już zaczynać. Ja po wdrożeniach w ogromnej firmie widzę że sporo osób prezentuje ogromny opór, zostaną po prostu w tyle. 3 godziny temu, VRman napisał(a): Reddit też dyskutuje o tym, że chatboty tekstowe idą do tyłu, głupieją i nie umieją tego co umiały - ktoś na reddicie pisze, że to przez naciski na cenzurę, więc model musi sprawdzić czy aby na pewno nie ma ryzyka, że odpowiedź będzie nieodpowiednia, przez co całość traci jakikolwiek sens i chatboty w osttnim roku strasznie przez to zgłupiały. Czy tak jest? Nie wiem. Jestem zdania że na pewno chatboty OpenAI i Groka są głupie i bezużyteczne niemal i że rok temu było znacznie lepiej (pozdrawiam osoby spodziewające się utrzymania tempa i mega postępu rok temu ) - ale nie znam powodów. Jak miałbym strzelać, to pewnie po prostu rozwodnili i teraz ilość zasobów na chat jest pewnie 5x mniejsza niż na początku, bo wtedy mieli mniej userów i chcieli się promować, a teraz ci wredni dziennikarze i inwestorzy coś gadają o kosztach i zyskach i nie dają przepalać kasy bez sensu, chamy jedne! Na reddicie jest spora grupa wspominająca modele jak 4o i błagająca o ich powrót ale to bardziej chodzi o styl wypowiedzi i jakiś taki "vibe rozmowy" a nie "inteligencję". Obecne modele są o klasę wyżej i postęp jest gigantyczny. Rok temu potrafili jeszcze się śmiać z AI, dzisiaj każda firma kombinuje jak wdrożyć "agenta AI" Nikt nawet nie patrzy na stare modele. Cenzura i zmieniające się limity dla kont free to zupełnie inna sprawa. Dziwię się że w ogóle jeszcze są oferowane Trend jest taki że limity będą coraz mocniej zaciągane, maleje potrzeba pokazywania że AI w ogóle może działać a priorytet idzie na zwrot z inwestycji.
hubio Opublikowano 6 Kwietnia Opublikowano 6 Kwietnia @Wu70 to też jest z jednym powodów. Właściwie do tego co ja chcę robić to na razie jeszcze Ai jest za słabe. Dobre będzie za 2 lata. Natomiast wchodzę w temat bo to będzie, jak piszesz przyszłość. Nie stoi za mną żadne korpo, ale własnymi siłami spróbuję i już po wczorajszej rozmowie z Ai widzę, że dobrze mi się prowadzi rozmowę z Ai i dobrze tłumaczy. A wchodzę też dlatego, że temat mocno mnie wkręcił. Natomiast czy i tak gdzieś nie utknę z różnych powodów to inny temat... Choć wiem z doświadczenia, że jak jakiś temat mocno mnie wciągnął to prawie nigdy nie odpuściłem. Dobra odpuściłem z językiem C++ bo jednak bez żadnej szkoły i ze słabą bazą matematyczną to było za dużo. I kiedyś, ale to dawno Access, ale ani jedno ani drugie mnie tak mocno nie wciągnęło. Te narzędzia co są obecnie w Ai są mega przyjazne dla użytkowników.
LeBomB Opublikowano 6 Kwietnia Autor Opublikowano 6 Kwietnia 5 godzin temu, Wu70 napisał(a): Chcesz być dobrym operatorem AI to po prostu trzeba już zaczynać. Ja po wdrożeniach w ogromnej firmie widzę że sporo osób prezentuje ogromny opór, zostaną po prostu w tyle. Tak, tylko problemem jest to, gdzie zacząć i w jakim kierunku iść, bo kursów AI jest od zarąbania, ale są tak różnej jakości, że można wydać kupę kasy, a być w tym samym miejscu od którego się zaczynało. @hubio tylko taki standardowy GPT ma obecnie sporo limitów, chyba że kupiłeś suba albo wykupujesz MS365 to w pakiecie masz Copilota, który obecnie korzysta z modeli GPT plus coś jeszcze, bo w tym roku zachowuje się znacznie lepiej i w tym zakresie, w którym np. ja korzystam, to odpowiedzi zaczął dawać bardzo zbliżone do nowszych modeli GPT, a czasem nawet lepsze. Zostaje jeszcze Gemini, ale ten lubi sobie jeszcze dopisywać sporo rzeczy do tego co wyszuka w sieci i w sumie z tych trzech wymaga najwięcej weryfikacji. Jak sprawa dotyczy czegoś bardziej zaawansowanego to z czasem może okazać się potrzebny jakiś agent AI ukierunkowany na to co robisz.
Slayer Opublikowano 7 Kwietnia Opublikowano 7 Kwietnia Coś tam planuje zacząć działać w temacie AI i na pierwszy ogień będę zdawał ai-900. Na początek powinno być spoko a potem zobaczymy, wiem że w firmie już szef mojej szefowej chodził i pytał kto ma wlasnie ten cert.
LeBomB Opublikowano 7 Kwietnia Autor Opublikowano 7 Kwietnia @Slayer z tymi starymi certyfikatami coś zmieniają w tym roku https://techcommunity.microsoft.com/blog/skills-hub-blog/the-ai-job-boom-is-here-are-you-ready-to-showcase-your-skills/4494128
Karister Opublikowano 7 Kwietnia Opublikowano 7 Kwietnia W dniu 6.04.2026 o 10:24, VRman napisał(a): Jakość rozumienia promptów nie bardzo chce iść do przodu, a czasem jest regres, więc może za te 2 lata będzie jak piszesz, a może nie będzie. Kwestia doboru odpowiedniego modelu, jakości promptów i umiejętności pracy z AI. Ja rok temu zaniechałem swój pet project, bo nowości i zmiany tak szybko wychodziły, że mnie zasypywały i nie wyrabiałem się z czytaniem release notesów i podbijaniem zalezności, nie mówiąc o postępach nad samym meritum projektu. Godziny utopione w ogarnianiu coraz to nowszych problemów i uspójnianiu zmian w tuzinie miejsc. Szarpnąłem się na wyższą licencję AI i w tydzień wieczorami z doskoku wszystko odgruzowane, pchnięte do przodu więcej niż przez ostatni rok. Projekt praktycznie gotowy. Jedyne, co boli, to koeniczność pracy w krótkich interwałach czasu w równych odstępach, bo masz x tokenów co kilka godzin, a starcza to na nie tak dużo. Z drugiej strony, dwa dobre promoty w drodze do kuchni i pod prysznic potrafią dać więcej niż siedzenie kiedyś bitymi godzinami. AI daje dobrą bazę i potem to już kwestia szlifów. W robocie sprawy mają się podobnie. Praca idzie kilka razy szybciej, do tego jest przyjemniejsza, bo nie trzeba się babrać z legacy i godzinami reanimować trupów. Spędzasz kwadrans nad dobrym promptem i niech się potem mieli w czasikawki czy offtopa. Jak nie pyknie, to jeszcze raz z lepszym promptem. Jak się skończą tokeny, to fajrant, bo i tak w 4 godziny zrobiło się tyle, co kiedyś w kilka dni, a pozostałe godziny bez AI będą nieefektywne. Lepiej coś doczytać, douczyć się czy przemyśleć dalsze działanie. Tak teraz wygląda developerka w big techu. Jedyny haczyk jest taki, że trzeba mieć taką samą wiedzę jak kiedyś, żeby te dobre prompty pisać. To jest w zasadzie opowiadanie, co ja bym zrobił, jak i dlaczego. AI robi wtedy tak jak ja, tylko szybciej i zazwyczaj bez czeskich błędów. Prompt w stylu "zrób wszystko dobrze" nie zadziała. Kwestia czasu, aż pojawią się modele dla coraz to kolejnych zawodów, gdzie liczy się praca umysłowa. Ewentualnie trochę przystopuje ze względu na nierentowność i wróci, gdy sprzęt dorośnie. Jest to chore, że miliarderzy sobie przewidują, że lduzie nie bądą mieć w domu swojego PC, tylko wynajmować go przez neta. Gry opłacone, ale nie własnosć na Steam, granie w chmurze z Disconnectami, bo poszło się wziać prysznic (vide GeForce Now), a na koniec tylko monitor bez kompa na biurku. Patola to, co robią firmy od AI. Roczna produkcja sprzętu z góry wykupiona na kredo za kasę inwestorów w zamian za obietnice zysku nie szybciej niż za x lat. Głupie Raspberry Pi 5 8GB kupowałem jakiś czas temu za 350PLN, a dzisiaj cena blisko tysiaka. Nie obraziłbym się, gdyby się tym firmom nie udało wyjść na 0 i wszystko w końcu by walnęło, kończąc się pewnie kolejnym kryzysem. Za dużo i za pazernie. Dla mnie też ciekawą kwestią jest to, jak AI rozleniwia. Dzisiaj są pracownicy, którzy mają doświadczenie, wiedzę i rozumieją to, co robią od strony bebechów. Tzn. powinni rozumieć, a wiadomo, że są i tacy, i tacy. Za x czasu rynek pracy zdominuje pokolenie ludzi, którzy nigdy nie musieli tego rozumieć, bo AI robi za nich i nagle nie będzie komu obsługiwać grubszych tematów, gdzie AI akurat nie daje rady. Albo modele jeszcze bardziej się poprawią, albo nagle się okaże, że brakuje specjalistów, którzy robili jeszcze przed czasami AI. W dniu 6.04.2026 o 10:24, VRman napisał(a): A język polski jest ponoć lepszy do promptowania niż angielski. Ponoć lepszy. Zależy, jak definiujesz "lepszy". Na pewno droższy.
VRman Opublikowano 7 Kwietnia Opublikowano 7 Kwietnia Ale chyba o czym innym piszemy. Ty o projektach, więc zakładam programowanie itp. Ja piszę o zwykłym używaniu przez ludzi nie będących jAJowcami - chatgpt i zapytania o wszelkie info + proste rozkazy typu "idź, przeczytaj, streść tak i tak" - polecenia w promptach do video czy nawet obrazków. Nie mogę powiedzieć, żebym był choćby w pobliżu kogoś kto może to oceniać, ale rok temu testowałem kilka modeli do obrazków i od pół roku cośtam się bawię video, i jeśli jest inaczej, to gorzej, a nie lepiej. "Gadam" też tutaj z forumowym botem i niekiedy naprawdę kompletnie nie rozumie bardzo, bardzo prostego prompta. Czy napisanego poprawnie i idealnie po AI? Możliwe, że nie, ale właśnie o to mi chodzi. Jak piszę "idź i zlicz wszyskie pozycje w sklepie jakie mają w nazwie RTX" to mam na myśli to, a nie liczenie wysokości fontów lub liczenie w pierwszej linijce. Grokowy chatbot nie rozumie w ogóle niczego nigdy. Nawet jak trzeci raz go opierdzielasz za to, że nie słucha prompta i robi dokładnie odwrotnie - przeprosi, napisze, że rozumie twoją frustrację i... zrobi czwarty raz dokładnie to samo. Co ciekawe dostęp do poprawnej odpowiedzi ma, bo jak znalazłem rozwiązanie ręcznie sam i napisałem mu, to podał info rozszerzone, więc "wiedzę" o tym miał. A to nie był żaden rocket science tylko proste komendy w Linuxie, bo walczyłem dłużej z jedną pierdołą a jako laik to mi szło jak po grudzie. Na reddicie w działach o tekstowych AI (wspomaganie przy pisaniu książek, interaktywne gry i tym podobne pierdoły) to jest w zasadzie od roku narzekanie, że co nowsze to jest gorzej. O GROKowym video już pisałem. Sprawdziłem wczoraj kilka chińskich modeli video (poza Seedance) i są chyba jeszcze gorsze niż 3 miesięce temu, jakby ktoś z chmury przestawił wajchę na kompa z RTX 5060 16GB. "A miało być tak pięknie". No chyba jednak hype swoje, a praktyka swoje. Te wszystkie wyspecjalizowane AIaje do pracy to z tego co tu piszecie idą do przodu bardzo ładnie. Ale hype na AI nie powstał dlatego, że ktoś mówił o projekcie programistycznym, bazodanowym, itp. Hype był bo ludzie oczekiwali po ChatGPT 3 utrzymania takiego tempa wzrostu i kolejnych przełomów. A dostajemy regres. Na reddicie ludzie płączą, że nie mogą wrócić do starszego modelu, bo nowe są do dupy. Hype był na to, że zaraz każdy będzie mógł generować całe filmy. Minął rok - dupa blada. Hype był na to, że jakość generowanego video będzie nieodróżnialna od prawdziwego nagrania - dupa blada. Hype po Suno był, że poza kwestiami moralno-prawnymi, to będzie rewolucja w tworzeniu muzyki. Minęły 2 lata i... no nic nie ma. Za to wokół Suno i podobnych zaczyna się zbierać coraz większa chmura smrodu wypierdziwana przez rosnącą grupę prawników i plotki o tym, że tam kradziono na potęgę i powoli udaje się to udowadniać. O to mi chodzi. Hypetrain spada w przepaść.
Karister Opublikowano 7 Kwietnia Opublikowano 7 Kwietnia (edytowane) Ja bym raczej powiedział, że hypetrain nie rozumie podstaw. AI to jest narzędzie. Nawet jeśli bardzo sprawne, to wciąż narzędzie wymagające obycia. Jak się z nim nie umie posługiwać, to nie ma co oczekiwać cudów. To nie jest magiczna różdżka, dzięki której Kowalski czy Nowak zrobią to samo, co do tej pory robił zespół zawodowych profesjonalistów. Można sobie wygenerować fajne obrazki w ramach hobby czy zabijania czasu, ale po profesjonalne logo, wizualizacje czy inne wciąż trzeba się udać do grafika. Ten zrobi swoje, tyle że szybciej, niż kiedyś, dzięki wsparciu AI. Łatwo znaleźć przykłady wykorzystania AI przez ludzi siedzących w danym temacie i na efekty długo czekać nie było trzeba. Chociażby wygrana w konkursie dla grafików cyfrowych, czy pierwsze miejsce utworu na liście Billborad. Tyle, że ci ludzie zazwyczaj używają wyspecjalizowanych modeli w danym kierunku, które walą kawę na łąwę przy dobrym użyciu i idą w metaprompting. To nie są zabawki popkroju ChatGPT, który zawsze pisze tak, żeby połechtać próżne ego randomowego człowieka. "Super pytanie, masz dobry pomysł, doskonałe przemyślenia, ale jesteś fajny i mądry. Edytowane 7 Kwietnia przez Karister
hubio Opublikowano 7 Kwietnia Opublikowano 7 Kwietnia (edytowane) To co bym ogarniał przez 5 dni dzięki Ai ogarnąłem w ciągu 5 godzin! Boże to jest po prostu MAGIA ! Ja 5 godzin temu nie wiedziałem nawet jak zainstalować odpowiednie programy, a teraz już generuję pierwsze spójne obrazy i to nie w jakimś Nano Banana 2 które zresztą jest dobre, ale ja na offline działam od podstaw żeby w temat wejść od podłoża. Tłumaczy każdą jedną funkcję co robi i jak działa. Podaje gotowe linki. Rzeczywiście z jedną rzeczą nie nadążył za mną, ale w zasadzie to jedyny błąd, że nie zadał właściwego pytania. Pomaga też w promtach. No we wszystkim. Pewno jak już się jest głęboko to i tak trzeba samemu, ale na początek to jest niesamowite. Przy ilości obecnie bardzo wielu modeli Ai do różnych zadań. Przy tej ilości wiedzy do przyswojenia to nie ma lepszego nauczyciela. Czuję się jakbym miał koło siebie kogoś kto by za godzinę takiej indywidualnej lekcji brał z 300zł za godzinę. Na koniec jak mi się nawet nie chciało przypominać słówek angielskich to pisałem tylko tak: daj na to i na to prompta. Oczywiście co chcę po polsku i dostawałem linijki po angielsku. @Karister ale to właśnie jest fajne bo nie demotywuje takiego randoma jak ja To nie jest człowiek, że będzie się irytował albo oceniał jakim jesteś jełopem Więc nie ma żadnej blokady pytania o to samo. Jak ktoś ma talent do czegoś a nie kończył nawet przykładowo grafiki komputerowej to jeszcze szybciej może dzięki Ai również, kiedyś wejść na poziom pro. Ja nigdy nie byłem na lekcji informatyki, a w latach 90tych składałem komputery całej rodzinie i znajomym. Nigdy nie byłem na kursie excela, a jak poszedłem do wojska to miałem 3 godziny na udowodnienie, że znam bo inaczej do namiotu... Więc udowodniłem ucząc się większości w instrukcji wbudowanej, a po paru latach zrobiłem tacie wzory na liczenie jakiś złożonych średnich czy w czasach jak wchodził VAT formuły na licznie VATu co podobno moja księgowa dawała koleżankom Dla samouków Ai to jest 100 razy lepsze niż wszystkie kursy razem wzięte ... A teraz dzięki Ai to wszystko można zrobić o wiele szybciej. 3 godziny temu, Karister napisał(a): ,bo i tak w 4 godziny zrobiło się tyle, co kiedyś w kilka dni, a pozostałe godziny bez AI będą nieefektywne. U mnie tak jest z nauką. Przedwczoraj nie wiedziałem co to jest prompt Mówiąc w skrócie: obsługa nowego programu ręcznie, szczególnie jak się nie zna angielskiego perfekcyjnie to szukanie po necie opisu funkcji, następnie tłumaczenie na polski i dalsze zgłębianie... Z Ai wszystko jednym zdaniem. Jak ktoś ma jakiegoś ducha artystycznego - chce robić jakieś zdjęcia, filmy, muzykę albo wszystko razem i działać na YT lub innych polach to ma ogromne narzędzia. A podobno nawet już jest coś co zrobi samo aplikację jak się ma na coś pomysł. Pomijam, że można sobie zrobić wirtualnego avatara np. na YT i robić co się chce. O zarabiających spore pieniądze wirtualnych influencerkach nawet nie ma co pisać bo słyszy się ile tam hajsu idzie. @VRman w ciągu 2 latach mają być modele robiące długie filmy. Pomijam jeszcze fakt, że na głupim google bez wchodzenia w chatgpt ma się od razu tak z 80% odpowiedzi na szybko. Jak działa jakieś lekarstwo albo jaki dać skrypt do autobusu w Omsi 2. Wiem, że ta wiedza wciąż jest pobieżna i w 100% niedokładna, ale na wejście w jakiś temat lub po prostu wystarczające liźnięcie tematu jest ok. Przykładowo chcę sobie zrobić podróż do Indii. Kiedyś musiałbym się przekopywać przez tony informacji począwszy od szczepień poprzez najtańsze loty i hostele. Teraz właściwie jednym pytaniem mam odpowiedź na 80%. Oczywiście wciąż trzeba samemu zdobyć te 20% a i te 80% zweryfikować ale to ogromna oszczędność czasu. No ja po swoim pierwszym w życiu poważnym zderzeniem z Ai jestem pod ogromnym wrażeniem. Edytowane 7 Kwietnia przez hubio
Zas Opublikowano 7 Kwietnia Opublikowano 7 Kwietnia (edytowane) 3 godziny temu, hubio napisał(a): chce robić jakieś zdjęcia, filmy, muzykę albo wszystko razem i działać na YT lub innych polach to ma ogromne narzędzia No ale to w końcu on ma je robić, czy AI? Edytowane 8 Kwietnia przez Zas
VRman Opublikowano 8 Kwietnia Opublikowano 8 Kwietnia (edytowane) 7 godzin temu, Zas napisał(a): chce robić jakieś zdjęcia, filmy, muzykę albo wszystko razem i działać na YT lub innych polach to ma ogromne narzędzia No tak nie do końca. Jak już pisałem, YT już nie lubi filmów z AI, gdzie indziej to już nie te zasięgi i masa innych kłód pod nogi. Jak masz pomysł jak zarabiać na swoich filmach z AI to mów, bo chętnie się dowiem. Raz, że jest problem z monetyzacją, dwa, że choćbyś miał filmik 10M wyświetleń to kanału nawet nie pokaże w sugestiach przy szukaniu, a trzy, że ludzie w ogromnej części się uczulili i choćby filmik był zajebisty, to jak tylko się dowiedzą, że to AI to wyłączą i klepną dislike'a. Nawiedzeni jeszcze będą zgłaszać do youtube'a, bo czują że to ich życiowa misja, bo oni to są artyści i to skandal! Edytowane 8 Kwietnia przez VRman
hubio Opublikowano Środa o 12:46 Opublikowano Środa o 12:46 12 godzin temu, Zas napisał(a): No ale to w końcu on ma je robić, czy AI? Samo Ai może oczywiście też niemal wszystko zrobić za kogoś, ale to nie będzie nasza wizja artystyczna i w moim odczuciu ze słabą monetyzacją. To jest świetnie narzędzie, ale wciąż pomysł i realizacja to nasza działka. @VRman jak masz jakiś pomysł na cokolwiek to wstawki zrobione przez Ai dają ci tło. Jak ktoś ma pomysł jak zarabiać poprzez Ai to raczej się tym nie pochwali Tak samo jak pomysł biznesowy Natomiast właściwie sam niepytany chatgpt akurat mój pomysł ocenił, że może dać wysoki zysk więc może, może... Na razie to jest dla mnie super zabawa i nauka. Nawet Humankind tak mnie nie wciągnął.
hubio Opublikowano Środa o 13:07 Opublikowano Środa o 13:07 Gdzie? A to na YT świat się kończy? Masz Patrona, masz FB (ja akurat nie mam, ale tam też chyba można coś monetyzować), możesz robić e-booki, nawet wczoraj na YT wyskoczył mi filmik z jakimś portalem bez cenzury dla Twórców Ai. Zresztą pytanie nie do mnie Bo ja to zaczynam swoją przygodę i ledwo co odcumowałem tą łódkę. Wiem tylko, że mi się podoba. Jak się nie uda zmonetyzować to i tak będzie dla mnie ogromna frajda. Nawet dla samego siebie.
Wu70 Opublikowano Środa o 13:17 Opublikowano Środa o 13:17 16 godzin temu, hubio napisał(a): No ja po swoim pierwszym w życiu poważnym zderzeniem z Ai jestem pod ogromnym wrażeniem Pierwsze zetknięcie to jest totalne wow. Na kolejne wow zainstaluj sobie Codex, robi wrażenie jak tworzy dowolną aplikację z prompta
GordonLameman Opublikowano Środa o 13:23 Opublikowano Środa o 13:23 6 minut temu, Wu70 napisał(a): Pierwsze zetknięcie to jest totalne wow. Na kolejne wow zainstaluj sobie Codex, robi wrażenie jak tworzy dowolną aplikację z prompta Po jakimś czasie jest znudzenie tym, że zapomina kontekst
Paarthurnax Opublikowano Środa o 14:04 Opublikowano Środa o 14:04 Wczoraj porównywałem dwie umowy, po około 150 stron każda. AI miał tylko wskazać gdzie są zmiany (nie chciało mi się lecieć przez porównanie w Word) i poległ. Jak wrzuciłem jeden tekst to jeszcze ok ale jak dodałem drugi, to już zapominał o pierwszym i tak z kilka razy. Zmieniłem model AI i to samo, aż wróciłem do starego sposobu w Word Mam wrażenie, że AI też ma gorsze dni ,chociaż to ja piłem przedwczoraj
Wu70 Opublikowano Środa o 14:38 Opublikowano Środa o 14:38 (edytowane) Z dużym kontekstem (1M) radzi sobie dopiero jeden model: Opus 4.6 ale i tak bez gwarancji na sukces, do mechanicznych czynności modele wołają zewnętrzne narzędzia. Jak robiłeś takie mechaniczne porównanie a nie kontekstowe to w trybie agentowym raz dwa by to machnął jakimś skrypcikiem Limity kontekstu to spore ograniczenie llm. Jakiś dłuższy czas temu Meta chwaliła się modelami z kontekstem 10M Ale kolejny problem to używalny kontekst, przykładowo Gemini już dawno ma modele 1M ale realnie kończą się znacznie wcześniej. Edytowane Środa o 14:42 przez Wu70
GordonLameman Opublikowano Środa o 15:26 Opublikowano Środa o 15:26 44 minuty temu, Wu70 napisał(a): Z dużym kontekstem (1M) radzi sobie dopiero jeden model: Opus 4.6 ale i tak bez gwarancji na sukces, do mechanicznych czynności modele wołają zewnętrzne narzędzia. Jak robiłeś takie mechaniczne porównanie a nie kontekstowe to w trybie agentowym raz dwa by to machnął jakimś skrypcikiem Limity kontekstu to spore ograniczenie llm. Jakiś dłuższy czas temu Meta chwaliła się modelami z kontekstem 10M Ale kolejny problem to używalny kontekst, przykładowo Gemini już dawno ma modele 1M ale realnie kończą się znacznie wcześniej. No tylko opus szybciutko kończy limity. Naprawdę szybciutko. W mojej pracy potrzebowałbym model z niezbyt dużą mocą, ale pamięcią kontekstu. Sporym problemem jest też to, że w ramach jednego projektu/czatu potrzebuję wygenerować mail/dokument/prezentacje/excela etc a on do wszystkiego musi czytać dokumentację i zużywać tokeny prawie w ogóle do researchu nie używam AI, bo robię to lepiej od niego. Ale już do formułowania myśli i strukturyzowania dokumentów - tak. Natomiast kontekst jest problemem.
Wu70 Opublikowano Środa o 15:49 Opublikowano Środa o 15:49 To prawda, Opus błyskawicznie czyści limity 20 minut temu, GordonLameman napisał(a): W mojej pracy potrzebowałbym model z niezbyt dużą mocą, ale pamięcią kontekstu. Niestety to aktualnie nierozłączne, bierzesz choć trochę słabszy model - choćby z Opusa na Sonnet i używalny kontekst leci dramatycznie. A też by mi się coś takiego przydało, nie do każdego zadania potrzebny jest topowy model.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się