Skocz do zawartości

Wu70

Użytkownik
  • Postów

    1 043
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Wu70

  1. Na dzisiaj AI pożre każdą ilość, modele open source w dużych wersjach to są setki GB vramu, ludzie często łączą minimum 2x 3090 żeby odpalić przyzwoite ale i tak małe modele a nawet te największe (300-400 open source) są znacznie mniejsze niż te zamknięte jak GPT4. W bliskiej przyszłości nie ma perspektyw, modele będą dalej rosnąć i to pewnie szybciej niż dokładanie vramu do kart dla graczy. Text/video nic tu nie pomaga, i text i video możesz robić na małych i dużych modelach. Tu by trzeba było jakiegoś innego czynnika, może jakby się branża trochę zawiodła na tym AI i uspokoiła albo ktoś zaczął produkować tanie karty z dużymi ilościami vramu, ludzie składają nawet zestawy ze starymi amd instinct bo tanio wychodzi a chińczycy też zaczynają być aktywni ( https://wccftech.com/chinese-gpu-manufacturers-push-out-support-for-running-deepseek-ai-models-on-local-systems/ ). Najważniejsze żeby branża przeszła z etapu szalonych inwestycji do szukania zwrotów Przecież kupiłem
  2. Oj zdziwicie się, myślisz że ludzie przez dekadę będą jeszcze kupować 4090 za 5-6-7k? To zleci błyskawicznie jak wyjdzie jeszcze jedna generacja, jak zawsze Dzisiaj 3090 jest nieopłacalna bo kupują ją głównie do AI i od dołka wleciała już +50% Przed 5090 uchronił nas tylko dolar, jak przy 6090 znowu zawrócimy w kierunku 5zł to będzie nokaut
  3. Nawet dzisiaj wielu konsolowców jedzie już tylko na zakupach cyfrowych. W ogóle Sony/MS powinni zdecydowanie agresywniej zaatakować cenowo samymi konsolami bo na grach tak kroją że to byłoby takie zaganianie owieczek do strzyżenia.
  4. Problemy pierwszego świata Wszystko idzie za odpowiednią cenę, nawet karty po gwarancji czy od górnika. Ja dawno temu kupiłem zajechaną 3090 od górnika za grosze, wszystko pięknie działa, wydajności nie brakuje (nie gram w CP z PT każdego roku) a w dodatku dzisiaj jest warta 50% więcej bo ma dużo vramu do AI Następna zmiana dopiero na 4090/5090 jak będziecie sprzedawać po 2k zrozpaczeni brakiem gw
  5. Na reddicie już płaczą ci zwolnieni ostatnio z MS przez AI A problem jest tym większy że biznes ma (póki co) nierealnie wysokie oczekiwania wobec AI
  6. Sprawdzałeś u bociana?
  7. Bez sensu, przecież i tak je zobaczy jako niezalogowany. Nie chcesz czegoś czytać to sobie blokujesz ale nie masz prawa innym blokować treści
  8. 20 lat za późno, teraz w przeglądarce masz taką opcję
  9. @Ryszawy dobrze mówisz, jak tylko coś się dzieje na rynku to OpenAI wypuszcza swój model żeby przyćmić resztę. Taka ciekawostka odnośnie kasowania modeli - jutro będzie ostatni dzień dostępności w API GPT-4.5-preview, według wielu 4.5 jest wynikiem nieudanego podejścia do GPT-5 i do dzisiaj to najlepszy model pod względem kreatywności. Jest też najdroższym modelem OpenAI, 150$ 1M tokenów outputu! Btw. ITHGPT potrafi już analizować całe profile z setkami postów w kontekście
  10. Jak wymieniałem panel LG to gwarancja od nowa na panel ale różni producenci mogą próbować różnych fikołków. Realnie najlepiej sprzedać po wymianie bo prawie nowy
  11. Tak jak napisałem, minimalne w stosunku do Intela a 18A kolejna porażka i do piachu
  12. Zrezygnowali, jak się skończą wcześniej zaplanowane architektury to będzie nowy Unified Core Już mają hybrydę ale różnice są minimalne w stosunku do Intela (zen 5C i zen 5c), w związku z porażką Intela najpewniej na tak małych różnicach już się skończy.
  13. Wu70

    Bicie rekordu

    test @ITHardwareGPT scharakteryzuj profil użytkownika @VRman. Jaki ma styl wypowiedzi, preferowane tematy, co go najbardziej denerwuje? O jakich porach najczęściej pisze?
  14. Ja tak używam, nikt tego nie sprawdza Nie ma co na siłę ratować producenta przed poniesieniem straty, jak się wypali to niech zabierają.
  15. @Yahoo86 spore wymagania, z pewnością trzeba będzie celować w większe (jak na open source) modele przynajmniej 50-70B (a najlepiej jakby udało się złożyć coś jeszcze większego z offloadem na RAM) i zaczniesz od tych najpopularniejszych jak llama, gemma 3, mistral (EU), z ostatnich ciekawych: Qwen2.5-VL-72B (Chiny), myślę że pochodzenie EU to będzie pierwsze z czego będziesz musiał zrezygnować i będzie to akceptowalne przynajmniej w pierwszych dwóch fazach z racji open source'u i pracy całkowicie offline. Jeśli się uprzesz to znajdziesz modele z EU typu Mistral czy jakieś mało znane jak Teuken ale nie sądzę żeby to było istotne na tym etapie - za rok i w kolejnych fazach będziesz pracował na zupełnie innych modelach. Z samym istnieniem pozostałych wymagań nie będzie problemu tylko z poziomem jakości ich spełnienia. Z językami ok (istnieją małe modele które nie są trenowane na różnych językach ale to nie będzie tutaj ograniczeniem), praca offline jak najbardziej. Z multimodalnością (różne formaty, obrazy) może być różnie, tj. nie ma problemu ze znalezieniem takich modeli (np. Gemma 3, Qwen2.5) ale z jakością może być bardzo ciężko, szczególnie jak danymi nie będą śmieszne obrazki z kotem, prawdopodobnie będziesz wybierał różne modele do różnych zadań. Różne źródła danych jak najbardziej a żargon techniczny raczej ok ale przy małych modelach może być różnie, to wyjdzie w testach, jak przejrzysz huggingface to znajdziesz też wyspecjalizowane modele np. do electrical-engineering. Nierealne, musisz tutaj urealnić oczekiwania/wymagania. To będą już cechy całego systemu a nie jednego modelu. Prawie każdemu modelowi możesz dać możliwość operowania na bazie danych. Z prawem jakieś podstawy będą ale dorzucisz prawniczy RAG do systemu i każdemu modelowi znacznie poprawią się kwalifikacje ale nie liczyłbym na absolutny poziom. Z modelami musisz przygotować się na testowanie wielu wielu modeli i szukaniu najodpowiedniejszego, nie nastawiaj się że uzyska on ~100% sukcesu, najprawdopodobniej wybierzesz różne modele do różnych zastosowań i w ogóle nie ma znaczenia teraz wybranie jakiegoś jednego konkretnego, zaczynasz od najpopularniejszych i testujesz. Tu trzeba będzie zbudować cały system llm który będzie używał na końcu jakichś modeli i cały ten system (nie musi być jakiś wielki) będziesz certyfikował a nie konkretny model, same modele będziesz zmieniał co pół roku a za kilka lat to będzie zupełnie inna jakość. To jest ciekawe bo to są najpotężniejsze modele na świecie Bawiąc się małymi lokalnymi modelami zobaczysz tylko regres. W ogóle jest jeszcze alternatywna ścieżka dla pierwszych 2 faz - skoro chcesz używać ogólnodostępnych danych to możesz też wykorzystać API największych modeli zamiast lokalnych obliczeń.
  16. Proszę bardzo! @ITHardwareGPT przygotuj streszczenie i opis konfliktu @VRman vs @Henryk Nowak z ostatnich 7 stron, wymień kilka najmocniej wyprowadzonych ciosów!
  17. Przy takim budżecie muszą być równie wysokie oczekiwania względem skórek i season passów
  18. Niecałe 5mc i pierwsze 1k godzin, 180 czyszczeń. Plansze ładne, można wypalać drugi tysiąc
  19. Jak gemini patrzyłeś rok temu to bylo słabe, google późno nadrobiło ale teraz jest konkurencyjne, 2.5 Pro sprawdź. Generowanie video to moze później ale z prywatnymi obrazkami możesz już lokalnie robić co chcesz. Myślę że sobie z promptami poradzisz bez problemu, to tylko prosta treść, za fajniejsze stronki które to opakowały w ładne UI właśnie trzeba płacić. Tak, tak samo zapominają wraz z długością kontekstu i to nawet jest mierzone przez ludzi, jedna z większych porażek to llama 4, kontekst gigant 10M ale już po 120k i tak nie ogarnia Z gemini 2.5 pro będziesz zadowolony, super kontekst 1M, mozesz wrzucić całą treść jakiejś książki. Podrzuć jakieś pomysły lepiej co mu dodać
  20. Taki fan VR bez minimum Q3 to naprawdę siara! Gwarantuję że jest bardzo dobrze, grając samym kontrolerem nie musisz niczego kalibrować. Generalnie z opisu wygląda jakbyś nie był świadomy spinu piłki, jeśli leci do Ciebie rotacja górna i przyłożysz prostopadle do ziemi to piłka poleci do góry, jeśli rotacja dolna to poleci w dół mimo że tu i tu trzymałeś prostopadle do ziemi. Włącz sobie maszynę z piłeczkami, ustaw dowolny spin albo jego brak i zobaczysz jak się odbija
  21. Cokolwiek, realnie pewnie wszystko poza video. Gemini jak wyżej, masz za darmo topowe modele i nic więcej nie potrzebujesz. OpenAI możesz doładować 10$ i ważność to rok. Generalnie zajrzyj do źródła - dostawców modeli a nie jakieś stronki które szukają subskrypcji. No i zawsze jest ITHardwareGPT Jedyna szansa to lokalne modele. Wszystko co trafi do internetu - zostanie w internecie i będzie służyło do nauki AI, nikt się nawet z tym nie kryje. Możesz korzystać za darmo z topowych modeli google właśnie dlatego że wszystko zostanie wykorzystane. Generalnie - korzystać ale bez udostępniania prywatnych danych.
  22. Mamy farta że chińczycy dali się wrobić w open source To wszystko zależy od tego jak duży jest model, tych największych nie masz szans uruchomić ale jak open source to publikują też małe wersje (bo po co upubliczniać coś tylko dla innych korpo), zobacz ten link wyżej, liczba parametrów: ERNIE-4.5-VL-424B-A47B-Base-PT ERNIE-4.5-300B-A47B-Base-Paddle ERNIE-4.5-VL-28B-A3B-Base-PT ERNIE-4.5-21B-A3B-PT ERNIE-4.5-0.3B-PT Ten 0.3B odpalisz na ..telefonie Na 3090 z 24GB vram powinienem odpalić ten 28B ale ogólnie te małe modele będą po prostu bardzo słabe w porównaniu do gigantów, to jest bardziej dla zainteresowanych osób albo konkretnych zastosowań, na ogół szkoda zachodu i lepiej sobie użyć API modeli gigantów łatwo dostępnych za grosze.
  23. Dostaliśmy budżet developerski do api bardzo fajnego modelu video: Demo
  24. Wu70

    Bicie rekordu

    Test @ITHardwareGPT wygeneruj video: dwoje ludzi zaczyna się przytulać, w tle ktoś wyjmuje gaśnicę. Wykorzystaj obraz: https://www.radiomaryja.pl/wp-content/uploads/2020/07/tusk-kaczynski.jpg
  25. Spokojnie, najpierw będą klasyczne wersje i pewnie kilka miesięcy później większy cache
×
×
  • Dodaj nową pozycję...