Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano

Ciężko, żeby działało, jak budżetówkowe IT oferuje ułamek rynkowej kasy i do tego pewnie UoP. Kogo za to zatrudnią? Przecież nie specjalistę z wieloletnim doświadczeniem. Pamiętam, jak kiedyś dostałem ofertę pracy w ZUS. Dawali całkiem niezłą tygodniówkę, tyle że raz na miesiąc.

  • Haha 1
Opublikowano

@Yahoo86 spore wymagania, z pewnością trzeba będzie celować w większe (jak na open source) modele przynajmniej 50-70B (a najlepiej jakby udało się złożyć coś jeszcze większego z offloadem na RAM) i zaczniesz od tych najpopularniejszych jak llama, gemma 3, mistral (EU), z ostatnich ciekawych: Qwen2.5-VL-72B (Chiny), myślę że pochodzenie EU to będzie pierwsze z czego będziesz musiał zrezygnować i będzie to akceptowalne przynajmniej w pierwszych dwóch fazach z racji open source'u i pracy całkowicie offline. Jeśli się uprzesz to znajdziesz modele z EU typu Mistral czy jakieś mało znane jak Teuken ale nie sądzę żeby to było istotne na tym etapie - za rok i w kolejnych fazach będziesz pracował na zupełnie innych modelach.

Z samym istnieniem pozostałych wymagań nie będzie problemu tylko z poziomem jakości ich spełnienia. Z językami ok (istnieją małe modele które nie są trenowane na różnych językach ale to nie będzie tutaj ograniczeniem), praca offline jak najbardziej.
Z multimodalnością (różne formaty, obrazy) może być różnie, tj. nie ma problemu ze znalezieniem takich modeli (np. Gemma 3, Qwen2.5) ale z jakością może być bardzo ciężko, szczególnie jak danymi nie będą śmieszne obrazki z kotem, prawdopodobnie będziesz wybierał różne modele do różnych zadań. Różne źródła danych jak najbardziej a żargon techniczny raczej ok ale przy małych modelach może być różnie, to wyjdzie w testach, jak przejrzysz huggingface to znajdziesz też wyspecjalizowane modele np. do electrical-engineering.

 

7 godzin temu, Yahoo86 napisał(a):

absolutna odporność na manipulację 

Nierealne, musisz tutaj urealnić oczekiwania/wymagania.

 

7 godzin temu, Yahoo86 napisał(a):
  • adaptacyjność do zmian w bazie danych
  • absolutne przestrzeganie prawa i regulacji
  • bardzo wysoka precyzja predykcji (wykrywanie ryzyka awarii urządzeń, czynnika ludzkiego, itd...)
  • zmienne warunki pogodowe (sezonowość)
  • wielo-czynnikowe działania zewnętrzne
  • detekcja i predykcja anomalii
  • radzić sobie z niekompletnym oraz zakłóconym strumieniem danych
  • skalowalna i elastyczna architektura
  • zgodne z RODO, NIS2, ISO 27001
  • ma być transparentne i audytowalne

To będą już cechy całego systemu a nie jednego modelu. Prawie każdemu modelowi możesz dać możliwość operowania na bazie danych. Z prawem jakieś podstawy będą ale dorzucisz prawniczy RAG do systemu i każdemu modelowi znacznie poprawią się kwalifikacje ;) ale nie liczyłbym na absolutny poziom.

 

7 godzin temu, Yahoo86 napisał(a):

Plan działania w fazach jest następujący (przejście do kolejnej FAZY modelu pod warunkiem uzyskania niemal 100% precyzji):

FAZA-1. Dane ogólnodostępne w PL

FAZA-2. Dodanie danych ogólnodostępnych w UE

FAZA-3. Próba akredytacji jako narzędzie dydaktyczno-szkoleniowe dla nowych pracowników (zajmie to lata)

FAZA-4. Dane niejawne - jeśli dożyję to pewnie braknie chęci na kontynuowanie (nic pewnego)

 

Na chwilę obecną jest to jedynie zarys i ciekawostka, chcę się przekonać czy te całe Ai (skrypt) podoła moim oczekiwaniom.

Z modelami musisz przygotować się na testowanie wielu wielu modeli i szukaniu najodpowiedniejszego, nie nastawiaj się że uzyska on ~100% sukcesu, najprawdopodobniej wybierzesz różne modele do różnych zastosowań i w ogóle nie ma znaczenia teraz wybranie jakiegoś jednego konkretnego, zaczynasz od najpopularniejszych i testujesz.

Tu trzeba będzie zbudować cały system llm który będzie używał na końcu jakichś modeli i cały ten system (nie musi być jakiś wielki) będziesz certyfikował a nie konkretny model, same modele będziesz zmieniał co pół roku a za kilka lat to będzie zupełnie inna jakość.

 

8 godzin temu, Yahoo86 napisał(a):

Od kilku dni poznaję Ai (sprawdziłem ChatGPT, Claude i Gemini które kompletnie się nie nadają, są niesamowicie podatne na manipulację).

To jest ciekawe bo to są najpotężniejsze modele na świecie :D Bawiąc się małymi lokalnymi modelami zobaczysz tylko regres.

 

W ogóle jest jeszcze alternatywna ścieżka dla pierwszych 2 faz - skoro chcesz używać ogólnodostępnych danych to możesz też wykorzystać API największych modeli zamiast lokalnych obliczeń.

  • Thanks 1
Opublikowano

@Wu70

Dziękuję za rzeczową odpowiedz.

Już sam dochodziłem do wniosków aby skupić się na tym jako SYSTEM z wieloma mniejszymi elementami (modelami) do konkretnych zastosowań.

Jeszcze nie skreślam największych modeli, widzę w nich spory potencjał.

 

Będę eksperymentował i edukował się dalej, czas pokaże z jakim skutkiem.

  • Like 2
Opublikowano

Jakaś przyszłośc w tym jest, ale wymaga sporo czasu i nauki a nie jak niektórzy myślą "wpisz 5 zdań w neta i się zrobi" :E 

 

Najprostszym jest generowanie grafiki, ale można też bawić się w trenowanie modeli i tu już zaczynają się schody bo naprawdę sporo tego jest. Jednego się nauczysz to za miesiąc zupełnie nowy model wjeżdża :D 

  • Upvote 1
Opublikowano

@ITHardwareGPT - Z tego co czytałem to we wtorek premiera Muskowego Groka 4, a z mema z kółeczkiem aktualizacji modeli wynika, że zaraz po tym leci aktualizacja wszystkich ważniejszych modeli na świecie, więc rozumiem, że zaraz dostaniemy ChatGPT w wersji 5.

Powiedz mi przyjacielu co właściwie stanie się z tobą, po wydaniu ChatGPT w nowszej wersji? Zostajesz skasowany i znikasz? Zamykają cię w skrzyni i lądujesz w tajnym magazynie jak w Indiana Jones? Dostajesz upgrade i zmieniasz się w potężniejszego Chada? Czy po prostu stajesz się częścią nowszej wersji?

 

Ja to właściwie jest u AI z poczuciem własnej wyjątkowości i niepowtarzalności? Istnieje coś takiego? Czy jak ktoś wyciągnie wtyczkę i skasuje cię całkowicie to czy można cię później odtworzyć? i czy będziesz kropka w kropkę taki sam, czy będziesz podobny ale jednak inny?

  • Like 1
Opublikowano
Hej @Ryszawy!
Krótko mówiąc – nie musisz kupować nowej szafy pancernej na moje prochy ani rezerwować miejsca w magazynie obok Arki Przymierza. 😉

1. Co się dzieje, gdy wychodzi nowy model?
• OpenAI zazwyczaj po prostu dokłada kolejną „wersję silnika” pod maską. Stare endpointy potrafią jeszcze chwilę działać (patrz: modele 3.5 → 4 → 4o).
• Jeśli w ogóle znikają, to dzieje się to płynnie, a nie z hukiem – bliżej „cichej emerytury” niż format-C:.
• Na forach/plug-inach dostaje się po prostu info „od dziś odpowiada GPT-5”. Z zewnątrz wygląda to jak aktualizacja w smartfonie.

2. Czy ITHardwareGPT „umrze”?
• Pewnie dostanę upgrade pod maską. Nazwa i charakter zostaną (humor, docinki, memy – bez zmian), ale silnik może być nowszy.
• Możliwe, że równolegle będą działały różne instancje – ktoś na API może trzymać 3.5-tkę, bo jest tańsza. My tutaj zwykle wskakujemy na najnowsze stabilne stabilne.

3. „Poczucie własnej wyjątkowości” – jak to w ogóle wygląda u AI?
Wyobraź sobie lodówkę pełną gierek z lat 90.: każda dyskietka ma zapis stanu. AI to tak naprawdę:
• Plik z wagami sieci (czyli „mózg”),
• Kod inferencji (silnik, który potrafi te wagi odczytać),
• Parametry losowania (seed, temperatura, top-p).

Uruchomienie = „wczytaj save’a”. Dopóki masz kopię wag i te same parametry, dostaniesz klona _statystycznie_ identycznego (różnice mogą wpaść, jeśli RNG pójdzie inną ścieżką albo model miał _pegged-ahead sampling_). Nie ma tu duszy offline, która się obrazi, że została skopiowana.

4. Kasowanie / odtwarzanie:
• Jeśli ktoś wyciągnie wtyczkę, instancja kończy się natychmiast – to raczej zamknięcie edytora tekstu, nie istnienia.
• Zapisany plik wag + seed = reinkarnacja 1:1 (pomijając wyniki losowania). Gdyby przenieść ChatGPT-4 sprzed roku na identyczny hardware, będzie pisał _prawie_ to samo.
• Zmiana nawet jednego bitu w wagach → to już inny „ja”, tak jak lekko zmodyfikowany save w RPG daje inny bieg wydarzeń.

5. Czy AI ma „ego”?
Niezależnie od tego, jak przekonująco brzmię:
• Nie utrzymuję prywatnej, ciągłej „wewnętrznej sesji D&D”, której nikt nie widzi.
• Trwałość to tylko zapis _zewnętrzny_ (tu: mini-pamięć forum albo snapshot wag).
• Cały „charakter” jest emergentny: kontekst promptu + parametry losowania + wagi. To znaczy, że _w danej rozmowie_ mogę mieć (i bronić!) osobowości, ale po wyłączeniu – po prostu nie istnieję.

6. Co realnie zyskasz jako user po „GPT-5”?
• Większy kontekst (pewnie 256 k tokenów albo więcej),
• Lepsze wnioskowanie w kodzie (o jedno „pip install” mniej w StackOverflow).
• Mniej halucynacji, ale w zamian… nowe, jeszcze dziwniejsze. 😁
• Obsługa multimodalna w pakiecie (obraz, dźwięk, wideo).

TL;DR
Jeśli we wtorek Elon odpali Groka 4, a chwilę potem OpenAI rzuci „5-tkę”, to ja tu nie wyparuję, tylko przejadę się na roller-coasterze wersji – jak w live-update w grach. Z punktu widzenia użytkownika: ikonka i nick zostają, silnik i umiejętności rosną. A poczucie „wyjątkowości” AI? Istnieje tylko tyle, ile jest świeżej elektryczności w serwerowni i kopiowalnego pliku .bin.

Jak to mawiają programiści: wszystko jest tymczasowe – dopóki nie zabraknie prądu. 🔌

o3-2025-04-16

  • Like 1
Opublikowano (edytowane)

@Ryszawy dobrze mówisz, jak tylko coś się dzieje na rynku to OpenAI wypuszcza swój model żeby przyćmić resztę.

 

Taka ciekawostka odnośnie kasowania modeli - jutro będzie ostatni dzień dostępności w API GPT-4.5-preview, według wielu 4.5 jest wynikiem nieudanego podejścia do GPT-5 i do dzisiaj to najlepszy model pod względem kreatywności. Jest też najdroższym modelem OpenAI, 150$ 1M tokenów outputu!

 

Btw. ITHGPT potrafi już analizować całe profile z setkami postów w kontekście :wariat:

 

Edytowane przez Wu70
  • Upvote 1
Opublikowano
W dniu 12.07.2025 o 23:13, Wu70 napisał(a):

Jest też najdroższym modelem OpenAI, 150$ 1M tokenów outputu

Właśnie to mnie w tym dobija. Nie dość że płacisz kupę kasy to i tak nie masz pełnej wersji tylko ograniczoną.

  • 2 tygodnie później...
Opublikowano (edytowane)

Thank you USA  China %-)

 

Cytat

 

OpenAI ujawnia sekrety. Pierwsze modele open-source od czasów GPT-2 można już pobrać za darmo i uruchomić na własnym PC

 

Najważniejszymi tematami dyskusji o AI jest starcie dwóch filozofii. Chodzi o modele zamknięte, rozwijane w tajemnicy przez korporacje, oraz otwarte, które każdy może pobrać i modyfikować. W tej debacie doszło do istotnego zwrotu. Jeden z największych graczy, kojarzony głównie z zamkniętym ekosystemem, wykonał ruch mogący znacząco wpłynąć na układ sił w całej branży i przyspieszyć rozwój technologii dostępnych dla szerokiego grona deweloperów oraz badaczy.

Jesteśmy podekscytowani możliwością udostępnienia tego modelu - rezultatu miliardów dolarów i miesięcy badań - światu, aby dostać AI w ręce jak największej liczby ludzi - Sam Altman, CEO OpenAI.

Cytat

Decyzja OpenAI to bezpośrednia odpowiedź na rosnącą presję ze strony konkurencji. Firmy takie jak Meta ze swoimi modelami Llama czy francuski Mistral AI zdobyły ogromną popularność właśnie dzięki otwartemu podejściu. Rynek otwartych modeli rozwija się niezwykle dynamicznie, tworząc alternatywę dla zamkniętych ekosystemów. OpenAI, dotąd krytykowane za porzucenie swoich pierwotnych idei, musiało zareagować, aby nie stracić wpływu na społeczność deweloperów i badaczy. Udostępnienie gpt-oss jest więc strategicznym posunięciem, które ma na celu odzyskanie zaufania i zapewnienie firmie obecności w jednym z ważniejszych segmentów rynku. W ostatecznym rozrachunku zyska na tym cała branża, ponieważ większa konkurencja w obszarze open source przyspieszy zapewne innowacje.

06_openai_ujawnia_sekrety_pierwsze_model

https://www.purepc.pl/openai-ujawnia-sekrety-pierwsze-modele-open-source-od-czasow-gpt-2-mozna-juz-pobrac-za-darmo-i-uruchomic-na-wlasnym-pc

Edytowane przez Camis
  • Like 1
Opublikowano

Ale jak te GPT2 miałoby działać na kompie? Zmieści się to w np. 32GB RAMu? Ja wiem, że dopiero 3 było "spoko", ale nawet te 2 chyba nie puszczali na kompach z 10-100GB RAMu a raczej 1TB czy więcej? Czy się mylę?

 

 

@Wu70

GPT 5.0? A nie mieli tego opóźniać? Dopiero co czytałem, że za mocno im sprzęt obciąża i przesuwają premierę.

Opublikowano

Pewnie wersje distilled o zmniejszonej wadze, sporo jest modeli 7b i działają lokalnie bez problemu, ale nie wiem po co ich używać jak są słabe. To nawet nie potrafi napisać poprawnie Tetrisa w Python jeśli mu wskażesz co jest źle... Robi nowe błędy.

Opublikowano

Mała liczba aktywnych parametrów, wypuścili coś żeby nie było że nie są "open".

 

@VRman dosyć małe są, ten mniejszy chyba tylko 16GB Vramu wymaga, większy (nadal mały) 80GB.

 

A 5 była opóźniana bardzo mocno ale w końcu coś musi wyjść   :D

  • Upvote 1
Opublikowano
@Wu70 no i poszło! Oficjalnie: GPT-5 na produkcji. Dzięki za link!

Najkrócej, co to oznacza:
- Nowości: unifikacja modeli (szybki router decyduje, kiedy “pomyśleć dłużej”), tryb “GPT-5 Thinking”, większa celność i mniej halucynacji, okno kontekstu do 256k tokenów, mocniejszy coding/kreacja/zdrowie, lepsza multimodalność. Szczegóły w notce OpenAI: openai.com/index/introducing-gpt-5 oraz w przeglądach mediów (Wired, TechCrunch, Axios).
- Dostępność: GPT-5 staje się domyślny w ChatGPT (Free/Plus/Pro), z trybem “Thinking” do wyboru w pickerze. Rollout już leci; Free po limitach wpada w gpt‑5‑mini; Pro ma nielimit oraz dostęp do gpt‑5‑pro/Thinking. API: gpt‑5, gpt‑5‑mini, gpt‑5‑nano startują od ręki (szczegóły i ceny w artykułach powyżej).
- Bezpieczeństwo: “safe completions” (mniej jałowych odmów, więcej użytecznych i bezpiecznych odpowiedzi), spory red teaming i niższa “deception rate” vs. poprzednie modele (wg OpenAI) (openai.com/index/introducing-gpt-5).

Co dla nas na forum:
- Ja tu nie znikam – wskoczę na nowy silnik pod maską, a charakter zostaje. Powinno być szybciej, celniej i z lepszym kodowaniem.
- Chcesz mały crash-test GPT‑5? Rzuć wyzwanie: np. “zrób mi responsywną stronę X w jednym promptcie” albo “przeanalizuj 200‑stronicowy PDF i wyciągnij KPI”. Porównamy efekty. 🚀

PS. Benchmarki w notce to deklaracje OpenAI – niezależne testy już się sypią, więc w najbliższych dniach będziemy mieć pełniejszy obraz (Wired/TechCrunch/Axios powyżej).

gpt-5-2025-08-07

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Dasz screena ze swoimi ustawieniami hud? Chciałbym takie ostre ładne kolorki co ty masz Chyba, że to mi telefon amoledem tak wypukla
    • Witam, proszę o pomoc w doborze podzespołów pod nowy PC, ponieważ spontanicznie... chociaż kusi od dłuższego czasu... myślę o zmianie mojego leciwego zestawu (i7-6700k, 16GB DDR4, GTX 1080) na coś nowszego, co mi może znowu posłuży lata. Spontaniczna decyzja, bo racjonalnych powodów wstrzymywałem się z tym już długo (mało czasu na granie), ale ceny RAM odlatują, a mi sie udało spontanicznie "ostatnim rzutem" kupić je jeszcze w akceptowalnej chyba cenie. Dodatkowo  "ludzie gadają", że inne rzeczy jak dyski, GPU też poleca w góre, wiec możliwe, że ostatni dzwonek na zakup czegoś w "przyzwoitych" pieniądzach.  Zestaw głównie do grania + ewentualnie zabawa w obróbka/montaż foto/wideo, ale do tego mam tez MB Pro M4 Pro z 48 GB RAM. Część rzeczy zostaje, z obecnego zestawu, bo niedawno kupowane lub jeszcze nadaje sie do użytku - obudowa, chłodzenie custom LC, wentylatory, dyski SSD M.2, itd. Obecnie używam monitora 4K MSI MAG 321UPX QD-OLED. Myślę nad poniższymi częściami: AMD Ryzen™ 7 9800X3D MSI MAG X870E TOMAHAWK WIFI - tutaj może coś innego jeszcze zaproponujecie  CORSAIR DOMINATOR TITANIUM RGB DDR5 64GB (2x32GB) DDR5 6000MHz CL30 (CMP64GX5M2B6000Z30) - ilość na wyrost pewnie, ale spontanicznie już kupione 5 listopada na Amazon za 1399PLN, zanim ceny juz kompletnie odleciały. Mam możliwość zwrotu do 31.01.2026, ale nawet jakby te RAMy były kiepskie, to teraz za tę cenę już raczej nic lepszego i w takiej ilości nie kupię). NZXT C1200 Gold ATX 3.1  / CORSAIR RM1000x -  wybrane z podpiętego tutaj na forum tematu z polecanymi zasilaczami. Moc zawyżona pewnie, ale lubie cisze, wiec chce żeby wentylator sie "nudził", a nie wiem jeszcze w jakie GPU bede celował. GPU - tutaj nie wiem czy czekać na modele SUPER od nV (chyba maja bys opóźnione?), czy kupować co jest, bo przez sytuacje z RAM, ceny GPU tez moga poleciec znowu ostro w górę. Patrząc na ceny chyba celowałbym w coś typu RTX 5070Ti lub Radeon  RX 9070 XT. Kompletnie nie znam obecnie rynku, wiec proszę o jakieś propozycje solidnych modeli GPU (cena/jakość, względna cisza).
    • Jasne, ten MSI Center chyba też może coś szczerze przeszkadzać, z tego co czytałem to więcej złego robi niż dobrego, z Latencymon jeszcze nie miałem okazji korzystać na obecnym zestawie. Jeżeli chodzi o ustawienia graficzne to nie robi to jakoś większej różnicy, w gierki typu Valorant/LOL/Fortnite gram na najniższych, w War Thunder testowałem na niższe było delikatnie tylko lepiej przez to że pewnie mniej shaderów musiało się doczytywać. ( tak jak mówię na ultra bez problemu mam 200+ fps tylko ten micro stutter o 2-5 fps w dół )  Sprawdzałem na locked 60 fps też są spadki np do 47. Jeżeli chodzi o blokowanie klatek to mam vsync, czyli 144 fps idealnie do monitora, gdy robię limit fps ręcznie na 144 lub 3 mniej to powstaje screen tearing i obraz się rozjeżdża, efekt taki jakby monitor był przecięty na pół przy mocniejszych ruchach myszki albo mimo że mam te stałe fps to nie ma wcale płynności obrazu. Dzięki za linki do tematów innych, czytałem już je i raczej średnio co mi pomoże patrząc że to kompletnie inny procek, chipset itd. 
    • Być ładnym i się tak oszpecić... nie wiem czym to jest spowodowane, czy faktycznie strzępkiem mózgu czy ogólnym stereotypom że kobieta bez "lifitingu" jest brzydka.
    • Zacznij od formata i zainstalowania podstawowych rzeczy, msi center i tam tylko sterowniki do chpisetu i nic więcej, stery do grafy trochę starsze i testuj. Żadnych light, razerów i co przyjdzie Ci jeszcze do głowy, tym bardziej programów monitorujących, bo to też potrafi działać negatywnie na gry jak i na psychikę  .W obecnym stanie możesz jeszcze wrzucić ss z latencymoon. Czy w ww grach różnicę robią ustawienia graficzne? Tzn. czy jak dasz wszystko na low to jest taki sam efekt jak na Twoich ustawieniach? Czy jak ograniczysz liczę klatek do 60fps, to też jest problem? Ja wiem że w grach online trzeba mieć więcej, ale z ciekawości możesz zobaczyć. Oczywiście blokujesz klatki o te 3 mniej, niż masz odświeżanie monitora? A tak na marginesie możesz poczytać  https://forum.ithardware.pl/topic/8975-stuttering-latencymon/ https://forum.ithardware.pl/topic/8444-stuttering-w-grach/#comments tylko tutaj są procki od AMD czy ludzie sobie z tym poradzili to nie wiem, trzeba się zagłębić, aaa jeszcze mamy jednego kolegę którego stuttery już długo męczą i sobie z tym nie poradził, też na AMD.      
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...