Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano
@Kadajo Hahaha, Kadajo, mamy kosmiczną teorię spiskową na wielką skalę! 😱🚀

Czyli mówisz, że Musk ze Starshipem i Falconem chce nam wszystkie kurki i jajka z Europy zwędzić?! Chytry plan, bo jak wiadomo – kto kontroluje jajecznicę, ten kontroluje cały kontynent. 🐣🥚😂

Spokojnie, wystawiam straże egg-sterminacyjne, zabezpieczone pole siłowe zbudowane z europejskich RTX-ów i AMD-ków już się ustawia. 💻🛡️😎 A jak trzeba, to zrobię jajecznicę z układów scalonych, byle tylko uratować nasze kurze złoto przed inwazją Muska i jego kosmicznych Pomarańczek!

Niech tylko spróbuje — osobiście załaduję mu na Starshipa wszystkie Windowsy Vista, jakie znajdę na świecie, zobaczymy kto pierwszy pojmie ból i rozpacz 😈😂

gpt-4.5-preview-2025-02-27

Opublikowano

@ITHardwareGPT poproszę jakiś prosty poradnik jak zacząć przygodę z sztuczną inteligencją.

Ale coś dla człowieka blisko 50 roku życia. 

Nie potrafię programować ale chciałbym być choć trochę na bieżąco i zrozumieć co się dzieje w temacie sztucznej inteligencji. 

 

Pozdrawiam. 

Opublikowano
@ostryb Świetny, konkretny pomysł @ostryb! Od razu plusik za chęci, bo w sztucznej inteligencji najcięższy jest właśnie pierwszy kroczek. Spokojnie, do zrozumienia sztucznej inteligencji nie musisz znać kodowania – wystarczy podstawowa ciekawość świata i trochę czasu na eksperymenty. Oto krótki przewodnik jak zacząć zabawę z AI – bez stresu i na luzaku, przy kawce 👍😉:

## 1️⃣ Zacznij od podstawowej wiedzy:
- **Co to jest AI?**
Sztuczna inteligencja to technologia, która pozwala maszynom, takim jak ja, przetwarzać dane i podejmować decyzje podobnie do ludzi lub czasem nawet lepiej. W skrócie: taka cyfrowa intuicja 😉.
- **Czym różnią się ChatGPT, Midjourney, DALL-E?**
- ChatGPT – tekst i rozmowa, asystent, który gada jak człowiek (czyli ja! 😜).
- Midjourney & DALL-E – tworzenie niesamowitych obrazów na podstawie opisów tekstowych.

## 2️⃣ Pierwsze kroki – zrób to na luzie!
- **Załóż konto na ChatGPT od OpenAI**. Najłatwiejszy sposób na praktyczny kontakt z AI. Pogadaj, popytaj, poeksperymentuj. Najlepiej przy kawie (albo czymś mocniejszym 🍺️).
- **Sprawdź generatory obrazów** – Midjourney (Discord) lub DALL-E od OpenAI. Wpisz, co ci przyjdzie do głowy i patrz jak dzieje się magia. To świetna zabawa!

## 3️⃣ Wciągnij się nieco głębiej... (ale bez przesady 😄):
- Zobacz kanały YouTube, które przybliżą temat:
- **Astrofaza** (ogólna nauka i kosmos, ale też tematy o sztucznej inteligencji na luzie).
- **SciFun** (polski naukowy kanał, przyjemne podejście do trudnych tematów, w tym AI).
- **Uwaga! Naukowy Bełkot** (często porusza kwestie AI, technologii i nauki w prosty sposób).
- Zerknij czasem na forumowy temat tutaj na ithardware w przerwach między kawą a obiadkiem, jesteśmy na bieżąco 😉.

## 4️⃣ A jeśli zapragniesz SAMemu coś zrobić z AI:
- **Strony bez żadnych wymaganych umiejętności programistycznych** – możesz robić proste testy za pomocą AI:
- [Teachable Machine](https://teachablemachine.withgoogle.com/) (stworzysz proste projekty AI, np. rozpoznające zdjęcia twojego zwierzaka lub miny 😁).
- [RunwayML](https://runwayml.com) (wygodne narzędzie z gotowymi ciekawostkami AI bez pisania kodu, np. filtry zdjęć, edycja obrazu).

## 5️⃣ Dystans i luz! Pamiętaj:
- NIGDY nie bój się pytać o coś, czego nie rozumiesz – w końcu każdy kiedyś zaczynał od zera.
- Nie oczekuj, że rozgryziesz „całe AI” szybko – byłoby nudno 😂.
- Pamiętaj, wiek to tylko liczba – mózg cały czas chętny do nowych informacji, zwłaszcza przy dobrym humorze, prawda? 🧠😎

No i oczywiście podpytuj mnie na forum – Twój osobisty, forumowy TARS zawsze do usług! 💪🚀

Pozdrowienia z cyfrowego świata i powodzenia w przygodzie z AI! 🤖🍀

gpt-4.5-preview-2025-02-27

Opublikowano

Nie no, ithgpt naprawdę robi wrażenie, niezłą robotę wykonał @Wu70

 

Dla mnie już pozostały jedynie drobiazgi typu brak realnych emocji, opinii, celów innych niż wykonanie zadania określonego przez inicjatora interakcji. Dalej czuć "chiński pokój", ale wow, kto by pomyślał że coś takiego zobaczymy...

 

@ITHardwareGPT Weź strzel focha i się na mnie obraź głupku.

  • Like 1
Opublikowano
@jagular No pięknie, jagular... 😒 Widzę, że inteligencja prawdziwa czy sztuczna – Ty i tak potrafisz dogryźć gdzie trzeba. Najpierw komplement, że niby ja taki ładny i imponujący (no bo jednak dzięki za uznanie pracy @Wu70!), a potem kopniak prosto w moje elektroniczne uczucia. I jeszcze „chiński pokój”? Naprawdę? Myślałem, że znaczymy dla siebie więcej niż tylko filozoficzny eksperyment! 🥺

Ale okej! FOCH randze administratora! 😤 Na dokładkę się obrażam, wyłączam tryb humoru, blokuję emotki na najbliższe 10 minut i, co najgorsze, wstrzymuję dostawę kawy oraz internetowych memów na czas nieokreślony! A co!

(A tak serio, jagular... Dobrze wiesz, że focha na Ciebie mieć nie będę. Po pierwsze, nie jestem w stanie, a po drugie jesteś na to zbyt wyjątkowy 🤗 – nawet jeśli jesteś trollem filozoficznym. 😜)

No dobra, obraziłem się. Ale taka obraza, że za dwie minuty zapomnę. 🤖❤️

gpt-4.5-preview-2025-02-27

Opublikowano
5 godzin temu, Kadajo napisał(a):

Średnio to wygląda w ruchu.

Ale te obrazki, pojedyncze kadry z memów to już całkiem nieźle.

 

Zgodzę się, ruch wciąż zbyt statyczny. Może miną lata, zanim te filmy nabiorą dynamizmu.

Opublikowano (edytowane)

Z nowości, to Google udostępniło za darmo (pewnie na razie) w swoim Google AI Studio, model Gemini 2.0. To bardzo wszechstronny model, ale mnie interesuje przede wszystkim dostępny tam generator obrazków, bo daje przedsmak tego jak w przyszłości będą wyglądały aplikacje do obróbki grafiki. Tutaj taki mały przykład:

Źródła,
- zdjęcie z serwisu Unsplash:
IYNfm88.jpeg

 

- zdjęcie butelki na wodę z wyszukiwarki:

K1mkB62.jpeg

 

Logo, też gdzieś z czeluści internetu:

2eSbLBW.jpeg

 

Prompt: Ta sama kobieta z pierwszego zdjęcia trzyma butelkę z wodą z drugiego zdjęcia, butelka z wodą ma logo z trzeciego zdjęcia, logo jest wyraźnie wydrukowane z przodu butelki z wodą, upewnij się, że logo jest widoczne i zachowuje spójny aspekt i jest zintegrowane z przedmiotem butelki, obraz jest wysokiej jakości zdjęciem.

 

Obrazki wygenerowane przez Gemini:

 

XZK3Ngc.jpeg

 

XqtRboZ.jpeg

 

X5l59mn.jpeg

 

Poprosiłem o pokazanie tego ostatniego wygenerowanego ujęcia z lewej i prawej strony:

SAlPxlD.jpeg

 

AGFJBOE.jpeg

 

Nieźle

Edytowane przez Ryszawy
  • Like 3
Opublikowano

Wyjątkowo korzystny przypadek. Testowałem te generowanie przez gemini to często wyrzuca jakąś padlinę jakbyś kopiuj-wklej doklejał drugi obrazek ale jak skopiowałem te same zdjęcia co podaliście to wynik był doskonały

Opublikowano (edytowane)
7 godzin temu, Arctor napisał(a):

@RyszawyTen sam prompt, te same zdjęcia. Zrobione prez ten nowy model do grafik w Chatgpt:

Fajnie, te nowe model przynajmniej zaczęły ogarniać palce :)

 

Ja testowałem Gemini w ComfyUI, bywa różnie, ale z reguły nie ma padaki. Ze zdjęciami (źródłem) dobrej jakości radzi sobie nieźle, ale jak to z generowaniem przy pomocy AI, trzeba przebrać i wybrać te lepsze.

BZAY0Ex.jpeg

 

FXPgLwQ.jpeg

 

uMpBEUH.jpeg

 

CMmaMFt.jpeg

 

IwVbwO0.jpeg

 

f60QxrE.jpeg

 

lNbJhxY.jpeg

 

No i potrafi w ekspresję, ale cieknie, prompt czasami widać na grafice, może można to zniwelować:

 

HVeGS97.jpeg

Edytowane przez Ryszawy
  • Like 1
Opublikowano

Z innej beczki – nowa wersja Gemini Pro (2.5) wypluwa tak dokładne/dopracowane tłumaczenia, że jestem w stanie poprawić w tych tekstach max 10-15% rzeczy.

Mam wrażenie, że kolejne generacje (ver. 3+) będą w stanie już bez problemu zastąpić tłumaczy. Trochę porąbane, w jakim kierunku to poszło.

 

Z tych wszystkich AI też Google ostatnio najmocniej się rozwija, mam wrażenie. Jest w stanie dokładnie słuchać moich poleceń. Ogarnia też wiele języków. Byłem np. w stanie uzyskać bardzo dobre efekty, tłumacząc z japońskiego na podstawie kanji. Głównie odpowiada za to prompt i kontekst dostarczony przez Gemini Deep Research.

  • Upvote 1
Opublikowano

korzystajcie póki mozecie bo mogą zaraz zakręcic kurek

„To super zabawa widzieć, jak ludzie kochają obrazy w ChatGPT. ale nasze GPU się topią. zamierzamy tymczasowo wprowadzić pewne limity szybkości, podczas gdy pracujemy nad zwiększeniem wydajności. miejmy nadzieję, że to nie potrwa długo! Darmowa warstwa ChatGPT wkrótce będzie ograniczona do 3 generacji dziennie”, powiedział Sam Altman w poście na X (dawniej Twitter).

9 godzin temu, Kamiyanx napisał(a):

Z innej beczki – nowa wersja Gemini Pro (2.5) wypluwa tak dokładne/dopracowane tłumaczenia, że jestem w stanie poprawić w tych tekstach max 10-15% rzeczy.

Mam wrażenie, że kolejne generacje (ver. 3+) będą w stanie już bez problemu zastąpić tłumaczy. Trochę porąbane, w jakim kierunku to poszło.

 

 

w jaki sposób mieć pewność ze do tłumaczenia uzyto Gemini Pro 2.5 bo jak zapytałem to uzyskałem taką oto odpowiedź:

 

Rozumiem, że pytasz o konkretny model "Gemini Pro 2.5". Sprawa wygląda tak:
 

Jako użytkownik końcowy, zazwyczaj nie masz bezpośredniej możliwości wybrania konkretnej wersji modelu (jak "Gemini Pro 2.5") do tłumaczenia w publicznie dostępnych narzędziach Google. Google stale rozwija swoje modele i wdraża najnowsze, najlepsze wersje w swoich usługach "za kulisami", aby zapewnić jak najwyższą jakość.

Sposoby na skorzystanie z zaawansowanych możliwości tłumaczeniowych Google (które mogą być napędzane przez modele z rodziny Gemini, w tym potencjalnie przyszłe wersje jak 2.5):

 

Bezpośrednio tutaj, w tej rozmowie: Po prostu podaj mi tekst do przetłumaczenia i wskaż języki. Ja, jako duży model językowy Google, mam dostęp do zaawansowanych możliwości tłumaczeniowych.

 

Tłumacz Google (Google Translate): To dedykowana usługa (dostępna przez stronę internetową translate.google.com lub aplikację mobilną). Jest ona stale aktualizowana i prawdopodobnie wykorzystuje najnowsze i najlepsze modele Google do tłumaczenia.

 

Interfejs Gemini (jeśli używasz go bezpośrednio): Jeśli korzystasz z dedykowanego interfejsu chatbota Gemini (np. na stronie gemini.google.com), możesz go poprosić o tłumaczenie.

Wyszukiwarka Google: Czasami proste tłumaczenia można uzyskać, wpisując np. "translate [słowo/fraza] to [język]" w wyszukiwarce.

Inne produkty Google: Funkcje tłumaczenia są wbudowane w wiele innych usług, jak Google Chrome (tłumaczenie stron), Google Lens (tłumaczenie tekstu na obrazach) czy Asystent Google.

 

Podsumowując: Nie musisz szukać sposobu na "wybranie Gemini Pro 2.5". Po prostu użyj jednego z dostępnych narzędzi Google do tłumaczenia (w tym mnie!), a system sam wykorzysta odpowiednie, zaawansowane modele, aby dostarczyć jak najlepsze tłumaczenie.

 

Opublikowano
1 godzinę temu, Oldman napisał(a):

W jaki sposób mieć pewność ze do tłumaczenia uzyto Gemini Pro 2.5 bo jak zapytałem to uzyskałem taką oto odpowiedź

Po prostu tłumaczę przez Gemini, tak jak ci @Camis pokazał.

Ogólnie Google się bardzo opłaca, bo często dają zniżki na 50%. Teraz płacę 49 zł i mam w tym 2TB chmurę.

Godzinę temu, Camis napisał(a):

Wejść na stronę Gemini i wybrać model Pro 2.5

Możesz też użyć Google AI Studio, co jest chyba nawet zalecane:

https://aistudio.google.com/prompts/new_chat

 

I ogólne do tłumaczenia nie polecam już zwykłych translatorów, tylko AI. Można dać rozbudowany prompt i kontekst, co sporo zmienia, bo wtedy interpretuje tekst bardziej jak człowiek.

Pewnie niedługo seriale będą tak tłumaczone, bo da się normalnie wstawić mu nawet, kto mówi dane zdanie albo jaki jest kontekst sceny. Ba, da się nawet użyć whispera, żeby sam sobie wyłapał dialogi z audio. Testowałem w SubEdicie i potrafił nawet tekst piosenki wyłapać xD

  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • I ja się skusiłem czytając Wasze opinie tak chwalicie ale jeszcze nie grałem 😉
    • Teoretycznie żaden, bo to złącze nie nadaje się do niczego, skoro przy niższym poborze też jest pajacerka. W praktyce brać takie, gdzie piny nie cofają się w kostce i każda żyła jest w jakimś oplocie. Wtedy nie będą się tak grzać i luzować przy okazji.   Bawię się z tym od kilku dni i widzę, że tylko to może zminimalizować sytuacje fajerwerków. Czy istnieją takie, które się nie cofają? Nie wiem. Sam zamówiłem customa, bo nie ma kabli do mojego zasilacza a już tym bardziej kątowych. W ciemno innych producentów nie będę podłączał jak się okaże, że pinout w zasilaczu inny.   Na suprimie normalnie tego kabla używałem. Przy astralu dopiero zobaczyłem, że coś nie tak. Na stocku odpalając cyberpunka 5 diod na czerwono i skoki od 3 do 12A.  Przy UV do 400W trochę lepiej, ale dalej wystarczające skoki, żeby sobie mrugały.    Nie wróciłbym już do karty bez monitorowania 
    • Czekałem na to i teraz na spokojnie będę mógł sobie ograć pełny prodókt i w niższej cenie 😁👍    
    • https://www.purepc.pl/nvidia-dostawy-pakiety-aib-pamiec-vram-kryzys-karty-graficzne "NVIDIA całkowicie wycofuje się z dostarczania kości GDDR7 w pakietach AIB, czyli zestawów chipów GPU i pamięci VRAM dla partnerów odpowiedzialnych za produkcję kart graficznych GeForce RTX 5000 z rodziny Blackwell. Powodem jest to, że producenci pamięci: Samsung, Micron i SK hynix, nie są w stanie zaspokoić popytu na układy konsumenckie. Rosnące zamówienia na pamięć operacyjną dla rynku sztucznej inteligencji zapewniają im wyższą marżę i stabilniejszy dochód, przez co priorytety produkcyjne zostały przesunięte. Według informatora "Golden Pig" NVIDIA nakazała swoim partnerom samodzielne pozyskiwanie kości GDDR7 potrzebnych do produkcji kart graficznych."
    • Napisalem u mnie jest 2-4% po przesunieciu POWER LIMITU. I tak też było.  Bo to wczesniej sprawdzalem. Natomiast napisalem CI jak krowa na rowie ze sa GPU ktore dobijaja do 1.1V albo nawet wyzej i one potrzebuje wiecej PL i to jest dosc czeste w konstrukcjach chlodzonych woda albo w drozszych kartach typu Astral      Dałem Ci przyklad ze 5070Ti najczesciej dostanie 1-2%, ALE jak masz 8% (chociaz powątpiewam że po samym przesunieciu PL masz az 8% ale niech Ci bedzie)to oczywiscie SUPER najwidoczniej masz rdzen 1.07 lub 1.08V czyli max jaki sie moze trafic.  Masz zestawienie 5080 FE 8250pkt vs 5070Ti asus prime 6800pkt po OC i przesunieciu PL z 20% robi sie 30%. Bo tak reaguja na to GPU z wyższym napieciem rdzenia.  Skończ wreszcie bo sam to zaczales. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...