Skocz do zawartości

Sztuczna inteligencja AI - (OpenAI, ChatGPT, Midjourney, DALL-E) - Temat ogólny


Rekomendowane odpowiedzi

Opublikowano

Ostatnio chyba już każdy portal internetowy korzysta z AI tylko że nikt tego nie weryfikuje...

Dzisiejszy nagłówek:

Jaka będzie obecność USA i przyszłość SATO

aż zwątpiłem  bo jest coś takiego jak SATO Travel (agencja podróży dla personelu wojskowego i rządowego USA).

ale nie poniżej tekst:

Potencjalne zmiany w obecności wojskowej USA w Europie pojawiają się pośród obaw o przyszłość NATO

Opublikowano
4 minuty temu, Norrberrto napisał(a):

Ostatnio chyba już każdy portal internetowy korzysta z AI tylko że nikt tego nie weryfikuje...

Dlatego z takich newsów zawsze miałem bekę, a teraz to nawet tarzam się po podłodze jak je czytam. Przejmowanie wszystkim co piszą na internetach i branie wszystkiego na poważenie jest czystą głupotą.

Opublikowano (edytowane)

Są jakieś inne AI do generowania tekstur oprócz chatgpt?. Chatgpt radzi sobie z tym całkiem nieźle. Ciekawe jest to też że można mu podesłać, np. zdjęcie jakiegoś budynku i on potrafi wygenerować z tego teksturę ściany. Może nie jest tekstura odwzorowana jeden do jednego ale i tak nieźle wychodzi.

 

Chodzi o generowanie mniej więcej tego typu tekstur. Cegła to akurat tylko przykład.

 

123.png

Edytowane przez sabaru128
Opublikowano

Canva. Wersja darmowa lub płatna (wtedy odblokowane są dodatkowe opcje). Generuje zarówno obrazki, jak i ma wielką bazę tekstur.

 

Photopea. Odpowiednik Photoshopa, online i za darmo. Nie generuje, ale jest podpięty do grafik legalnego uźytku, jak Pixabay.

Clipboard_04-12-2025_01.jpg

  • Upvote 2
Opublikowano
W dniu 12.04.2025 o 10:25, sabaru128 napisał(a):

Są jakieś inne AI do generowania tekstur oprócz chatgpt?. Chatgpt radzi sobie z tym całkiem nieźle. Ciekawe jest to też że można mu podesłać, np. zdjęcie jakiegoś budynku i on potrafi wygenerować z tego teksturę ściany. Może nie jest tekstura odwzorowana jeden do jednego ale i tak nieźle wychodzi.

 

Chodzi o generowanie mniej więcej tego typu tekstur. Cegła to akurat tylko przykład.

 

123.png

mam wrażenie ze jak coś sie pojawia w CHATGPT to nagle janusze grafiki budzą sie z krzykiem i dla nich to jest wielkie objawienie, i nagle pojawia sie pełno newsów na ten temat jakby to była jakaś mega nowinka. troche to smieszne i smutne zarazem.

puenta jest taka: Wiekszosc rozwiązań na początku pojawia sie w programach bardziej profesjonalnych i trudniejszych w obsłudze a dopiero potem niektóre z nich lądują w programie dla januszy czyli w chatgpt

przykładowy wynik wyszukiwania na reddicie:

https://www.reddit.com/search/?q=stable+diffusion+seamless+texture&cId=4d49fc39-6825-481c-a325-f2660fffb2db&iId=30eeadbe-8735-47e2-9249-4bf933ecfde7



 

Opublikowano (edytowane)

wow!

Mój test polegał na zadaniu AI czegoś, co trudno znaleźć w tym, co już zostało stworzone. Dotychczas różne AI polegały na moim teście.

Aż do teraz..

 

Kolega ma wykupionego GPT i wszedł ten nowy model. Posłałem mu mój prompt:
 

A futuristic race scene. Instead of pod racing vehicles, the drivers race on jet-fueled toilet bowls. One racer has funny big moustache in style of Yosemite Sam's moustache.

 

image.thumb.png.4bdc807684027439dc584642f2281b19.png

 

 

:lol2: nawet wąsa dał radę :lol2:

 

Edytowane przez VRman
  • Haha 2
Opublikowano
Godzinę temu, VRman napisał(a):

Mój test polegał na zadaniu AI czegoś, co trudno znaleźć w tym, co już zostało stworzone

Dokładnie tak powinno wyglądać testowanie modeli, jak widzę że nowy najlepszy model jest super bo wygenerował kobietę różniącą się o 1% od innej to nawet nie oglądam bo szkoda zachodu.

Opublikowano

Już niedługo? :E

 

Pierwszy lepszy wynik googlania:

A study by McGee in 2023 found that 53% of students use ChatGPT for writing papers. Additionally, 22% rely on it for generating paper outlines. A separate poll found that 88% of students used AI tools like ChatGPT for assessments in 2025, up from 53% the previous year.

  • Upvote 2
Opublikowano
Cytat

Gemini 2.5 Flash - to będzie najlepszy model do programowania?

 

Gemini 2.5 Flash może być najlepszym modelem "myślącym" do programowania jeśli chodzi stosunek jakości do ceny, pokonując dwudziestokrotnie droższy Sonnet 3.7. Jego cena to zaledwie $0.15 za 1M tokenów wejściowych i $0.6 za 1M tokenów wyjściowych. To niewiele drożej niż poprzednik Gemini 2.0 Flash. Wygląda na to, że po cichu Google zdobywa pierwszeństwo wśród modeli językowych.

Jak czytamy Google wprowadził właśnie wczesną wersję Gemini 2.5 Flash, dostępną poprzez API Gemini w Google AI Studio oraz Vertex AI. Ten nowy model bazuje na popularnym fundamencie 2.0 Flash, ale oferuje znaczną poprawę w zdolnościach rozumowania, jednocześnie zachowując szybkość działania i niskie koszty. Gemini 2.5 Flash to pierwszy w pełni hybrydowy model rozumowania, który pozwala programistom włączać lub wyłączać funkcję "myślenia". Co ciekawe, model pozwala także na ustawienie "budżetu myślenia", aby znaleźć odpowiednią równowagę między jakością, kosztem i czasem reakcji.

Jak działa "myślenie" w modelach Gemini 2.5
Modele Gemini 2.5 to tzw. "myślące modele", które potrafią rozumować przed udzieleniem odpowiedzi. Zamiast natychmiastowego generowania wyniku, model może przeprowadzić proces "myślenia", aby lepiej zrozumieć zapytanie, podzielić złożone zadania na części i zaplanować odpowiedź.
W przypadku skomplikowanych zadań wymagających wielu kroków rozumowania (jak rozwiązywanie problemów matematycznych czy analizowanie pytań badawczych), proces myślenia pozwala modelowi osiągnąć dokładniejsze i bardziej kompleksowe odpowiedzi. Co godne uwagi, Gemini 2.5 Flash radzi sobie świetnie z trudnymi zapytaniami w teście LMArena, zajmując drugie miejsce zaraz po wersji 2.5 Pro.

https://www.elektroda.pl/rtvforum/topic4117979.html
 

Cytat

1. Wielu użytkowników chwali model Gemini 2.5 Pro jako znaczną poprawę w porównaniu do poprzednich wersji, uważając go za bardziej inteligentny od konkurencyjnych modeli.
2. Cechą wyróżniającą Gemini 2.5 jest zdolność do "myślenia" przed odpowiedzią, co pozwala na bardziej dokładne i kompleksowe rozwiązania złożonych problemów.
3. Użytkownicy doceniają, że model nie jest przesadnie uległy i potrafi podważać błędne założenia, zamiast bezrefleksyjnie zgadzać się z użytkownikiem.
4. Wielu użytkowników przeniosło się z Claude (Anthropic) na Gemini ze względu na lepszą wydajność i niższy koszt.
5. Modele Flash są postrzegane jako oferujące najlepszy stosunek ceny do wydajności, co jest szczególnie ważne dla zastosowań komercyjnych.
6. Gemini ma imponujące możliwości przetwarzania obrazów, w tym funkcje rozpoznawania tekstu (OCR) przewyższające specjalistyczne narzędzia jak AWS Textract.
7. Niektórzy użytkownicy zauważają, że modele Gemini mają tendencję do "przeprojektowywania" rozwiązań, dodając zbyt wiele kodu obsługi błędów lub wprowadzając niepotrzebne komplikacje.
8. Wielu użytkowników docenia darmową wersję Gemini 2.5 Pro jako znacznie lepszą od innych darmowych modeli dostępnych na rynku.
9. Dzięki własnej infrastrukturze sprzętowej Google ma przewagę kosztową, co pozwala im oferować zaawansowane modele po niższej cenie.
10. Niektórzy użytkownicy wyrażają obawy dotyczące praktyk Google związanych z wykorzystaniem danych z bezpłatnych wersji do trenowania modeli.
11. Google ma przewagę w dostępie do danych treningowych dzięki swoim usługom jak Google Books, YouTube, Gmail i inne.
12. Funkcja okna kontekstowego o wielkości 1 miliona tokenów jest często wymieniana jako znacząca zaleta w porównaniu do innych modeli.
13. Integracja z usługami Google (Docs, Sheets, Gmail) jest postrzegana jako potencjalna przewaga w zastosowaniach biznesowych.
14. Modele Flash 2.5 mają możliwość tworzenia masek segmentacji obrazu, co jest rzadko spotykane w modelach tej klasy cenowej.
15. Niektórzy użytkownicy zgłaszają problemy z limitami szybkości (rate limits) w wersjach preview modeli.
16. Wielu użytkowników uważa, że Google zaczyna wygrywać "wyścig AI" dzięki połączeniu jakości modeli i niższych kosztów.
17. Część użytkowników wyraża obawy, że Google może porzucić swoje produkty AI, jak to miało miejsce z innymi usługami w przeszłości.
18. Niektórzy wskazują, że OpenAI wciąż ma przewagę rozpoznawalności marki (ChatGPT), szczególnie wśród młodszych użytkowników.
19. Użytkownicy doceniają możliwość sterowania "budżetem myślenia" w modelach Gemini 2.5 Flash, co pozwala na znalezienie odpowiedniego balansu między jakością, kosztem i szybkością.
20. Gemini 2.5 Flash oferuje przyzwoitą wydajność nawet przy wyłączonym "myśleniu", co jest istotne dla zastosowań wymagających niskich kosztów i dużej przepustowości.

https://news.ycombinator.com/item?id=43720845

 


Już można testować: https://aistudio.google.com/prompts/new_chat

Jest bardzo tani:

 

4034979200_1744960888.gif

 

OHwbvZP.png

Opublikowano

Gemini 2.5 Flash rzeczywiście wygląda obiecująco – cena do możliwości całkiem spoko. Ale OpenAI też nie śpi, nowe modele lecą jak z taśmy. Zobaczymy, kto wyjdzie na prowadzenie i jak szybko wejdą w codzienność.

Opublikowano

Co z tego, jak te modele są kiepskie i mało się różnią? Gemini miało większy progres w pół roku niż GPT przez ostatnie dwa lata.

Zresztą GPT mogę polecić chyba tylko do takich codziennych pytań. Do czegoś poważniejszego jest Claude lub Google.

Dla OpenAi widzę tylko zastosowania graficzne, ale tego typu rzeczy są też teraz wbudowane w Canvę.

 

I ogólnie można zmienić nazwę tematu, bo już od dłuższego czasu są inne, bardzo konkurencyjne modele.

Opublikowano

@Kamiyanx

 

Prawie miesiąc minął mi z Gemini i serio jest to naprawdę dobre. 

Problematyczne jest to, że taki Gemini nawet w mojej pracy powoduje, że młodsi prawnicy są niepotrzebni. Gemini robi to szybciej i często LEPIEJ niż oni. Dziś właśnie od rana się wkurzam na :kupa: które dostałem od pewnego chłopaka przejętego z "konkurencyjnej" kancelarii. Jak oni tam tak piszą to się nie dziwię, że nie są naszą konkurencją :E 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Tutaj chyba mylisz generacje procesorów i podejście do TAU vs dana generacja CPU.  Moim zadaniem przed pisaniem szybkich twierdzeń w stylu "Co tu czytać...." to lepiej jest poczytać dokumentację od i9‑10850K   Ten procesor również używa Turbo Time Parameter (Tau) do liczenia średniej mocy dla PL2. Jednak w Comet Lake Tau jest mniej elastyczne i bardziej statyczne niż w 13./14. generacji. i9‑10850K) używa Turbo Boost 2.0 – to prawda, ale klasyczny, starszy niż w 13./14. generacji. 13./14. gen używa Turbo Boost 2.0 z Adaptive Boost Technology (ABT)   W 13./14. gen co TAU faktycznie robi ·         Tau to parametr matematyczny używany przez algorytm Intel Turbo do wyliczania średniej mocy w czasie („time-averaged power”). ·         Nie jest to zegar, który odlicza X sekund i wyłącza PL2. ·         Algorytm korzysta z Tau, ale decyzja o zejściu z PL2 zależy od średniej mocy w tym oknie, limitów prądu, mocy i temperatury. ·         Również np stany C‑states procesora mogą wpływać na średnią moc, ponieważ przejścia w i z niskiego poboru energii zmieniają chwilowy pobór CPU. Algorytm uwzględnia te zmiany przy liczeniu średniej w oknie Tau. Dlaczego „czas PL2” może się różnić bo średnia moc (wyliczana z Tau) jest dynamiczna i zależy od wielu czynników: np: 1.      Bieżące taktowanie i napięcie CPU – nawet identyczna aplikacja może generować różne chwilowe pobory energii. 2.      Temperatura początkowa CPU – cieplejszy procesor szybciej zacznie schodzić z PL2. 3.      Dynamiczne zmiany w poborze energii – drobne różnice w działaniu kodu wpływają na średnią moc. 4.      Chłodzenie i przepływ powietrza – wentylatory, temperatura otoczenia itp. wpływają na tempo osiągania średniej mocy PL1. 5.      Inne limity systemowe – np. PL1, prąd, sterowniki, interakcje z OS. 6.      Stany C‑states – wchodzenie CPU w niskie C‑states zmniejsza chwilowy pobór, co wpływa na średnią i może wydłużyć utrzymanie PL2. 7.      Wersja "różna" mikrokodu odpowiada za algorytm Turbo Boost / Adaptive Boost Technology (ABT).          a więc ten sam cpu inny mikrokod wersja UEFI, a więc inne podejście do TAU może również być.  W praktyce ·         Ustawienie Tau w BIOS = stała liczba jednostek dla algorytmu (np. 56 s, 125, 253). ·         Czas utrzymania PL2 = zmienna zależna od średniej mocy w tym oknie i wymienionych czynników. ·         Nawet przy identycznym obciążeniu PL2 może trwać różnie (np. 10 s, 20 s lub 30 s), jeśli PL1 < PL2.   Uwagi odnośnie ustawień BIOS ·         Tau = auto → mikrokod sam dobiera wartość Tau optymalną dla CPU i platformy, ale algorytm nadal używa Tau do liczenia średniej mocy. ·         Scenariusz PL1 = PL2: Jeśli ustawisz PL1 = PL2 = np. 240 W i CPU nie przekroczy limitów temperatury ani prądu, procesor może pracować praktycznie stale na maksymalnej mocy PL2. Tau w tym przypadku nadal istnieje, ale nie wymusza zejścia z PL2, bo średnia moc nigdy nie przekroczy PL2. ·         W normalnym przypadku (PL1 < PL2), PL2 nigdy nie jest absolutnie stałe – zawsze zależy od średniej mocy, limitów prądu, mocy, temperatury i np. stanów C‑states. ......i wiele innych nie wymienionych.   
    • Ja mam kilka sztuk, głównie architecture i botanicals porozkładane po całej chacie - zrezygnowałem z tego hobby jednak na rzecz innych pasji
    • Raczej nie wszyscy są zdziwieni, ale jest jedno ale, prąd jest o wiele łatwiej wytworzyć w warunkach domowych, od benzyny. Trudno też mi sobie wyobrazić, aby w najbliższych latach prąd w domowych gniazdkach był po 3 zł.
    • To była kiedyś topka MSI   Zawsze można zamontować dodatkowy czujnik i mieć odczyt w HWiNFO  Zawsze coś  
    • Buspasy dla EV do 01 stycznia 2028r - Nawrocki podpisał ustawę   Ale hejt się na niego leje  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...