Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

  • Odpowiedzi 1,9 tys.
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Top użytkownicy w tym temacie

Opublikowane grafiki

Opublikowano

Tu nigdy nie chodziło o to że się "nie da", człowiek ciężką pracą to i na księżyc poleciał. ;)

 

AI jest wdrażane wszędzie gdzie się da nie dlatego że człowiek nie potrafi, tylko coś można zrobić szybciej i taniej. ;)

W tych "klasycznych" grach mnóstwo kodu już dzisiaj powstaje dzięki AI, grafika i rendering to po prostu kolejny klocek.

 

Miliardowe budżety i 5-10 lat na tworzenie dużego tytułu nikogo nie zachęca więc powstają generyki, tacy developerzy po AI będą sięgać z wywalonym jęzorem :D

  • Upvote 1
Opublikowano

Ale to nie jest wina technologi ze gry są coraz droższe i dłużej tworzone tylko kiepskiego zarządzania i zerowego talentu.

AI tego nie zmieni, one jeszcze bardziej uwypukli słabe punkty. To ze da się coś zrobić szybciej nie oznacza ze to będzie lepsze. Wręcz zazwyczaj jest zawsze gorsze.

  • Upvote 1
Opublikowano

Gry są coraz droższe i dłużej tworzone bo obecna technologia i metodologia tworzenia gier nie jest już wystarczająca do ciągle rosnących potrzeb.

To tak jakbyś pisał ręcznie książki, Twoje możliwości produkcji nie będą skalować się w nieskończoność. Trudno tu mówić o "winie". ;) 

 

W oprogramowaniu jest mnóstwo elementów stworzonych po to żeby przyśpieszyć pracę, jak byśmy dalej programowali bare metal to trudno by było o coś więcej niż pong :D

AI to tylko kolejny element po milionach poprzednich które zostały przyjęte i stały się nową normalnością.

 

 

Świat się zmieniał już miliony razy, zmieni się i teraz :D

  • Upvote 3
Opublikowano

@Wu70, bardzo się mylisz. Twórcy gier coraz częściej korzystają z gotowych silników, więc nie piszą wszytkiego od zera za każdym razem. Ty myślisz, że najwięcej pracy przy tworzeniu gry to programowanie? :) Są też gotowe narzędzia do tworzenia bardzo szczegółowych, realistycznych twarzy postaci, np. MetaHuman.

 

A poprawianie każdej wyrenderowanej klatki z gry przez AI, bo twórcom gry się nie chciało włożyć więcej pracy w tworzenie gry, to jest według ciebie dobre rozwiązanie? Według mnie to patologia.

  • Like 1
Opublikowano

Dokładnie zamiast siedzieć i tworzyć grę kunsztem to teraz będą manewrować suwaczkami i jakieś maski tworzyć dla DLSS 5, parodia, a nie tworzenie gier.

A najlepsze ze ani to niczego nie przyspieszy, a już na pewno nie sprawi ze gry będą tańsze.

Opublikowano
Godzinę temu, Kadajo napisał(a):

Dokładnie zamiast siedzieć i tworzyć grę kunsztem to teraz będą manewrować suwaczkami i jakieś maski tworzyć dla DLSS 5, parodia, a nie tworzenie gier.

A najlepsze ze ani to niczego nie przyspieszy, a już na pewno nie sprawi ze gry będą tańsze.

Na tańsze gry i tak nie ma co liczyć. Koszty produkcji tylko rosną. Pod każdym aspektem, od technologii po ludzi. 

Opublikowano

Gry są tanie panowie ;) Zobaczcie jak zdrożały koszty życia, a jak gierki.

Oczywiście pomijam pojedyncze przypadki i wersje specjalne po 500 zł, ale generalnie dobre gry na premierę kosztują po 200-300 zł. To nie jest dużo. 

Opublikowano

Liczące światłem? :D

 

Skoro zapowiadali neural rendering rok temu to aż tak daleko nie jest ale z obstawianiem to do kasyna :D

 

Jak z DLSS5 wycofali się do post processingu to tak jak pisałem od początku liczę że 6-7 już dowiezie coś większego :D

 

Cel NV to 100% pikseli AI, czy ktoś ich zatrzyma?

 

Na pewno nie szlochanie za kunsztem w biznesie ;)

 

NVDIIA-HOT-CHIPS-2025-6.jpg

 

 

 

Opublikowano

100% to żadne tam elo.

Ciekawe tylko ze Nvidia się nie chwaliła jakiej jakości będą te piksele, ale w sumie to się pochwaliła i teraz już wiemy :)

Nvidii nie zależy ani na lepszej grafice, ani na lepiej wyglądających grach.

Jej zależy tylko na jednym aby wepchnąć AI wszędzie gdzie się da, bo na tym będą zarabiać.

  • Upvote 1
Opublikowano

Mi się wydaje, że oni to zrobią, ale tylko w wersji "cloud only", z kompletnie zaoraną jakością obrazu w ruchu, lagiem itp. czyli do tego drugiego typu gier, o którym wspominałeś.

 

BTW. Zauważyliście, że Jensen już na scenie powiedział, że kiedyś nowa generacja oznaczała GPU a teraz cały rack serwerowy i że w przyszłości będzie się grało zdalnie?

 

Co do postępu bez jakiegoś wielkiego przełomu (dlatego wspomniałem o komputerach liczących na świetle) to moim zdaniem może być jak z ciosaniem kwadratowego kloca - ociosanie krawędzi pomaga go przesuwać. Ociosanie dalej - i się da go turlać. Ale to nie znaczy, że jak z prawie koła zrobimy idealne koło, to uzyskamy taki postęp jak z kloca na  niedokładnie ociosane koło.

 

Mnóstwo rzeczy, które się da z AI zrobić w sensie technologii, po prostu nie było zrobionych wcześniej. Ale już są lub zaraz będą. Może być ogromny spadek postępu. Dla przykładu w GPU przeszli z nacisku na FP32 na FP16, FP8 i teraz FP4. Ale dalej nie zejdą.

Można było też 

- przeprojektować cache

- dodać znacznie więcej do chipy po tym, gdy firmy zobaczyły, że koszt wyprodukowania chipu to pryszcz w porónaniu do reszty kosztów i zysków, czyli można było w układach dla serwerów AI dać to, co się wcześniej nie opłacało

- podbili pobór prądu, przeszli na bardziej scalone architektury multi-chip, przeszli na chłodzenie wodą, na interconnecty optyczne itp. itd. itezet.

- soft też można usprawniać, ale tylko do jakiegoś momentu. Koniec końców i tak będzie trzeba jakoś informacje przesłać. Nie da się tego przeskoczyć.

 

 

Ja tu bym postawił (dziś śmiesznie) brzmiącą tezę, że seria 80xx i np. 8080 może nigdy nie powstać, bo NV po prostu przerzuci się na robienie GPU do serwerowni. 

 

PS. Link nie działa. 

2 minuty temu, Kadajo napisał(a):

Jej zalezy tylko na jednym aby wepchanc AI wszedzie gdzie sie da bo na tym beda zarabiac.

No i te już dziś słynne "scarcity is fantastic for business"

  • Upvote 1
Opublikowano

Mimo wszystko dalej sprzedają i produkują GPU a żeby ktoś je kupował muszą być powody do kupowania.

Gigantycznie rosnące wymagania to świetny powód ;)

Jakość zostanie po prostu odpowiednio przycięta, modele mogą być dowolnie duże i małe. To co teraz pokazali to jest nic dla modeli AI i oni dobrze wiedzą jak to się skaluje.

 

Przejście gamingu na chmurę to chyba bardziej odległa wizja niż neural rendering.

 

Chociaż jak wyświetliłem steamdb i cloud gaming (nvidia) to CS2 jest na pierwszym miejscu, wtf? :D

Opublikowano (edytowane)
19 godzin temu, Wu70 napisał(a):

Gry są coraz droższe i dłużej tworzone bo obecna technologia i metodologia tworzenia gier nie jest już wystarczająca do ciągle rosnących potrzeb.

To tak jakbyś pisał ręcznie książki, Twoje możliwości produkcji nie będą skalować się w nieskończoność. Trudno tu mówić o "winie". ;) 

 

W oprogramowaniu jest mnóstwo elementów stworzonych po to żeby przyśpieszyć pracę, jak byśmy dalej programowali bare metal to trudno by było o coś więcej niż pong :D

AI to tylko kolejny element po milionach poprzednich które zostały przyjęte i stały się nową normalnością.

 

 

Świat się zmieniał już miliony razy, zmieni się i teraz :D

Obecnie tworzenie gier jest prostsze niż kiedyś. Typowe studia jadą na UE i na masie znanych narzędzi, które wciąż są udoskonalane.

Wszystko się rozchodzi o coraz mniejszą ilość talentów, ba, po prostu OK deweloperów w branży i coraz większy chaos w zarządzaniu.

 

Świetnym przykładem jest Ubi i seria Assassins.

Chyba możemy się zgodzić, że od Origins i w górę te gry są robione na jedno kopyto i technicznie praktycznie niczym się nie różnią od siebie, a Odyssey, Valhalla i Shadows są mniej więcej takiej samej wielkości.

 

Na początku wychodziły w krótkim odstępie czasu. Później zaczęło się psuć i na Mirage było trzeba czekać aż 3 lata, gdzie Mirage miało być zwykłym DLC do Valhalli i faktycznie jest to malutka gra.

 

Następnie dopiero po 5 latach od Valhalli otrzymaliśmy Shadows.

I co? Dostaliśmy nagłówki typu:

Assassin’s Creed Shadows Endgame Credits Roll for Over Two Hours, Raising Questions About Ubisoft’s Bloated Spending

Reports suggest that over 3,000 people worked on Assassin’s Creed Shadows

https://thatparkplace.com/assassins-creed-shadows-endgame-credits-roll-for-over-two-hours/

Dla porównania nad Odyssey pracowało około 1000 osób.

 

Albo daleko nie szukać, porównaj Wiedźmina 3 i Cyberpunka i czemu Wiedźmin 4 ląduje na UE? ;) 

 

Niestety weszliśmy w erę Crapification..., i nie chodzi tylko o branżę gier. W zasadzie o wszystko. Jedzenie, samochody, elektronika itd.

Edytowane przez MaxaM
Opublikowano

Nie no aż tak nie upraszczajmy, jednak działa lepiej. Tak jak pisałem kiedyś, działa podobnie do generowania grafiki AI, ma wstępny obraz + algorytm i przerabia. Czyli generowanie grafiki w tle szybciej niż myślałem, na razie pierdoły ale za kilka lat na bank tekstury i inne będą już robione w locie. 

  • Upvote 1
Opublikowano

W locie? No w sumie tak. W symulatorze lotu, lecąc 1km nad ziemią, te 20 prawdziwych klatek wystarczy. ;)

 

Ale tekstury akurat możnaby robić nie całkiem "real-time".

Skoro Nvidia pozwala w grach cieniom w RT/PT się aktualizować przez 2 sekundy, co to czemu nie tekstury. 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


×
×
  • Dodaj nową pozycję...