Skocz do zawartości

Techniki rekonstrukcji obrazu w grach - NVIDIA DLSS, AMD FSR, Intel XeSS, Sony PSSR oraz inne


Rekomendowane odpowiedzi

Opublikowano
17 minut temu, Wu70 napisał(a):

A dlaczego chciałbyś wyłączyć film grain?

Czyżbyś nie rozumiał i nie chciał grać zgodnie z WIZJĄ AUTORÓW? :D

Touche :lol2:

 

Co do graczy, to po odjęciu tych dla których, jak piszesz, jest to AI, wcale nie zostają tylko e-sportowcy. Powiedzmy, że 90% z tej grupy ludzi, jaka stanowiła całość gamingu w 2005r. 

 

Jak jakoś sobie zdefiniujemy gry 1 i gry 2, to może zaczniemy się ze wszystkim zgadzać. 

No może nie w poziomie zainteresowania, i tym co za tym idzie.

 

 

  • Like 1
  • Odpowiedzi 1,9 tys.
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Top użytkownicy w tym temacie

Opublikowane grafiki

Opublikowano
33 minuty temu, maxmaster027 napisał(a):

Po prostu uspokajam nastroje

Luz.

Zobaczymy jak to będzie chodzić jesienią.

Licze ze do tego czasu Nvidia wykona jeszcze jakiś pokaz ciekawszy i technicznie wytłumaczy działanie.

Opublikowano
Godzinę temu, Kadajo napisał(a):

Ile razy można powtarzać, to nie jest żaden DLSS tylko Neural Rendering. Nawet nie wiadomo jak to działa dokładnie a ty już o jakiś presetach piszesz.

Będą presety cycki, duże cycki, bardzo duże cycki :hihot:

  • Haha 2
Opublikowano
35 minut temu, Kadajo napisał(a):

Luz.

Zobaczymy jak to będzie chodzić jesienią.

Licze ze do tego czasu Nvidia wykona jeszcze jakiś pokaz ciekawszy i technicznie wytłumaczy działanie.


59:44 ustawielm, posłuchaj 5min to mniej wiecej o to chodzi, że nvidia ustawiła cała infrastrukture wlasnie z mysla o tym. O efficiency

 

Opublikowano
31 minut temu, znaFca napisał(a):

Szampanów to oni tam raczej nie otwierają... 

Tak na pewno się przejmują łapkami w dół na YT xDDDD

Ty widziałeś jaką mają kapitalizację? I konkurencję? Mogą spać spokojnie.

  • Upvote 1
Opublikowano

Gdyby się nie przejmowali to by Jensen się tam nie tłumaczył i gadał ze gracze "nie mają racji".

Nie wiadomo co przyniesie przyszłość, może oni już coś wiedza czego nie wiemy jeszcze my i akcjonariusze LOL

Opublikowano (edytowane)
7 minut temu, Kadajo napisał(a):

Gdyby się nie przejmowali to by Jensen się tam nie tłumaczył i gadał ze gracze "nie mają racji".

Ty widziałeś jak on potrafi się zachowywać na scenie? Chłop jest ostro obrośnięty w piórka i mocno pewny siebie. Przed oficjalnym pokazem miał wizję, że gracze będą piać z zachwytu. Jest inaczej i ucierpiało jego ego, a nie firma.

Edytowane przez DżonyBi
Opublikowano

Oj tam, po prostu sobie coś powiedział w wolnej chwili, bo co prawda gaming to jakiś tam nieważny procent (lub 5), ale to jednak nadal ponad miliardzik rocznie na czysto, jak nie lepiej, więc to nie tak, że może nagle przestać udawać, że jeszcze się tym w ogóle interesuje. Poza tym przecież każdy lubi się chwalić, a on się przez tyle lat chwalił postępami w gamingu. 

 

Opublikowano
55 minut temu, Kadajo napisał(a):

Gdyby się nie przejmowali to by Jensen się tam nie tłumaczył i gadał ze gracze "nie mają racji".

Nie wiadomo co przyniesie przyszłość, może oni już coś wiedza czego nie wiemy jeszcze my i akcjonariusze LOL

No ja mam nadzieje, że 6080 podwoi w koncu wszystko co ma 5080 :) lacznie z pamiecia i CUDA :P I tak jeszcze bym sobie zyczyl zegar 4-4.2Ghz na OC :D 

Opublikowano

Chyba to się małpa na drzewie.

Szukałem i nigdzie nie znalazłem by były jakiekolwiek informacje o wykorzystaniu FP4 przy neural renderingu. Nie ma żadnych informacji by FP4 było wystarczająca precyzją.

NVFP4 ma zbliżona precyzję do FP8, ale nie wiem czy będzie możliwe do wykorzystania.

Opublikowano
1 godzinę temu, maxmaster027 napisał(a):

No ja mam nadzieje, że 6080 podwoi w koncu wszystko co ma 5080 :) lacznie z pamiecia i CUDA :P I tak jeszcze bym sobie zyczyl zegar 4-4.2Ghz na OC :D 

Spoiler

Przy procesie dającym aż +10% i przy cenach RAMu jakie są, to się ciesz jak nie będzie mniej niż +10% w rasterze i nie zostawią 16GB dla 80tki :E

Nie zostawią, bo nie mogą, ale jakby tylko mogli to by zostawili. W końcu wtedy można lepiej promować neural texture compression, które przy 500fps kasuje zaledwie 60% wydajności całej karty w danej scenie, czyli idealnie się nada pod gry z PT/DLSS5 mające prawdziwe 30fps + na to MFG :E

Jeśli się nie zamierzasz bawić domowym modelem AI, ani nie chcesz czekać do 2030 na jakąś grę, która by skorzystała z tych Ajajów w jakiś sposób wyraźnie odróżnicający końcowy efekt od 5080tki, to masz szansę się nie rozczarować gdzieś tak  ~0,1%. 

Dwa razy więcej wydajności w jakimś AI - jasne, to jest realne.

Ale nawet w PT nie sądzę, żeby było 2x lepiej naprawdę. Może jakaś technologia, którą będzie obsługiwała jedna gra przed 2029r. a która nie ma sprzętowego wsparcia na 50xx.

O rasterze to nawet nie ma co gadać, bo na 200% choćby jednostek TMU/ROP/sharer względem 5080 nie ma szans, chyba, że TDP z 360 podbiją na 600W dla 6080tki. 

Albo zrobią jakiś myk ala 3080tka, że to będzie większy chip niż 256bit, co ma prawie zerowe prawdopodobieństwo.

 

To czego chcesz wymaga porządnego skoku w procesie, a to dopiero N2X. 

Niby teoretycznie to rok 2028, ale zauważ, że na początku roku 2028 lub max 2 miesiące wcześniej, wejdą pierwsze układy na 3nm od AMD i Nvidii, więc skoro 4-5nm>3nm zajęło 3 lata, to kiedy N2X? W najlepszym razie po półtora roku, ale raczej bez szans na cokolwiek poniżej Titana czy innej nazwy dla karty za ponad 2500$.

Realnie to raczej minimum 2, o ile w ogóle Nvidia zrobi nam łaskę i da nam N2X do gamingu, bo równie dobrze mogą dać 3nm od Samsunga gorsze od TSMC 4nm i pokazać graczom gest Kozakiewicza. Znowu.

No ale załóżmy lekki optymizm. 2028+2lata = początek 2030.

 

2nm to tranzystory GAA, wreszcie realny prawdziwy postęp, bo +10nm jakie teraz łaskawie dadzą po trzech latach, to kiedyś się nadrabiało OC, albo nową wersją (vide 14nm+++ Intela) czyli to nie jest "full node jump".

 

A z N2X jest już conajmniej +25% względem tego co mamy w 50xx. Może nawet +35%  - i ważne jak z komórkami pamięci cache. Jeśli tu będzie jakaś konkretna zmiana to poza samymi surowymi liczbami uśrednionej poprawy, może dość dodatkowa poprawa dzięki temu, że dadzą tego cachu więcej, albo w dodatkowej funkcjonalności (np. cache dla tego, dla czego obecnie go nie ma)

 

Innymi słowy: 2022>2029, realnie patrząc.

Opublikowano (edytowane)
5 godzin temu, galakty napisał(a):

Tak na pewno się przejmują łapkami w dół na YT xDDDD

Ty widziałeś jaką mają kapitalizację? I konkurencję? Mogą spać spokojnie.

Jak sam zauważyłeś mogliby olać gaming a ciągle się w to pchają a kurtka się później tłumaczy, że coś źle zrozumieliśmy. Po co marnować w takim razie swój czas i energie. Reasumując, na swój sposób mniej lub więcej ale jednak się przejmują i mają w tym jakiś cel.

Edytowane przez lokiju
Opublikowano

Dlaczego mieliby specjalnie popsuć sobie rynek, z którego  bez niemal żadnego wysiłku mają 1+mld $ rocznie zysku?

 

Poza tym grafa reali-time to nie tylko gry. Unreal Engine już się wykorzystuje w filmach, do tego w wizualizacji, w programach do robienia grafiki 3D, gdzie real-time RT, choć ułomny, bardzo pomaga przy pracy.

 

No i wreszcie to czego się nauczą, przyda się im do tego w co celują - będziesz grał na kompuerze, którego nie ma. Na wirtualnym - cloud gaming.

A to wręcz idealnie, bo mogą lepiej wykorzystać zasoby serwerowni. 

 

To nie tak, że Nvidia robi graczom na złość.  Oni po prostu na graczy PC leją, ale kasa nie śmierdzi, a lepszy miliardzik na boku bez niemal żadnego wysiłku, niż brak tego miliardzika. Nawet jeśli  na stole obok jest 40 miliardów z AI

Opublikowano
12 godzin temu, Kadajo napisał(a):

Gdyby się nie przejmowali to by Jensen się tam nie tłumaczył i gadał ze gracze "nie mają racji".

Nie wiadomo co przyniesie przyszłość, może oni już coś wiedza czego nie wiemy jeszcze my i akcjonariusze LOL

Przejmowanie się, a bycie idiotą to dwie różne rzeczy. On się nie przejmuje, ale też nie chce tracić kasy i graczy z głupiego powodu, stąd tłumaczenie i śpiewka. Ludzie uwierzą, kupią nowe karty i wracamy do rzeczywistości.

Opublikowano

Z tym kupowaniem to się jeszcze okaże xD

Jak RTX 6070 Ti będzie w cenie 7k to entuzjazm szybko opadnie, nawet jeśli jakimś cudem będzie szybszy od 5090 :D

Bo rzeczywistość jest taka ze z roku na rok wygląda to wszytko coraz gorzej, tak Nvidia wykazuje przyrost zarobków ale wynika on zapewne bardziej z podnoszenia cen kart a nie z tego ze ludzie kupują w takich samych ilościach.

Nawet jeśli optymistycznie założymy ze karty faktycznie będą znacznie wydajne i tanie (cena pozostanie na poziomie MSRP aktualnej generacji ale to jest raczej niemożliwe ze względu na ostatnie podwyżki cen praktycznie wszystkiego) to znowu nam karty wykopią skalperzy jak albo sklepy odpłyną z cenami.

Ludzie są już tym zmęczeni i zamiast szukać sprzętu zaczynają obnizac detale i obnizac ustawienia DLSS.

Opublikowano

Nie ma szans na taką cenę, a jak będzie na premierę to rynek szybko zweryfikuje. Stawiam w Polsce 5499 najtańsze modele, ale to się nie utrzyma. 

 

4070Ti kupowałem na premierę za 4099 zł, 5070Ti szło kupić na promkach taniej, jak odlecą na 7k to nie ma szans na sprzedaż, aż tak nie mogą polecieć. Oni i tak na graczach mało zarabiają, mogą mieć straty. 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...