P.Wiśnia 129 Opublikowano 18 Stycznia Opublikowano 18 Stycznia (edytowane) Był DieselGate, będzie GraphicGate. Producenci tak skonstruują sterownik karty aby wykrywał że trwa benchmark i sztucznie będzie zwiększana wydajność na jego potrzeby. Edytowane 18 Stycznia przez P.Wiśnia 1
lukadd 2 913 Opublikowano 18 Stycznia Opublikowano 18 Stycznia Nawet zero chwalenia benchami. Bo taka bida wychodzi nawet po tuningu sterów
azgan 1 127 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 1 godzinę temu, Element Wojny napisał(a): No mnie powoli już przechodzi ten początkowy hype, kiedy zaczęło się pojawiać coraz więcej zajawek na to, że to będzie jednak jedna z najgorszych generacji kart. Teraz zostało już tylko czekać na wyniki testów. Jeśli będzie drogo i kijowo to nie zmieniam, ficzery i tak trafią do serii 40XX, a FG użyłem tylko w jednej grze i używać w innych nie planuję, bo to będzie wysypisko artefaktów. Zależy od gry i implementacji ale geralnie to mogę się z tym zgodzić. 1 godzinę temu, Kadajo napisał(a): Chyba była, ale warto posłuchać co mówią. Szczególnie jak Linusowi wyciąga cytat "Nie po to kupuje GPU za 2000$, żeby włączać DLSS" Dzięki za linka, zabieram się za oglądanie
areczek1987 908 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 27 minut temu, skypan napisał(a): Jak bym był inwestorem to takie teksty może puszczać. A jestem końcowym użytkownikiem i w tym kontekście znasz moje zdanie. Jakie jest twoje zdanie? On cię oszukał? Na czym? PANTA RHEI!
RTX4090 358 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 15 minut temu, Kadajo napisał(a): Znaczy się ja pisałem stricte o DLSS. Na chwilę obecną moc 4090 jest tak duża że używam (tam gdzie można) DLAA + FG Do samego DLSS przydałby się predefiniowany tryb DLSS UQ - gdzie zamiast z 66% klatki, rendering szedłby z 85 - 90. Drobny boost fps byłby, a utraty jakości nikt by pewnie nie zobaczył.
skypan 1 753 Opublikowano 18 Stycznia Opublikowano 18 Stycznia @areczek1987 Wyraziłem je bardzo dosadnie.
azgan 1 127 Opublikowano 18 Stycznia Opublikowano 18 Stycznia @Kadajo odnośnie tego filmu z Twojego linka gdzie Linus cytuje wypowiedź pana kurteczki że ten multi generator klatek nie byłby możliwy bez AI z miejsca przypomniał mi się ten materiał @Liptona 🤭😉
SebastianFM 344 Opublikowano 18 Stycznia Opublikowano 18 Stycznia (edytowane) 39 minut temu, sideband napisał(a): Poza tym nie pisałem nic o osobnych jednostkach INT. Pisałeś już o tym 2 razy więc się odezwałem. Godzinę temu, sideband napisał(a): Mnie w miejscu gdzie gdzie koleś miał 28fps to mam 22fps tylko to jest inny build CP Skoro INT jest liczone w tym samym czasie to Ci mówię od razu będą rozbieżności większe wydajności między grami i miejscami testowymi Te magiczne 1.8x dla RT Core może wymagać zmian w samej grze by kop wzrósł w RT lub dotyczy stricte wykorzystania Mega Geometry. W dniu 16.01.2025 o 00:25, sideband napisał(a): Aż takiego problemu w wydajności nie widzę tylko, że serwują gorącego kartofla. Liczenie FP/INT jednocześnie powoduje, że mogą podobne cuda jak na Turinga spore różnice w kopie między grami i miejscami testowymi w porównaniu do ADY. Ale i tak cwaniaki jak zwykle nie napisali co dokładnie zmienili i jaki jest współczynnik FP do INT Ta zmiana w Blackwell dla graczy czyli, że wszystkie jednostki mogą wykonywać instrukcje INT nie ma dużego znaczenia, ponieważ większość obliczeń to i tak FP32. 39 minut temu, sideband napisał(a): To nawet nie jest tak jak piszesz dlatego wklejałem tekst od ziomeczka to co NV wrzuca u siebie w swoich schematach blokowych to uproszczenie żebyś za dużo nie wiedział Przecież to co było w tym tekście dokładnie pokrywa się z tym co w ogólnodostępnej dokumentacji NVIDIA. Edytowane 18 Stycznia przez SebastianFM
Kadajo 7 411 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 18 minut temu, RTX4090 napisał(a): Do samego DLSS przydałby się predefiniowany tryb DLSS UQ - gdzie zamiast z 66% klatki, rendering szedłby z 85 - 90. Drobny boost fps byłby, a utraty jakości nikt by pewnie nie zobaczył. Możesz sam to uzyskać modyfikując DLSS za pomocą DLSSTweaker'a 1 1
azgan 1 127 Opublikowano 18 Stycznia Opublikowano 18 Stycznia Godzinę temu, Kadajo napisał(a): Jako entuzjasta PC dziwie Ci się, że masz tak "mały problem" z tym że zabrano ci to z czego PC zawsze słyną, z jakości renderowanego obrazu. Nie ma znaczenia ze DLSS jest lepszy, na PC miałeś lepszą jakość obrazu, którą teraz DLSS niszczy i dodatkowo zaczynamy być do niego zmuszani. To nie konsole stały się lepsze... To PC został ściągnięty do ich poziomu 2 godziny temu, Kadajo napisał(a): Nie wiadomo jak to finalnie wpłynie na wydajność. Gdzieś dziś słyszałem ze "otwarcie" DLSS 4 w większości dla reszty rodziny RTX to odpowiedz na to co szykuje AMD. Jeśli odp. AMD będzie dostępna dla wszystkich i doda multi generator oszukanych klateczek na PC a później na konsolach to może być ciekawe 😁
lukadd 2 913 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 16 minut temu, PiPoLiNiO napisał(a): Dobra, Pany, teraz już bez hipokryzji. Kto poluje na Astral 5090? Bo chcę wiedzieć jak bardzo dupe trzeba spinać... Żeby potem nie było, że na polskę będzie 5 sztuk, a 31 stycznia wpadnie 5 zdjęć od 5 wariatów z Astral na forum ITH i żadnym z nich nie będę ja albo Daj na luz zainteresowanie 5090 na forum jest tak ~10 x mniejsze niż 4090 w podobnym czasie przed premierą Jak nie dadzą jakiejś mega małej ilości to spokojnie wyrwiesz Ale ja bym szykował ~14k za topowca od Asusa
RTX4090 358 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 10 minut temu, Kadajo napisał(a): modyfikując DLSS za pomocą DLSSTweaker'a Wiem, temu napisałem że tryb predefiniowany bez używania softu dodatkowego (ten mi służył do wymuszania DLAA)
Element Wojny 4 775 Opublikowano 18 Stycznia Opublikowano 18 Stycznia (edytowane) Coś czuję że po premierze posiadaczy kart z serii 50XX będzie można policzyć tutaj na palcach obu rąk. Edytowane 18 Stycznia przez Element Wojny 1
Kadajo 7 411 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 6 minut temu, RTX4090 napisał(a): Wiem, temu napisałem że tryb predefiniowany bez używania softu dodatkowego (ten mi służył do wymuszania DLAA) W sumie racja. Ale powiem ci ze jak się ja bawiłem DLSSTweakerem to nie zauważałem jakiś kosmicznych różnic w jakości na + ale zdecydowanie szybko dało się zobaczyć spadek wydajności. Nvidia nie bez powodu wybrała chyba te wartości, które są domyślne. Wydaje też mi się, że przy wyższych rozdzielczościach bazowych te różnice będą jeszcze mniej dostrzegalne.
VRman 2 641 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 4 godziny temu, sideband napisał(a): Jak dokładnie to samo może mieć większe zmiany? Nie wiem co tutaj wciągacie. To było półżartem, a chodziło w nim o to, że niższy proces G92 vs 92b to większa poprawa wydajności (nie zmian jako takich w chipie) niż teraz w przejściu na serię 5xxx, bo niższy proces dał o 8,76% wyższy zegar i podobną różnicę w testach przy tym samym TDP (według TPU przynajmniej)
Phoenix. 4 727 Opublikowano 18 Stycznia Opublikowano 18 Stycznia (edytowane) 1 godzinę temu, lukadd napisał(a): Dokładniej przeanalizowałem sobie miejscówkę z testu 5090 w CP PT i wychodzi mi bliżej 40% w 4k. Jakiego testu ? Ja mam info od testera o 30% ale bez informacj w jakiej grze. Niemniej i tak kulawo Tam gdzie odpala te wszystkie duperele do RT co obsługuje nowy gen to będzie większy skok ale co mam grać 10X w Alana wake ? 🤣 Edytowane 18 Stycznia przez Phoenix.
lukadd 2 913 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 6 minut temu, Phoenix. napisał(a): Jakiego testu ? 1
Phoenix. 4 727 Opublikowano 18 Stycznia Opublikowano 18 Stycznia Ten dziwnym trafem jedyny film najpopularniejszy 😷
lukadd 2 913 Opublikowano 18 Stycznia Opublikowano 18 Stycznia Nvidia pozwoliła gostkowi pokazać fps w CP2077 PT na 5090. Różne nastawy tam są. Ale dla nas najbardziej wartościowy do porównań jest natywny rendering w 4k też pokazany na tym materiale.
azgan 1 127 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 3 minuty temu, lukadd napisał(a): Nvidia pozwoliła gostkowi pokazać fps w CP2077 PT na 5090. Różne nastawy tam są. Ale dla nas najbardziej wartościowy do porównań jest natywny rendering w 4k też pokazany na tym materiale. Ile jeszcze generacji będziemy grać ciągle w tego Cyberpunka 2077 🤭?
areczek1987 908 Opublikowano 18 Stycznia Opublikowano 18 Stycznia Dopóki nasi dev'i będą tacy tani i skorzy by przy łataniu jeszcze dopieszczać nv ich autorskimi technikami by następny go kupił jako benchmark'a i nic się nie zmarnowało
azgan 1 127 Opublikowano 18 Stycznia Opublikowano 18 Stycznia 16 minut temu, lukadd napisał(a): Nawet przy kompresji YouTube widać artefakty przy obracaniu kamery z generatorem klateczek 1
RTX4090 358 Opublikowano 18 Stycznia Opublikowano 18 Stycznia Dobra Panowie (i może Panie) - spór (czytam też pure) idzie o to że Nvidia nie daje nic do rasteryzacji, że stoimy w miejscu bla bla bla ... Rasteryzacja, PT czy inne metody to tylko dążenie do finału jakim jest uzyskanie klatki obrazu (czyli odpowiednie ustawienie 8 mln pixeli w odpowiedni kolor - jeden pośród 16 mln) Czy ważne jest jaką technika do tego dojdziemy ? Jedne techniki generowania klatki porzucane są na inne techniki. Dziś idziemy w technikę opartą o AI (nazwę to robocze AI) bo co to tak naprawdę jest ? Czy to rasteryzacja, PT czy AI - finalnie dochodzi od obliczeń matematycznych na 0 i 1 aby uzyskać odpowiedni kolor pixela. Pewna epoka się kończy inna się zaczyna.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się