JeRRyF3D 1 793 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 37 minut temu, Wu70 napisał(a): Każda branża ma swoich konserwatystów czy entuzjastów. Oczywiście dla ogółu to nie ma znaczenia ale to nic złego się tym ponadprzeciętnie interesować. Ależ oczywiście. To jest spoko. Ale nawet tu na forum, mamy kilka person z maniakalnie wręcz ortodoksyjnym podejściem do rastra. Jakakolwiek "zdobycz techniki", która nie jest postępem stricte rastra (+ jeszcze te wszelkie wariactwa stosunku wafla / technologii vs efektywność energetyczna na vat vs ile to daje do wydajności, itd.) powoduje lament, wrzask, oburzenie, i podsumowanie = znowu skok na kasę!
tomcug 2 855 Opublikowano 14 Stycznia Opublikowano 14 Stycznia Godzinę temu, oldfashioned napisał(a): Z 4.5 masz mniejszy input lag przy uzyciu fg x2/x3 w stosunku do 4.0, przy takiej samej (finalnej - realna + fg) ilosci klatek No nie wiem. Nic mi nie wiadomo, żeby FG dostał jakieś usprawnienia z DLSS 4.5. Chyba, że masz jakieś źródło na ten temat?
oldfashioned 644 Opublikowano 14 Stycznia Opublikowano 14 Stycznia Nie czytalem o tym nigdzie, odpalalem cyberpunka po wejsciu nowych sterow i robilem test runy, przy celowaniu w avg. 140 FPS jest widoczna poprawa input laga przy frame genie, cyferki na overlayu to tez potwierdzaja. To pewnie wynika z jakis wstepnych implementacji DMFG przed oficjalnym wejsciem w wiosne.
Art385 387 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 2 godziny temu, Totek napisał(a): Wszystko ok, tylko tu bardziej temat wiąże się z powtarzalnością obrazka. Kwestia czy obraz wytworzony na twoim kompie będzie taki jak zaplanował producent gry. Bo jak i jednego Lara będzieiała cycki a u drugiego płaską klatę to o kant dupy taki postęp. Na moje to grafikę mogą robić ze wzoru na gęstość stolca, ale efekt niech jest wszędzie taki sam. No to by było w pytę. Skończyły, by się ataki na zwykłych userów przez lewactwo walczące. Wszyscy by mieli Larę z cyckami a odklejeńcy by mieli Lara po tranzycji z bliznami w miejscach piersi i wszyscy byliby szczęśliwi. Wybór tego co widzisz determinowany na wzór tego z gier bethesdy gdy się perki wybiera To byłby postęp
VRman 3 056 Opublikowano 14 Stycznia Opublikowano 14 Stycznia (edytowane) 4 godziny temu, Wu70 napisał(a): Wydajność AI nowych gpu z pewnością nie będzie "zmarnowanym krzemem" Dlaczego z pewnością? Wciska nam się na siłę guano, przez które bez AI potem można oglądać w 1080p pikselozę gorszą niż za czasów grania w 320x240 to potem jest to AI "przydatne". Gorzej, że "bonus" do ceny jaki powoduje obecność AI oznacza podniesienie dla gracza kosztu tak, że mógłby w tej cenie dostać 2x więcej wydajności w rasterze. No ale to się właśnie zmienia, bo teraz to w ogóle NV i AMD robią graczom łaskę, że w ogóle "marnują" jakąkolwiek część wafla TSMC na chipy dla graczy, ale mowa o normalności. 4 godziny temu, JeRRyF3D napisał(a): Myślicie, że jest wielu takich, którzy walczą o raster (?) oraz oceniaja lub pomstują w oparciu wyłącznie o raster - a nie o "końcowy efekt na ekranie"? Jak to jest u Was? Ja osobiście mam absolutnie wywalone na to, "jak to się dzieje, że mam na ekranie... " a interesuje mnie efekt. DLA MNIE - AI może mi generować i 90% obrazu - jeśli będzie to zjadliwy / ładny obraz ładnej gry. Myślę, że idiotów, którzy są zakochani w rasterze i niczego o AI nie rozumieją nie ma wcale poza Twoją głową, w której nie mieści się po prostu że dla kogoś ten końcowy efekt może być gorszy z AI mimo że dla ciebie jest lepszy. Jeśli skroić raster do wydajności GF2 to na pewno łatwo będzie przekonać, że bez AI się nie da, a AI to cud z niebios. Poza tym wchodzimy tu w kwestie indywidualnych preferencji i zalecam trochę więcej chęci zrozumienia drugiej strony. Ja nie wyzywam fanów PT od idiotów (o ile nie srają AI-propagandą na kanale z milionami subskrypcji i mają łysego szefa pierdzielącego głupoty ;)) tak samo byłoby fajnie jakby przeciwna strona rozumiała, że może ktoś woleć HFR i inne rzeczy, które "nowoczesne" podejście, które nie działa bez AI, po prostu wyklucza. Dla mnie postępem jest VR. Większym niż cały postęp w GPU od czasu jego powstania. Postępem jest żyleta bez artefaktów w ruchu. itp. Jestem przeciwnikiem wszelkiego postępu tylko w wyobraźni coniektórych, a raster lubię nie z sentymentu bo właśnie grałem sobie w VR w grę z pięknym rastrem, dzięki czemu gra chodzi płynniej, obraz ma fajniejszy, ładniejszy i zero pikseli czy artefaktów. Gra powstała rok temu. Nie 20 lat temu. Nie wytłumaczysz tego sentymentem czy "konserwatyzmem". Też oceniam efekt. Edytowane 14 Stycznia przez VRman
Wu70 815 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 10 minut temu, VRman napisał(a): Dlaczego z pewnością? Bo jest realnie używany przez graczy nawet dzisiaj w DLSS a będzie jeszcze bardziej, modele DLSS będą rosnąć wraz ze zwiększaniem zasobów a do tego pojawią się dodatkowe wykorzystania w grach. Dla porównania przeciętny forumowicz długo będzie się zastanawiał do czego "używa" NPU w SOCach i zastosowania sprowadzają się do byle pierdół które nikogo nie interesują. https://www.techradar.com/computing/windows-laptops/dell-reveals-people-dont-care-about-ai-in-pcs-and-a-new-truly-embarrassing-windows-11-fail-shows-why
tomcug 2 855 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 15 minut temu, VRman napisał(a): "bonus" do ceny jaki powoduje obecność AI oznacza podniesienie dla gracza kosztu tak, że mógłby w tej cenie dostać 2x więcej wydajności w rasterze Na bank by tak było 3
sideband 2 121 Opublikowano 14 Stycznia Opublikowano 14 Stycznia Dobra rada nie komentuj pewnych wpisów 3 1
VRman 3 056 Opublikowano 14 Stycznia Opublikowano 14 Stycznia (edytowane) 6 minut temu, tomcug napisał(a): Na bank by tak było Nie, nie chodzi mi o to, co pisałem w swoim wątku teraz. Chodzi mi o to, że Nvidia po prostu dodaje do ceny "bonus" z powodu tego, że jest tam AI. Po pierwsze bo ma to siłę marketingową, a po drugie bo wpakowali już "niechcący" w R&D AI tyle kasy że potem gracz płaci więcej kupując kartę. W tym sensie. No i dlatego, że wartość wzrasta bo graczom przez AI chętnie karty podkupują ludzie kupujący karty do AI. edit: jakby ktoś nie czytał to napiszę ponownie: to nie ma zastosowania teraz, bo teraz NV i AMD w ogóle skąpią nam "wafli" i jakby w GPU nie mogli dać AI to by pewnie w ogóle GPU do gier nie robili w tej chwili. A w tym sensie o którym myślałeś, a wyśmiewasz - też. Ale specjalnie nie pisałem o nim tym razem. PS. Spoiler ROPs! Wiedziałem, że się ucieszysz Edytowane 14 Stycznia przez VRman
Tornado3 384 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 4 godziny temu, Wu70 napisał(a): myślę że jeszcze długo nie porzucimy testów bez dlss w takich portalach jak ITH. i w tych "normalnych" testach rubin odjedzie 10% od Blackwalla 1
Art385 387 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 8 minut temu, VRman napisał(a): Chodzi mi o to, że Nvidia po prostu dodaje do ceny "bonus" z powodu tego, że jest tam AI. Nvidia, to ci da bonus do ceny nawet jak nie nie dostaniesz żadnego bonusu w postaci niczego. Oni mają praktycznie monopol a AMD jest po to aby nie było monopolu z definicji, bo to rodzi problemy. Bądźmy ze sobą szczerzy oni i tak się z nami łagodnie obchodzą 1 1
SebastianFM 379 Opublikowano 11 godzin temu Opublikowano 11 godzin temu (edytowane) W dniu 14.01.2026 o 10:44, tomcug napisał(a): No nie wiem. Nic mi nie wiadomo, żeby FG dostał jakieś usprawnienia z DLSS 4.5. Chyba, że masz jakieś źródło na ten temat? Sterowniki pobierają najnowszą wersję bibliotek Streamline. Przy uruchamianiu gry są ładowane są najnowsze biblioteki Streamline zamiast tych z katalogu gry. W tym konkretnym przypadku nie sprawdzałem różnicy w wydajności i opóźnieniu, ponieważ i tak nie korzystam z FG jednak rok temu pojawiła się wersja Streamline 2.7.2, przy której sama podmiana tych bibliotek zwiększała wydajność przy włączonym FG nawet o 10%. Edytowane 11 godzin temu przez SebastianFM
VRman 3 056 Opublikowano 10 godzin temu Opublikowano 10 godzin temu W dniu 14.01.2026 o 14:14, Art385 napisał(a): Nvidia, to ci da bonus do ceny nawet jak nie nie dostaniesz żadnego bonusu w postaci niczego. Oni mają praktycznie monopol a AMD jest po to aby nie było monopolu z definicji, bo to rodzi problemy. Bądźmy ze sobą szczerzy oni i tak się z nami łagodnie obchodzą Nawet się bym zgodził prawie* ale nie z ostatnim zdaniem. A żaden bonus w postaci niczego to mi już od dawna dają RT mi zwisa a PT nie użyję poniżej 5090tki, a i to pewnie nie długo bym poużywał, zanim bym przestawił ustawienia gry na HFR (120fps+) lub przełączył na grę VR. AI nie dawało nic do premiery DLSS4, bo 1,2 i 3 dla mnie mają wartość zerową. Także niech sobie zabierają te AjAj i wsadzą w kurtkę.
maxmaster027 1 076 Opublikowano 10 godzin temu Opublikowano 10 godzin temu (edytowane) Tu nie chodzi o EjAJ tylko o konkurencje, musi byc konkurencja, bo inaczej firma czerpie zyski z produktu najdłuzej jak sie da i wypuszczanie nowych modeli, które by konkurowały głównie z jej wczesniejszymi staje sie mniej oplacalne, aczkolwiek nieuniknione, bo raczej ani more threads ani AMD, ani Intel nie wypuszcza GPU mogące zagrozić 5090 czy nawet 5080. Edytowane 10 godzin temu przez maxmaster027
miro 963 Opublikowano 8 godzin temu Opublikowano 8 godzin temu @Lipton testuje staruchy 3060 vs 6700xt fajnie jest pokazany mod rdna2 & FSR 4.0
leven 670 Opublikowano 8 godzin temu Opublikowano 8 godzin temu Dziwne. 306012GB jest wychwalane, a 4060ti 16GB i 5060ti 16GB są dosłownie wyśmiewane. Cena ? Szkoda, że Lipek nie zrobił porównania właśnie z tymi średniakami
VRman 3 056 Opublikowano 2 godziny temu Opublikowano 2 godziny temu (edytowane) 5 godzin temu, miro napisał(a): @Lipton testuje staruchy 3060 vs 6700xt fajnie jest pokazany mod rdna2 & FSR 4.0 Po kartę która zrobyła szczyty popularności... Arnold Stallone i Sylvester Norris w filmie a nie, czekaj, to jednak nie film akcji z lat 80tych. To tylko ktoś za bardzo przyaktorzył czytając tekst do filmiku na YT. 5 godzin temu, leven napisał(a): Dziwne. 306012GB jest wychwalane, a 4060ti 16GB i 5060ti 16GB są dosłownie wyśmiewane. Cena ? Spróbuję odpowiedzieć: Spoiler 330$ vs 500 i 430 192bit vs 128bit wydajność bardzo blisko 80tki wydanej dwa lata wcześniej vs sporo ponad 4 lata wcześniej w przypadku 5060ti, albo poziom 70tki po dwóch latach w przypadku 4060 3060tka też pozwalała pograć jako tako w gry z włączonymi najnowszymi bajerami RT/PT, a powodzenia z graniem z PT w Indiana Jones na 4060tce (lows 20fps, a 5060Ti 16GB 22fps) flagowiec od 3060tki był 3x i 2.33x większy w sensie jednostek TMU i ROP Flagowce 4090tki o 4x i niecałe 4x. W 5060tce oczywiście jeszcze gorzej. 3060tka też nie była chamską pułapką jaką były i są 4060 i 5060 8GB. W dniu premiery 3060 6GB ta ilość pamięci była bardziej sensowna niż 8GB w 4060 i 5060. 3060tka nie miała naganiać na kartę o wiele droższą choć dla producenta karty i Nvidii różnica w cenie pamięci to były wtedy grosze (szczególnie 5060 Ti) co zresztą widać też po tym, że 12GB miała 3060 a u następców musiałeś kupić "Ti" bo po drodze NVidia jeszcze o pół półki postanowiła przesunąć, no bo jak to tak pełny chip 128bit za jedyne 2000zł dać graczom? Nie no tyle, to nie Edytowane 2 godziny temu przez VRman
Doamdor 2 269 Opublikowano 1 godzinę temu Opublikowano 1 godzinę temu @VRman Co do ceny RTX 3060 330$... Jeżeli chodzi o wydajność w 4K według purepc, RTX 3060 vs RTX 3080 około 105% różnicy, RTX 5060Ti vs RTX 5080 również około 105 % różnicy. Gdyby seria RTX 50xx dostałaby 3nm, to może nie byłoby tak kiepsko, Intel dostał 3nm i zmarnował to. 6 godzin temu, leven napisał(a): Dziwne. 306012GB jest wychwalane, a 4060ti 16GB i 5060ti 16GB są dosłownie wyśmiewane. Cena ? Szkoda, że Lipek nie zrobił porównania właśnie z tymi średniakami Cena i wydajność RTX 5060Ti na tle RTX 3080/3080Ti wypada słabo, więc ta karta dla mnie to jest nieśmieszny żart ze strony zielonych. Jest światełko w tunelu, że seria RTX 60xx nie będzie tak słaba, no chyba, że kurteczka jeszcze bardziej wykastruje karty graficzne.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się