JeRRyF3D 1 805 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 37 minut temu, Wu70 napisał(a): Każda branża ma swoich konserwatystów czy entuzjastów. Oczywiście dla ogółu to nie ma znaczenia ale to nic złego się tym ponadprzeciętnie interesować. Ależ oczywiście. To jest spoko. Ale nawet tu na forum, mamy kilka person z maniakalnie wręcz ortodoksyjnym podejściem do rastra. Jakakolwiek "zdobycz techniki", która nie jest postępem stricte rastra (+ jeszcze te wszelkie wariactwa stosunku wafla / technologii vs efektywność energetyczna na vat vs ile to daje do wydajności, itd.) powoduje lament, wrzask, oburzenie, i podsumowanie = znowu skok na kasę!
tomcug 3 129 Opublikowano 14 Stycznia Opublikowano 14 Stycznia Godzinę temu, oldfashioned napisał(a): Z 4.5 masz mniejszy input lag przy uzyciu fg x2/x3 w stosunku do 4.0, przy takiej samej (finalnej - realna + fg) ilosci klatek No nie wiem. Nic mi nie wiadomo, żeby FG dostał jakieś usprawnienia z DLSS 4.5. Chyba, że masz jakieś źródło na ten temat?
oldfashioned 679 Opublikowano 14 Stycznia Opublikowano 14 Stycznia Nie czytalem o tym nigdzie, odpalalem cyberpunka po wejsciu nowych sterow i robilem test runy, przy celowaniu w avg. 140 FPS jest widoczna poprawa input laga przy frame genie, cyferki na overlayu to tez potwierdzaja. To pewnie wynika z jakis wstepnych implementacji DMFG przed oficjalnym wejsciem w wiosne.
Art385 417 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 2 godziny temu, Totek napisał(a): Wszystko ok, tylko tu bardziej temat wiąże się z powtarzalnością obrazka. Kwestia czy obraz wytworzony na twoim kompie będzie taki jak zaplanował producent gry. Bo jak i jednego Lara będzieiała cycki a u drugiego płaską klatę to o kant dupy taki postęp. Na moje to grafikę mogą robić ze wzoru na gęstość stolca, ale efekt niech jest wszędzie taki sam. No to by było w pytę. Skończyły, by się ataki na zwykłych userów przez lewactwo walczące. Wszyscy by mieli Larę z cyckami a odklejeńcy by mieli Lara po tranzycji z bliznami w miejscach piersi i wszyscy byliby szczęśliwi. Wybór tego co widzisz determinowany na wzór tego z gier bethesdy gdy się perki wybiera To byłby postęp
VRman 3 190 Opublikowano 14 Stycznia Opublikowano 14 Stycznia (edytowane) 4 godziny temu, Wu70 napisał(a): Wydajność AI nowych gpu z pewnością nie będzie "zmarnowanym krzemem" Dlaczego z pewnością? Wciska nam się na siłę guano, przez które bez AI potem można oglądać w 1080p pikselozę gorszą niż za czasów grania w 320x240 to potem jest to AI "przydatne". Gorzej, że "bonus" do ceny jaki powoduje obecność AI oznacza podniesienie dla gracza kosztu tak, że mógłby w tej cenie dostać 2x więcej wydajności w rasterze. No ale to się właśnie zmienia, bo teraz to w ogóle NV i AMD robią graczom łaskę, że w ogóle "marnują" jakąkolwiek część wafla TSMC na chipy dla graczy, ale mowa o normalności. 4 godziny temu, JeRRyF3D napisał(a): Myślicie, że jest wielu takich, którzy walczą o raster (?) oraz oceniaja lub pomstują w oparciu wyłącznie o raster - a nie o "końcowy efekt na ekranie"? Jak to jest u Was? Ja osobiście mam absolutnie wywalone na to, "jak to się dzieje, że mam na ekranie... " a interesuje mnie efekt. DLA MNIE - AI może mi generować i 90% obrazu - jeśli będzie to zjadliwy / ładny obraz ładnej gry. Myślę, że idiotów, którzy są zakochani w rasterze i niczego o AI nie rozumieją nie ma wcale poza Twoją głową, w której nie mieści się po prostu że dla kogoś ten końcowy efekt może być gorszy z AI mimo że dla ciebie jest lepszy. Jeśli skroić raster do wydajności GF2 to na pewno łatwo będzie przekonać, że bez AI się nie da, a AI to cud z niebios. Poza tym wchodzimy tu w kwestie indywidualnych preferencji i zalecam trochę więcej chęci zrozumienia drugiej strony. Ja nie wyzywam fanów PT od idiotów (o ile nie srają AI-propagandą na kanale z milionami subskrypcji i mają łysego szefa pierdzielącego głupoty ;)) tak samo byłoby fajnie jakby przeciwna strona rozumiała, że może ktoś woleć HFR i inne rzeczy, które "nowoczesne" podejście, które nie działa bez AI, po prostu wyklucza. Dla mnie postępem jest VR. Większym niż cały postęp w GPU od czasu jego powstania. Postępem jest żyleta bez artefaktów w ruchu. itp. Jestem przeciwnikiem wszelkiego postępu tylko w wyobraźni coniektórych, a raster lubię nie z sentymentu bo właśnie grałem sobie w VR w grę z pięknym rastrem, dzięki czemu gra chodzi płynniej, obraz ma fajniejszy, ładniejszy i zero pikseli czy artefaktów. Gra powstała rok temu. Nie 20 lat temu. Nie wytłumaczysz tego sentymentem czy "konserwatyzmem". Też oceniam efekt. Edytowane 14 Stycznia przez VRman
Wu70 842 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 10 minut temu, VRman napisał(a): Dlaczego z pewnością? Bo jest realnie używany przez graczy nawet dzisiaj w DLSS a będzie jeszcze bardziej, modele DLSS będą rosnąć wraz ze zwiększaniem zasobów a do tego pojawią się dodatkowe wykorzystania w grach. Dla porównania przeciętny forumowicz długo będzie się zastanawiał do czego "używa" NPU w SOCach i zastosowania sprowadzają się do byle pierdół które nikogo nie interesują. https://www.techradar.com/computing/windows-laptops/dell-reveals-people-dont-care-about-ai-in-pcs-and-a-new-truly-embarrassing-windows-11-fail-shows-why
tomcug 3 129 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 15 minut temu, VRman napisał(a): "bonus" do ceny jaki powoduje obecność AI oznacza podniesienie dla gracza kosztu tak, że mógłby w tej cenie dostać 2x więcej wydajności w rasterze Na bank by tak było 3
sideband 2 236 Opublikowano 14 Stycznia Opublikowano 14 Stycznia Dobra rada nie komentuj pewnych wpisów 3 1
VRman 3 190 Opublikowano 14 Stycznia Opublikowano 14 Stycznia (edytowane) 6 minut temu, tomcug napisał(a): Na bank by tak było Nie, nie chodzi mi o to, co pisałem w swoim wątku teraz. Chodzi mi o to, że Nvidia po prostu dodaje do ceny "bonus" z powodu tego, że jest tam AI. Po pierwsze bo ma to siłę marketingową, a po drugie bo wpakowali już "niechcący" w R&D AI tyle kasy że potem gracz płaci więcej kupując kartę. W tym sensie. No i dlatego, że wartość wzrasta bo graczom przez AI chętnie karty podkupują ludzie kupujący karty do AI. edit: jakby ktoś nie czytał to napiszę ponownie: to nie ma zastosowania teraz, bo teraz NV i AMD w ogóle skąpią nam "wafli" i jakby w GPU nie mogli dać AI to by pewnie w ogóle GPU do gier nie robili w tej chwili. A w tym sensie o którym myślałeś, a wyśmiewasz - też. Ale specjalnie nie pisałem o nim tym razem. PS. Spoiler ROPs! Wiedziałem, że się ucieszysz Edytowane 14 Stycznia przez VRman
Tornado3 388 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 4 godziny temu, Wu70 napisał(a): myślę że jeszcze długo nie porzucimy testów bez dlss w takich portalach jak ITH. i w tych "normalnych" testach rubin odjedzie 10% od Blackwalla 1
Art385 417 Opublikowano 14 Stycznia Opublikowano 14 Stycznia 8 minut temu, VRman napisał(a): Chodzi mi o to, że Nvidia po prostu dodaje do ceny "bonus" z powodu tego, że jest tam AI. Nvidia, to ci da bonus do ceny nawet jak nie nie dostaniesz żadnego bonusu w postaci niczego. Oni mają praktycznie monopol a AMD jest po to aby nie było monopolu z definicji, bo to rodzi problemy. Bądźmy ze sobą szczerzy oni i tak się z nami łagodnie obchodzą 1 1
SebastianFM 427 Opublikowano 21 Stycznia Opublikowano 21 Stycznia (edytowane) W dniu 14.01.2026 o 10:44, tomcug napisał(a): No nie wiem. Nic mi nie wiadomo, żeby FG dostał jakieś usprawnienia z DLSS 4.5. Chyba, że masz jakieś źródło na ten temat? Sterowniki pobierają najnowszą wersję bibliotek Streamline. Przy uruchamianiu gry są ładowane są najnowsze biblioteki Streamline zamiast tych z katalogu gry. W tym konkretnym przypadku nie sprawdzałem różnicy w wydajności i opóźnieniu, ponieważ i tak nie korzystam z FG jednak rok temu pojawiła się wersja Streamline 2.7.2, przy której sama podmiana tych bibliotek zwiększała wydajność przy włączonym FG nawet o 10%. Edytowane 21 Stycznia przez SebastianFM
VRman 3 190 Opublikowano 21 Stycznia Opublikowano 21 Stycznia W dniu 14.01.2026 o 14:14, Art385 napisał(a): Nvidia, to ci da bonus do ceny nawet jak nie nie dostaniesz żadnego bonusu w postaci niczego. Oni mają praktycznie monopol a AMD jest po to aby nie było monopolu z definicji, bo to rodzi problemy. Bądźmy ze sobą szczerzy oni i tak się z nami łagodnie obchodzą Nawet się bym zgodził prawie* ale nie z ostatnim zdaniem. A żaden bonus w postaci niczego to mi już od dawna dają RT mi zwisa a PT nie użyję poniżej 5090tki, a i to pewnie nie długo bym poużywał, zanim bym przestawił ustawienia gry na HFR (120fps+) lub przełączył na grę VR. AI nie dawało nic do premiery DLSS4, bo 1,2 i 3 dla mnie mają wartość zerową. Także niech sobie zabierają te AjAj i wsadzą w kurtkę.
maxmaster027 1 117 Opublikowano 21 Stycznia Opublikowano 21 Stycznia (edytowane) Tu nie chodzi o EjAJ tylko o konkurencje, musi byc konkurencja, bo inaczej firma czerpie zyski z produktu najdłuzej jak sie da i wypuszczanie nowych modeli, które by konkurowały głównie z jej wczesniejszymi staje sie mniej oplacalne, aczkolwiek nieuniknione, bo raczej ani more threads ani AMD, ani Intel nie wypuszcza GPU mogące zagrozić 5090 czy nawet 5080. Edytowane 21 Stycznia przez maxmaster027
leven 768 Opublikowano 21 Stycznia Opublikowano 21 Stycznia Dziwne. 306012GB jest wychwalane, a 4060ti 16GB i 5060ti 16GB są dosłownie wyśmiewane. Cena ? Szkoda, że Lipek nie zrobił porównania właśnie z tymi średniakami
Doamdor 2 445 Opublikowano 22 Stycznia Opublikowano 22 Stycznia @VRman Co do ceny RTX 3060 330$... Jeżeli chodzi o wydajność w 4K według purepc, RTX 3060 vs RTX 3080 około 105% różnicy, RTX 5060Ti vs RTX 5080 również około 105 % różnicy. Gdyby seria RTX 50xx dostałaby 3nm, to może nie byłoby tak kiepsko, Intel dostał 3nm i zmarnował to. 6 godzin temu, leven napisał(a): Dziwne. 306012GB jest wychwalane, a 4060ti 16GB i 5060ti 16GB są dosłownie wyśmiewane. Cena ? Szkoda, że Lipek nie zrobił porównania właśnie z tymi średniakami Cena i wydajność RTX 5060Ti na tle RTX 3080/3080Ti wypada słabo, więc ta karta dla mnie to jest nieśmieszny żart ze strony zielonych. Jest światełko w tunelu, że seria RTX 60xx nie będzie tak słaba, no chyba, że kurteczka jeszcze bardziej wykastruje karty graficzne.
leven 768 Opublikowano 22 Stycznia Opublikowano 22 Stycznia Jednak jesteś świadomy, że ta nieśmiesznie żartobliwa karta 5060ti 16GB, jest praktycznie na równi wydajnościowo z 3080 w nowych tytułach ? Gdzieś, ktoś tutaj dawał porównanie
oldfashioned 679 Opublikowano 22 Stycznia Opublikowano 22 Stycznia FPS FPS FPS FPS FPS FPS Nikt nie spojrzy na to, ze 5060/5060ti pobiera 2x-2.5x mniej pradu od 3080/3080ti.
Qrdello 1 048 Opublikowano 22 Stycznia Opublikowano 22 Stycznia 7 minut temu, leven napisał(a): Jednak jesteś świadomy, że ta nieśmiesznie żartobliwa karta 5060ti 16GB, jest praktycznie na równi wydajnościowo z 3080 w nowych tytułach ? Gdzieś, ktoś tutaj dawał porównanie Realnie też serie 60 starzeją się gorzej niż 80tki, a co za tym idzie odsprzedaż tych kart później może nie tyle jest trudniejsza co wymaga wyraźnego obniżenia ceny. No ale fakt, 3080/ti/90 żrą tyle prądu, że gdyby wciąż było SLI to dwie 5060ti dałoby radę wykarmić tym prądem co idzie na jedną 3080ti
Doamdor 2 445 Opublikowano 22 Stycznia Opublikowano 22 Stycznia (edytowane) 31 minut temu, leven napisał(a): Jednak jesteś świadomy, że ta nieśmiesznie żartobliwa karta 5060ti 16GB, jest praktycznie na równi wydajnościowo z 3080 w nowych tytułach ? Gdzieś, ktoś tutaj dawał porównanie Nie przypominam sobie, która byłaby to gra, lecz za sprawą MFGX6 to i 9070XT wyprzedzisz. Gdybyś kupił RTX 5070, to miałbyś kartę na równi z RTX 4090. Edytowane 22 Stycznia przez Doamdor
VRman 3 190 Opublikowano 22 Stycznia Opublikowano 22 Stycznia (edytowane) 9 godzin temu, Doamdor napisał(a): Co do ceny RTX 3060 330$... A widziałeś karty w MSRP na start w serii 5xxx? 2 godziny temu, oldfashioned napisał(a): FPS FPS FPS FPS FPS FPS Nikt nie spojrzy na to, ze 5060/5060ti pobiera 2x-2.5x mniej pradu od 3080/3080ti. Karta po 5 latach od premiery karty na gównianym procesie Samsunga, który już wtedy cholernie odstawał, bo był niczym innym jak pudrowanym, gównianej wersji 10nm, które było tak złe, że powinno się nazywać 18nm a nie 8nm Mi tam zwisa ile karta pobiera. Jestem ciepłolubny. Jakby dali 5090 bez AI na 12nm z 1000W poboru ale za 2000zł to bym kupił Cytat @VRman W cenie 2800-3500 zł był RTX 5070 i RX 9070XT. Co nie zmienia faktu, że orbitujące ceny 5060ti 16GB przekraczały barierę 2000 Edytowane 22 Stycznia przez VRman
Doamdor 2 445 Opublikowano 22 Stycznia Opublikowano 22 Stycznia @VRman W cenie 2800-3500 zł był RTX 5070 i RX 9070XT.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się