-
Postów
4 909 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
4
Treść opublikowana przez VRman
-
No 10ms to raczej nie bardzo. O ile zrozumiałem co pokazywało DF, to chyba tam było 50ms laga idącego z DLSS ze starym FG, a dodatkowe klatki kosztowały kolejne 7ms dając razem 57 Przy 60fps jedna klatka trwa 16.6ms. Buforowanie tej klatki oznacza, że choćby GPU wykorzystywało zaginanie czasoprzestrzeni i wykonało wszystko w 0s, przy źródłe w 60fps nie ma opcji żeby to dodało mniej niż te 16.6ms. Oczywiście Nvidia sobie pooszukuje przy okazji, ukrywając to za albo ustawieniem Reflexa, albo Reflexa 2, albo korzystając z tego, że bez FG gra idzie w np. natywnej, a z FG jest DLSS performance czyli rendering z 4x mniejszą rozdziałką, co oczywiście podbija framerate i niweluje laga. W ten sposób "porównując" to może komuś wyjść 10ms. Sam uznałem DLSS 3.x za zbyt słaby aby się tym interesować i ile trwa generowanie 1 klatki dokładnie to nie wiem. Jak ktoś ma tabelkę z sensownym info, np. średnia z kilku gier, info ile twa generowanie klatki 1080p a ile 4K itp. to proszę o linka lub wrzutkę. Jeśli generowanie klatki (po odjęciu buforowania) trwa prawie nic, to przy źródle 120fps faktycznie dodawany lag nie powinien być dokuczliwy, ale wszystko zależy od tego kto gra i w co gra. Ja potrafiłem zamknąć v-sync w strzelance online na 120fps i czuć było że sterowanie trochę pływa w porównaniu do grania bez v-sync (z ok 150-250fps) ale że nie gram dla wyników a bardziej dla zabawy, pośmiania się z kolegami, to mi nie przeszkadzało. Potrafię jednak zrozumieć, że są ludzie którzy nawet z takim lagiem grać nie zamierzają, a FG będzie miał taki lub większy. Edit: Jako ciekawostka: profesjonalni graficy potrafią wyczuć czy tablet do rysowania ma 3ms czy 0ms opóźnienia. Przy 10ms wyczuć to potrafi ponoć każdy. Gry na PC potrafią zejść z całkowitym czasem "ruch -> obraz na ekranie" poniżej 25ms. Mowa o zadziałaniu myszki, przesłaniu sygnału, przepchaniu go przez sprzęt i windowsa, wykonanie wszystkiego na CPU i GPU czego wymaga wyrenderowanie klatki, puszczenie tego na monitor i dokończenie wyświetlania klatki. To wszystko na dobrze ustawionym PC w grze z tych najlepszych w tej kategorii potrafiło zejść do 3xms już dekadę czy dwie temu. Widziałem nawet liczby typu 18ms, ale nie wiem jak z wiarygodnością.
-
Zabieram się do zamówienia pierdół do Questa 2/3 z aliexpressu. Jak wygląda teraz sprawa ceł itp? Lepiej wziąć kilka pierdół za 15€ czy jak się kupi za 100€ to się nic nie stanie? Nie chcę czekania bo coś clą, ani przykrych niespodzianek typu "kupiłeś za 100€, dowaliliśmy drugie 100€ cła i opłat" Coś ktoś wie? Na razie mam na liście tak: - kabel 6m USB Kiwi, za 35€ - analogi do kontrolera, naprawiane oryginalne, po 3-4€ - torba do questa za 10€ - szmatka na soczewki chroniąca przed kurzem i słońcem 1€ - uchwyt do paletek ping-ponga, dwa za 7€ - gripy do kontrolerów Kiwi, żeby się dało puścić kontroller i żeby się po spoceniu nie przesuwały w dłoni bo to cholernie wkurza w strzelankach, gdzie nie idzie się przez to korzystać z tzw. "pamięci mięśniowej" (muscle memory) 20€ - szmatka na twarz pod headset, dla znajomych co się mocno pocą. po 1€ są, mam nadzieję, że chińska tablica mendelejewa nie wchłania się do skóry podczas używania. najwyżej będę to proponował osobom, których nie lubię Jak ktoś chce spapugować to numery przedmiotów do wstukania w szukajkę na Ali: 1005005653436281 1005005205311116 1005006622921551 1005007514327573 1005002900096749 1005006850877758 Zostaje wybrać kij do golfa i minigolfa, ale to będzie najtrudniej, bo nie wiem który z tanich jest wart zakupu, a jeszcze by się przydało kupić tak, żeby i do Q2 i w przyszłości do Q3 podpasował. Skusiłbym się też na gunstocka, żeby się fajniej w strzelanki grało, ale najtańszy wyglądający sensownie jest po 55€ to chyba na razie sobie odpuszczę, może kiedyś jakieś promo zrobią. Liczyłem że może teraz już na Q2 będą, bo Q2 zaczyna przechodzić do historii, ale nie. Polecicie może jakieś inne akcesoria warte zakupu? PS. Synthriders jest na promo w Meta store i na Steam. Nawet jeśli 99% tej gry to coś robione dla Grażyn, żeby sobie poskakały i robiły "fitness" to pozostałe 1% i tak jest warte wydania kilku Euro. Polecam DLC ElectroSwing i oczywiście Synthwave.
-
oś czasu "Fajnie, że tak tanio" "To powinno się nazywać Refresh "Boże, czy Ty to widzisz..." CES2025>---------[]-------------------------------------[]------------------[]--------------------------------------->PREMIERA >---[] jesteśmy tutaj
-
Sprzętowy frame pacing? Co to niby jest sprzętowy frame pacing? Co znowu marketingowcy Nvidii nawymyślali? Poniżej jest trochę nie na temat. Kilka myśli o przyszłości GPU w kwestii rasteryzacji.
-
128ROP, 336TMU w 5080 176ROP, 512TMU w 4090. 72MB cache vs 64MB To jest w zasadie wszystko co się liczy dla rasteryzacji i we wszystkim tym 5080 wypada blado na tle 4090. Jest architektura będąca w rasterze pewnie bez istotnych zmian + podobna efektywna przepustowość pamięci. Proces technologiczny tej samej generacji, a w przypadku 4090 był przeskok z kupiastego 8nm, który był pudrowanym 10nm i to w gorszej, Samsungowej wersji, od razu na wtedy najnowocześniejszy proces TSMC. To jest skok o w zasadzie niemal dwie generacje na raz vs. skok o pół generacji teraz. TDP 5080 też jest niżej 4090. Musiałby być cud, żeby 5080 się znalazła w połowie pomiędzy 4080s a 4090, o przegonieniu nie mówiąc.
-
Mam dwa pytania. Całego laba tu skopiowaliście? (fajnie, jeśli tak i brawo) Drugie do autora wątka. I jak się dalej potoczyło? Jak ten nowy OLED?
-
Dużo lepsze to i tak może być mniej niż choćby 4xxx. Szczególnie z full RT/Path Tracing Ktoś się może orientuje lepiej w tych kwestiach PT na AMD? Są choćby jakieś demka gdzie PT działa na Radeonach? Jak wygląda sprawa gier? Czy wypuszczenia Radków tak samo dobrych w PT jak RTXy od razu by naprawiło sytuację czy wszystkie gry z PT są zespawane z zamkniętymi dla Nvidii funkcjami i nadal choćby przez to będzie brak supportu albo katastrofalna wydajność? Radka nie planuję, ale fajnie jakby marketingowo 9xxx sobie radziły znacznie lepiej, jeśliby naprawili i koślawe FSR 3 (4 ma szansę być na pozioimie DLSS2 lub wyżej) i RT jednocześnie. Konkurencyjność by mocno wzrosła i wsystkim by to wyszło na dobre. Widziałem dziś w filmiku Hardware Unboxed testy, z których wynika, że AMD nadal nie bardzo ogarnia sterowniki pod gry z DX10/11. Poddali się czy ktoś coś wie o zapowiedziach, że jeszcze będą walczyć? Intel najwyraźniej kompletnie olał DX11, więc pewnie AMD też już położyło łaskę.
-
W VR wcale nie tak rzadko 4090 wyprzedza 4080 o ok 50%, czasem 30, ale czasem i ponad 55%. Nawet w grach 2D potrafi dobijać do 50%. Zakładając, że 5080 będzie szybsza o np. 15%, to będziemy mieli np. 100fps 4080, 115fps 5080 i 150fps 4090. Chcę się mylić, w końcu ten RAM GDDR7 powinien sporo dać, ale.. no niestety, wszystkie sygnały na niebie i ziemi sugerują, że w rasterze jest w serii 5xxx. A, Indiana Jones ma raytracing pociachany (po tonie wypowiedzi developerów w wywiadzie na DF widać, że nie chcą dać opcji włączenia go wszędzie bo nie chcą wkurzać ludzi tym jak mało klatek by wtedy uzyskiwali w grze nawet na 4090), a i tak karty 16GB zaczynają ocierać się o krawędź. Jednak 24GB na 4090tce to istotny plus. No chyba, że ktoś kupuje karty za 6K do pogrania rok i potem zmienia. Jak ktoś ma 4090 to moim zdaniem nierozsądne jest sprzedawać teraz. Jak ktoś nie ma, a by chciał, to lepiej niech poczeka aż wszystko już będzie wiadomo o prawdziwej wydajności 5xxx.
-
Możliwe, ale możliwe jest też (nie wnikam o ile mniej możliwe) że 5090 będą jak 9800x3d, pojawi się trochę, zaraz wywieje, ceny skoczą i z np., 11500zł za pierwszy sensowny model poza FE, które padną ofiarą właścicieli botów, zrobi się 12-13tys. 4090 wycofywane z produkcji od dawna, więc coraz trudniej dostępne. Zniechęceni wynikam i problemami z dostępnością ludzie wykupują co lepsze oferty na allegro i nagle najtańsza używana od sensownego sprzedającego, to 8000zł. To są układy, o których Nvidia wiedziała, że będą niewiele szybsze od 4090 i układy duże, których sprawne wersje idą pewnie do AI. To sugeruje, że będzie tych GPU tyle co kot napłakał, jeśli Nvidia od razu planowała zrobić z tego "halo product" dla PRu. Z drugiej strony rozczarowanie może być tak duże, że nikt tego nie będzie chciał i będzie aż nadto w sklepach.
-
Ja też bym wolał prawdziwe, ale mamy co mamy. Oczywiście, że bez AI się by dało poprawić wydajność, ale Nvidia po prostu nie widzi potrzeby, żeby robić GPU do gier. Skoro i tak już inwestują tyle w AI, to wystarczy powiedzieć działowi marketingu, że mają tak to przedstawić, że niby to super sprawa dla graczy i pora na CSa. Jasne, że rozwój jest wolniejszy i droższy, ale jak coś kosztuje 50$ + 200$ marży, to wzrost ceny z 50 na 100$ nie musi oznaczać zmiany ceny z 250 na 500$ za GPU. To tylko przykład, oczywiście, nie mówię, że Nvidia ma 400% na każdym GPU. Jednak jeśli za taki sam chip mogą zarobić więcej dając chip klientom kupującym dla AI, to Nvidia po prostu nie widzi powodu, żeby się wysilać. Intel kuleje w DX 9/10/11 i ich dział discreet GPU ledwo zipie, AMD już nawet nie udaje, że walczy, to po co się wysilać. Apropo. Ktoś liczył ile segment AI zjada powierzchni takiego 4070 czy 4090? W 5xxx pewnie jeszcze więcej. A tu jest coś o GDDR7 i tam jest mowa o obniżonym czasie dostępu (latency). To mi brzmi zbyt pięknie, żeby było prawdziwe. Pamięci projektowane pod maksymalną przepustowość nigdy nie miewają poprawy w latency a tu nagle mają mieć? Bardzo ciekawe. Oby się potwierdziło.
-
Jasne, ale chodzi o to, że jeśli jednak ten FG będzie działał świetnie przy wyższych ilościach klatek, to będzie w grze w 120fps możliwa różnica między prawdziwymi klatkami rozmytymi w ruchu, a wygenerowanymi i ułomnymi klatkami, ale za to bez rozmycia w ruchu. I tutaj nawet z kilkoma artefaktami może być sumarycznie znacznie lepiej, a input lag w grach typu Wieśmin czy RDR2 nie będzie aż tak wielkim problemem jak startujemy ze 120fps (prawdziwych) przed FG.
-
Po to: https://blurbusters.com/massive-upgrade-with-120-vs-480-hz-oled-much-more-visible-than-60-vs-120-hz-even-for-office/
-
Hmm. Nie oglądałem tego nawet dokładnie, bo jednak test na żywo to zupełnie inna sprawa, ale właśnie mi zestrzeliłeś prawie cały entuzjazm Zostaje nadzieja, że przy sygnale 120fps zamiast 20-30fps, będzie zupełnie inaczej, choć podobne nadzieje miałem z FG w DLSS3 i się potem rozczarowałem.
-
RTX 5090 i 5080 – premiera 30 stycznia w x-kom!
VRman odpowiedział(a) na x-kom temat w Nowości i promocje w x-kom
Jakoś DDR5 potrafią mieć w sklepach opis z MT/s zamiast MHz. Musiałbym być idiotą chcąc zabłysnąć wiedzą, którą posiada tutaj każdy user. Zwyczajnie razi w oczy tego typu pomyłka, bo to trochę na poziomie MediaMarktów sprzedających 20 lat temu Pentiumy 6GHz (bo dual-core 3GHz) Mogę się trochę zgodzić, że to czepialstwo. -
Zmiana upscallingu zwykłego będzie niezbyt istotna, przynajmniej dla mnie (bo nie lubię DLSS) ale to właśnie ten Frame Gen może się okazać bardzo przydatny posiadaczom OLEDów 240, a szczególnie 360 i 480/500Hz. FG w DLSS4 ma realne szanse to zmienić. W grach gdzie i tak powyżej 120fps nie wyciśniesz przez CPU, zrobinie z tego 480fps nawet z artefaktem widocznym tu i tam, da ogromną poprawę jakości obrazu w ruchu na OLEDzie 480Hz bez włączania BFI i rezygnowania z HDR i ogólnej jasności. Input lag przy prawdziwych 120fps też nie powinien być aż tak straszny w grach innych niż strzelanki online itp. Framegen z 30-40fps mnie kompletnie nie interesuje, z 20fps po prostu śmieszy, ale z 90-150fps już jak najbardziej może to mieć sens, o ile obraz będzie akceptowalny, czyli zupełnie inny niż w FG w DLSS3.x czy FSR FG.
-
RTX 5090 i 5080 – premiera 30 stycznia w x-kom!
VRman odpowiedział(a) na x-kom temat w Nowości i promocje w x-kom
-
Żulernia z Allegro, OLX, PCLab i ITH
VRman odpowiedział(a) na adashi temat w Dyskusje na tematy różne
Zapomnij. Nie w okolicach premiery. Chyba, że stanie się cud i AMD zaskoczy. Ale w maju/czerwcu to już być może, chyba, że marketing DLSS4 zrobi swoje i Twoja poleci na wartości. Ogólnie to jak wyjdzie, że DLSS4 Ci się by przydał to zmieniaj, ale jak nie, to pewnie różnica w wydajności będzie za mała, żeby się w ogóle zastanawiać. Wtedy poczekaj do kostek 3GB i na wprowadzenie serii Super, czyli +50% pamięci do każdego modelu. Przynajmniej wtedy z 24GB RAMu będziesz miał bardziej "future proof" -
Przestańcie się kłócić o ten input lag, bo raz, że nie wiadomo jak to wypadnie w praktyce, a dwa, że widzę tutaj niektórzy się kompletnie zaplątali. 7ms to nie jest lag z DLSS4. To tylko różnica względem FG na serii 4xxx. Całościowo jest znacznie więcej, o czym nawet gość w filmiku Digital Foundry mówi - najpierw czekasz jedną klatkę i potem sklejasz z tego klatki pośrednie a dopiero generowanie tych pośrednich trwa odrobinę dłużej jeśli chcesz ich 3 zamiast 1, ale czas generowania klatki jest sporo mniejszy niż czekanie na prawdziwą klatkę i potem wykonywanie wszelkich obliczeń. Przy generowaniu 3 klatek zamiast 1, nie trzeba wykonywać trzykrotnie nawet 100% tych obliczeń co przy generowaniu pierwszej, nawet pomijając już fakt, że najwięcej czasu zjada czekanie na tą prawdziwą klatkę na początku. Poza tym lag będzie inaczej wyglądał przy FG 50-200fps a inaczej 150-600fps. Na razie nic nie wiemy i bez sensu się o to kłócić. Jak z DLSS3 ja pozostanę optymistą aż nie dowiem się po premierze, że jest jednak źle. Z DLSS3 optymizm skończył się u mnie bardzo szybko, ale z DLSS4 jest szansa, że zamiast "tak jak myślałem, nie ma to sensu" powiem "nareszcie jakiś DLSS, który się do czegokolwiek nadaje". Testy CS2 na 9800x3d pokazują 250, to nie wiem gdzie Ty te 400 widziałeś, chyba, że mówimy o czym innym np. 0.1% vs 1% lows. Poza tym zgoda, że w tej grze jest dużo klatek i tak się najlepiej gra. Na pewno lepiej się będzie grało w AVG 400fps ze spadkami do 250 niż AVG 200 ze spadkami do 150, to jasne. Heh Jak ja często widuję takie wypowiedzi. Ktoś widzi kilka komentarzy, generalizuje, potem widzi kilka innych, znowu generalizuje i nagle wielkie zdziwienie "czemu ludzie wczoraj mówili to, a dziś im się odwidziało?!" A to po prostu byli inni ludzie. W internecie jest jednak trochę więcej niż 5 osób, które się o czymś wypowiadają. Ghosting przeszkadza tym którym przeszkadzał i nie przeszkadza tym, którym nie przeszkadzał. Ewentualnie może zacząć przeszkadzać tym, którym nie przeszkadzał. Tu nie ma żadnej magii i przyzwyczajania się. Za to są trendy i coraz więcej głupoty, bo jak widać marketing NV jest całkiem skuteczny jeśli chodzi o te wszystkie "rozmydlacze". Dlatego widzisz coraz więcej wypowiedzi w necie, że DLSS i ghosting nie przeszkadzają i jest super. Jeśli FSR 2 ludzie potrafią oceniać jako "OK" to dla takich DLSS jest cudownie ostry i nie ma piksela ghostingu nigdzie i nigdy No i zapewniam Cię, że żaden z graczy, który ostro krytykował DLSSy czy FG nie zmienił zdania do poziomu "jak można było grać bez tego". Najzwyczajniej na świecie ile graczy, tyle opinii. Z drugiej strony trzeba zauważyć, że od czasów DLSS 1 była spora poprawa z DLSS2 i jest jakaś nadzieja, że teraz zobaczymy podobny przełom z FG, czyli przejście z "to jest bezużyteczny idiotyzm" do "to ma wkurzające wady, ale w pewnych sytuacjach może być przydatne". Możliwe, że FG w 4.0 będzie nieporównywalnie lepszy od FG3.x A jeśli okaże się być do dupy, to jeszcze zdążymy na to ponarzekać w oparciu o konkretne info, a nie jakieś śmieszne filmiki youtuberów jak Linus. PS. A gość z przedpłatą nie wygląda mi na oszusta. edit: nie wiedziałem, że o forumowicza chodzi . Oczywiście nikomu nie radzę wchodzić w takie układy typu najpierw kasa, a potem licz na łaskę sprzedającego, że jednak wyśle. Rzeczy powyżej wartości 100zł to na OLX się kupuje tylko z odbiorem osobistym i sprawdzeniem na miejscu.
-
Pierwszy będę wylewał pomyje na artefakty i inne problemy z FG, ale trzeba być uczciwym i napisać to: Mógł pomylić wady o których mówi z dwoma innymi, nie mającymi nic wspólnego z generowaniem klatek. Dowodził braku swojej wiedzy ignorancji wiele razy. Może jakby tam był Steve z Hardware Unboxed, to jeszcze by miało sens posłuchać co mówi, ale nie Linus. Zresztą nawet jeśli, to i tak jest nadal nadzieja, że ten generator będzie przydatniejszy niż DLSS3.x
-
Ostatnio jak Nvidia nie czuła oddechu konkurencji na karku, to na bezczela graczom walnęła proces Samsunga będący upudrowanym 10nm jak dostępne już było TSMC 7nm. Przyznam, że nie szukałem, a może ktoś widział jakieś sensowne info o różnicach w procesie 3nm vs. 4nm w przypadku układów o charakterystyce gamingowych GPU, a nie tylko ogólnie? Jak różnica jest typu 10% to Nvidia może po prostu kompletnie olać ten proces skoro nikt z AMD lub Intela i tak im nie podskoczy w GPU do gier. Dadzą kostki GDDR7 3GB, jakieś AI które rewolucyjnie potrafi posprzątać ikonki na pulpicie i przewidzieć zużycie kabli w myszce i klawiaturze i starczy.
-
Taka dygresja: 4nm vs. 5nm to różnice mniejsze niż jeszcze kilkanaście lat temu były w obrębie tego samego procesu po jego usprawnieniu. Nawet oficjalnie nie było o takich usprawnieniach mowy. Z których zdaje się (mogę się mylić) tylko jedna się nadaje do gamingowych GPU Zobacz na slajdy TSMC. Ja im się przyglądam od lat z uwagą i widać bardzo jasno, że gamingowe GPU pojawiają się zazwyczaj 2 albo 2.5r. po tym gdzie zaczyna się pasek nowego procesu na slajdzie. Tymczasem ta masowa produkcja dotyczy tylko procesu, który raczej jest optymalizowany pod urządzenia low-power jak chipy do komórek. Niestety po newsach o tym, że Samsung ma potężne problemy z GAA, po tym jak pojawiły się plotki że i u Intela nie idzie to jak mieli nadzieję, pojawiły się niedawno informacje, że Apple rezygnuje z 2nm. Mieli zacząć tego używać na koniec 2025. Jeśli problemy z usyskiem sprawnych chipów z wafla są tak duże w przypadku tak malutkich chipów, to znaczy, że na yield na poziomie akceptowalnym dla kart dla graczy możemy musieć czekać jeszcze wiele lat. Znowu. Slajdy marketingowe. Jak je poanalizujesz kilka lat to znajdziesz sporo schematów. Na przykład taki, że od GDDR5 nigdy nie pojawiła się w kartach do gier pamięć jaką zapowiadano jako najszybszą. Widziałeś GDDR5 10? A miała być. A GDDR6 24? Przecież to było sporo przed premierą serii 4xxx a jednak nic nie wyszło poza chyba 22,2 a na początek nawet zaledwie 20. Teraz też były dostępne 32 i ile dostaliśmy w 5090? 28. 36 to max, teoretyczna maksymalna wydajność jeśli ktoś chce do zastosowań, gdzie żyłowanie napięcia ma sens. Na kartach 512bit nie ma sensu najwyraźniej, a i 4090tka z 384 sugeruje, że trzeba te 15-20% odjąć. Mamy też zapowiedzi 40tek, ale tak samo jak z GDDR6 24 i GDDR6x 28, nigdy ich na karcie do gier nie zobaczysz. Chyba, że na kartach 64bit jak Nvidia wyskoczy z pomysłem aby kartom za 350$ czyli rtx6060, dać taką szynę i po dwie kostki 3GB lub 4GB To już ma mniejsze znaczenie. Bardziej nam rynek psuje teraz szał na AI i ograniczone ilości waflów u TSMC jakie Nvidia alokuje. Używać nowego procesu do kart dla graczy? "A komu to potrzebne? A dlaczego?" Ja napiszę pesymistyczny scenariusz, dla równowagi: początek 2026: 2nm TSMC zaczyna być przydatne do smartfonów. Problemy z uzyskiem sprawiają, że dopiero na koniec 2027 proces zaczyna mieć sens dla GPU poniżej 5000$ Mijają kolejne 2 lata zanim ten bardzo drogi proces lub inny jego wariant, nadający się lepiej do GPU tego typu (wysoki zegar i pobór prądu) okrzepnie na tyle, że Nvidia lub AMD całkiem już skupione na AI, łaskawie nam zaoferują w końcu karty zrobione w tym procesie. Konkurencja w postaci Samsunga i Intela do tego czasu spada na margines lub plajtuje. Na koniec 2029 dostajemy w końcu prawdziwą nową generację po ADA 4xxx. Ale Nvidia używa układów max 200mm2 i seria 7080 czy 9080 dostaje szynę 128bit i wypada w rasterze gorzej nawet od PS6 mimo 10x wyższej ceny. Na kanale Digital Foundry tłumaczą, że to nic nie szkodzi, bo AI, AI i AI. Kaczyński zostaje prezydentem w 2030r.. Dobra, może aż tak źle to nie.
-
Nie no, trochę nietrafny opis. To po prostu timewarp obrotów kamery. Niestety już pojawiają się głosy (osobiście nie zamierzam oceniać inaczej niż na żywo) że wcale to takie cudowne nie jest To jest stara technologia w VR, gdzie jest oczywistością od chyba niemal dekady Przewagi to akurat raczej nikomu nie da. W grach typu CS2 czy Valorant i tak leci się w 400-500fps z 0,1% lows powyżej 200fps. Właśnie prędzej poprawi to zabawę zwykłym graczom, którzy na 10 godzin grania trafią przeciwnika raz czy dwa razy więcej. Prosi potrafią przewidywać w ułamku sekundy do tego stopnia, że gościu w 60Hz miał wyniki jak w 240Hz inni prosi. Po prostu się przyzwyczaił i brał poprawkę. Owszem, to było w śmiesznym filmiku na kanale Linustechtips, ale porównać wyniki kilku graczy pro, to chyba nawet oni tam potrafią
-
https://www.roadtovr.com/scientists-mini-vr-headset-mice-study/ A niektórzy narzekają, że headsety np. Pimaxa są za duże
-
Poczekajmy aż będzie wiadomo jak w ogóle sobie ten framegen poradzi. Jeśli tak samo tragicznie jak DLSS3.5 to nie ma sensu nawet tego włączać, ale jeśli różnica w artefaktach, ghostingu itp. będzie naprawdę ogromna, to choć nie poprawi to niczego w responsywności (a nawet ją pogorszy) to jednak już takie 120 fps interpolowane do 400-500fps, na OLEDach 480 zaoferuje naprawdę dobrze widoczne korzyści w jakości obrazu w ruchu. Nawet na OLEDach 240Hz może dać jakąś różnicę, choć nie tak wielką jak na 480Hz.
-
Trochę dziwię się niektórym, że pytają o upgrade 4080 do 5080. Jest sporo sygnałów, że wydajność w rasterze będzie tylko symbolicznie wyższa. Tymczasem łysy z Braz.. znaczy z DF mówi coś ciekawego: wydajność nie będzie już poprawiana, za to będzie ulepszana poprzez AI. Czyżby on wiedział coś więcej dzięki swoim dobrym kontaktom z Nvidia? Cały filmik jaki dodali, wygląda jak marketing na poziomie prezentacja garnków albo Telezakupów Mango. Ludzi głębiej wchodzących raczej Nvidia na świecie nie znalazła, więc może gość coś wie.
