Skocz do zawartości

VRman

Użytkownik
  • Postów

    4 390
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    4

Treść opublikowana przez VRman

  1. Czy jest sens przeliczać sytuację cenową z 5080 i ofertą Gigabyte'a biorąc procent od ceny FE i przeliczając ten procent do 5070Ti? Te dorzucanie chorych różnic względem ceny FE zdarzało się wcześniej w tej półce cenowej czy tylko 5080 wzwyż? Podobnie zastanawiam się jak to by było z 5070. Jeśli liczyć ten początek cen poza najtańszą wersją jako te miejsce, gdzie będzie kilka modeli nie popsutych zbytnimi cięciami kosztów, to wychodziłoby 4700zł za 5070Ti, a osobiście liczyłem bardziej na <4000 Przez 2.5r. jest +33% i chyba w RT już rewelacyjnych skoków to się raczej nie ma co spodziewać. A przecież 4090 w tej grze spada sobie wesoło do 14fps w innym miejscu niż na filmiku NV. Zmień te 5 na 20 lat, bo inaczej żart nie działa
  2. 4080 Super były przed podwyżką wywołaną ograniczeniem dostępności za 4650zł za model Windforce i ok 5100zł za jako-taki model, więc skoro 5080 jest w tej samej cenie MSRP to też kosztuje 7000zł, logiczne. 1000$ x 4.15 +VAT = 5100, więc cena na poziomie 2000zł za troszkę więcej blachy, plastiku i kilka elementów elektronicznych jest jak najbardziej uzasadniona. Albo tu Nvidia wygenerowała fejkowe ceny FE, albo producenci kart wygenerowali sobie jeszcze dodatkowe marże. Porównywanie tego do cen 4080 (nie super) na premierę, gdy wszyscy w analogicznym wątku zgodzili się, że to nie jest normalna cena, a nagonka ludzi na 4090, jest trochę nie teges. Szczególnie w przypadku gdy MSRP było o 200$ wyższe i wszyscy zgodnie twierdzili, że Nvidia pojechała po bandzie z tą ceną. Bliżej też wtedy jej było do 4090tek a do tego 4080tka spokojnie rozprawiała się z 3090Ti, a teraz dostaniemy 5-25% więcej mocy w rasterze i góra 50% w RT w przypadku cudu, co i tak nie wystarczy nawet tam dogonić 4090tki. Do tego ceny 4080 Super mają już rok. Normalnie jest gdy z czasem za tyle samo $ dostajemy więcej wydajności. To policzmy. 4650zł za Windforce 4080Super+ oznacza, że żeby się nie cofnąć w rozwoju, 5080 musi przynajmniej we wszystkich testach i ustawieniach być o 13% szybsza od 4080. Zakładając, że 5080 Windforce nie jest bardziej nieudany od 4080S Windforce. Z optymistycznych scenariuszy, że będzie ok 27% szybciej, zostaje już naprawdę niewielkie pole manewru i zdecydowanie za mało, żeby serię 5xxx nazwać czymś innym niż "4xxx Refresh" z punktu widzenia wzrostu wydajności w rasterze. A jak słusznie zauważyli bracia z Hardware Unboxed, po tak tragicznej serii w sensie postępu perf/$, gracze mieli prawo oczekiwać znacznej poprawy. A tu po 2.5 latach (rok po 4080S) wchodzi nowa generacja z +5% i do widzenia Nie ma konkurencji. Są fake klatki. Jak się nie podoba to mogą iść do McDonalda (TEY)
  3. Ja myślę, że to się zmienia z GPU na GPU i zależy od tego jak sobie Nvidia to skonfigurowała. Tak naprawdę nie wiemy nic na temat zależności pomiędzy wydajnością a przepustowością pamięci. Testy 5xxx to będzie fajna okazja, żeby się dowiedzieć interesujących rzeczy.
  4. Nie jest to możliwe z jednego bardzo prostego powodu. Zjazd cen używanej 4080 z pewnego źródła do tego poziomu (3000 lub mniej) nie może wystąpić w tym uniwersum. Gdyby to się stało, wystąpiłaby sytuacja bardzo korzystna dla mnie i dla graczy, a tak nie wolno. Za 2800 będą kupiaste 5070 może nawet wolniejsze od 4070Super z żałosnymi jak na tą cenę 12-toma Gigabajtami pamięci. Poza tym chyba 5070ti wychodzi później, więc tak szybko nie powinna sprawić zjazdu cen. Jak masz jeszcze gwarancję i jesteś starym forumowiczem, to moim zdaniem aż tak mocno na wartości nie straci. Dzięki za info i przepraszam za błąd. Ciężko wywróżyć co w 4070 wisi na przepustowości pamięci, bo tutaj będzie postęp, ale specyfikacja 5070 wypada biednie na tle 4070Super, więc poza RT i AI może być słabo. Moim zdaniem to będzie max 0,1%. Z kartami na slot 8x to już ciężko powiedzieć, bo patrzenie na same numerki przy specyfikacjach PCI-E może prowadzić na manowce. Teoretycznie 8x 5.0 to 16x 4.0 ale w praktyce może być problem. Jednak tym to się będą martwić posiadacze 5060 lub 5050, a chyba 5070 ma nadal 16x więc zapomnij o problemie. Ja się zastanawiałem czy wybrać mobo za 520zł pod AM5 czy za 900 z PCI-E 5.0 i uznałem, że zanim pojawi się różnica to dawno będzie już AM6 z PCI-E 7.0 więc kupowanie na zapas jest kompletnie bez sensu.
  5. 5070ti może w rasterze wypaść gorzej od 4080. Jak to Ci nie przeskadza to spoko, ale ja bym nie sprzedawał. Za 3600 sprzedaż, a FE 5070ti za 3800. Do tego niech na początku nie będzie nic sensownego poza FE i np. pierwszy sensowny za 4500, a przy okazji 4080/4080s wywiało ze sklepów do czasu premiery. Zakładająć nadal najgorszy scenariusz, najtańszy sensowny 5080 od 5700. Tyle dopłaty za kilka procent lepszą wydajność w RT i lepszy generator klatek... Serio, ja bym się na Twoim miejscu wstrzymał. W najgorszym razie zamiast za 3600 sprzedaż za 400zł mniej, ale nie będziesz ryzykował utraty nerwów.
  6. Nie wiadomo czy Nvidia w ogóle da graczom GPU w 3nm. Po drugie nie wystarczy spojrzeć na slajd TSMC, żeby zgadnąć ile lepiej wypadnie w przypadku GPU biorącego 250-500W podczas grania. Możliwe, że bardzo niewiele. Dopiero 2GAA z nowymi technologiami i pierwszym od dawna postępem skalowaniu komórek SRAM ma szansę dać graczom +20-50% względem 4090 nie uwzględniając zmian w architekturze, ale te są moim zdaniem od lat przereklamowane, bo jak nałożyć linię wydajności procesu na generacje kart, to się niemal w 100% pokrywają. Co do VR
  7. No 10ms to raczej nie bardzo. O ile zrozumiałem co pokazywało DF, to chyba tam było 50ms laga idącego z DLSS ze starym FG, a dodatkowe klatki kosztowały kolejne 7ms dając razem 57 Przy 60fps jedna klatka trwa 16.6ms. Buforowanie tej klatki oznacza, że choćby GPU wykorzystywało zaginanie czasoprzestrzeni i wykonało wszystko w 0s, przy źródłe w 60fps nie ma opcji żeby to dodało mniej niż te 16.6ms. Oczywiście Nvidia sobie pooszukuje przy okazji, ukrywając to za albo ustawieniem Reflexa, albo Reflexa 2, albo korzystając z tego, że bez FG gra idzie w np. natywnej, a z FG jest DLSS performance czyli rendering z 4x mniejszą rozdziałką, co oczywiście podbija framerate i niweluje laga. W ten sposób "porównując" to może komuś wyjść 10ms. Sam uznałem DLSS 3.x za zbyt słaby aby się tym interesować i ile trwa generowanie 1 klatki dokładnie to nie wiem. Jak ktoś ma tabelkę z sensownym info, np. średnia z kilku gier, info ile twa generowanie klatki 1080p a ile 4K itp. to proszę o linka lub wrzutkę. Jeśli generowanie klatki (po odjęciu buforowania) trwa prawie nic, to przy źródle 120fps faktycznie dodawany lag nie powinien być dokuczliwy, ale wszystko zależy od tego kto gra i w co gra. Ja potrafiłem zamknąć v-sync w strzelance online na 120fps i czuć było że sterowanie trochę pływa w porównaniu do grania bez v-sync (z ok 150-250fps) ale że nie gram dla wyników a bardziej dla zabawy, pośmiania się z kolegami, to mi nie przeszkadzało. Potrafię jednak zrozumieć, że są ludzie którzy nawet z takim lagiem grać nie zamierzają, a FG będzie miał taki lub większy. Edit: Jako ciekawostka: profesjonalni graficy potrafią wyczuć czy tablet do rysowania ma 3ms czy 0ms opóźnienia. Przy 10ms wyczuć to potrafi ponoć każdy. Gry na PC potrafią zejść z całkowitym czasem "ruch -> obraz na ekranie" poniżej 25ms. Mowa o zadziałaniu myszki, przesłaniu sygnału, przepchaniu go przez sprzęt i windowsa, wykonanie wszystkiego na CPU i GPU czego wymaga wyrenderowanie klatki, puszczenie tego na monitor i dokończenie wyświetlania klatki. To wszystko na dobrze ustawionym PC w grze z tych najlepszych w tej kategorii potrafiło zejść do 3xms już dekadę czy dwie temu. Widziałem nawet liczby typu 18ms, ale nie wiem jak z wiarygodnością.
  8. Zabieram się do zamówienia pierdół do Questa 2/3 z aliexpressu. Jak wygląda teraz sprawa ceł itp? Lepiej wziąć kilka pierdół za 15€ czy jak się kupi za 100€ to się nic nie stanie? Nie chcę czekania bo coś clą, ani przykrych niespodzianek typu "kupiłeś za 100€, dowaliliśmy drugie 100€ cła i opłat" Coś ktoś wie? Na razie mam na liście tak: - kabel 6m USB Kiwi, za 35€ - analogi do kontrolera, naprawiane oryginalne, po 3-4€ - torba do questa za 10€ - szmatka na soczewki chroniąca przed kurzem i słońcem 1€ - uchwyt do paletek ping-ponga, dwa za 7€ - gripy do kontrolerów Kiwi, żeby się dało puścić kontroller i żeby się po spoceniu nie przesuwały w dłoni bo to cholernie wkurza w strzelankach, gdzie nie idzie się przez to korzystać z tzw. "pamięci mięśniowej" (muscle memory) 20€ - szmatka na twarz pod headset, dla znajomych co się mocno pocą. po 1€ są, mam nadzieję, że chińska tablica mendelejewa nie wchłania się do skóry podczas używania. najwyżej będę to proponował osobom, których nie lubię Jak ktoś chce spapugować to numery przedmiotów do wstukania w szukajkę na Ali: 1005005653436281 1005005205311116 1005006622921551 1005007514327573 1005002900096749 1005006850877758 Zostaje wybrać kij do golfa i minigolfa, ale to będzie najtrudniej, bo nie wiem który z tanich jest wart zakupu, a jeszcze by się przydało kupić tak, żeby i do Q2 i w przyszłości do Q3 podpasował. Skusiłbym się też na gunstocka, żeby się fajniej w strzelanki grało, ale najtańszy wyglądający sensownie jest po 55€ to chyba na razie sobie odpuszczę, może kiedyś jakieś promo zrobią. Liczyłem że może teraz już na Q2 będą, bo Q2 zaczyna przechodzić do historii, ale nie. Polecicie może jakieś inne akcesoria warte zakupu? PS. Synthriders jest na promo w Meta store i na Steam. Nawet jeśli 99% tej gry to coś robione dla Grażyn, żeby sobie poskakały i robiły "fitness" to pozostałe 1% i tak jest warte wydania kilku Euro. Polecam DLC ElectroSwing i oczywiście Synthwave.
  9. oś czasu "Fajnie, że tak tanio" "To powinno się nazywać Refresh "Boże, czy Ty to widzisz..." CES2025>---------[]-------------------------------------[]------------------[]--------------------------------------->PREMIERA >---[] jesteśmy tutaj
  10. Sprzętowy frame pacing? Co to niby jest sprzętowy frame pacing? Co znowu marketingowcy Nvidii nawymyślali? Poniżej jest trochę nie na temat. Kilka myśli o przyszłości GPU w kwestii rasteryzacji.
  11. 128ROP, 336TMU w 5080 176ROP, 512TMU w 4090. 72MB cache vs 64MB To jest w zasadie wszystko co się liczy dla rasteryzacji i we wszystkim tym 5080 wypada blado na tle 4090. Jest architektura będąca w rasterze pewnie bez istotnych zmian + podobna efektywna przepustowość pamięci. Proces technologiczny tej samej generacji, a w przypadku 4090 był przeskok z kupiastego 8nm, który był pudrowanym 10nm i to w gorszej, Samsungowej wersji, od razu na wtedy najnowocześniejszy proces TSMC. To jest skok o w zasadzie niemal dwie generacje na raz vs. skok o pół generacji teraz. TDP 5080 też jest niżej 4090. Musiałby być cud, żeby 5080 się znalazła w połowie pomiędzy 4080s a 4090, o przegonieniu nie mówiąc.
  12. Mam dwa pytania. Całego laba tu skopiowaliście? (fajnie, jeśli tak i brawo) Drugie do autora wątka. I jak się dalej potoczyło? Jak ten nowy OLED?
  13. Dużo lepsze to i tak może być mniej niż choćby 4xxx. Szczególnie z full RT/Path Tracing Ktoś się może orientuje lepiej w tych kwestiach PT na AMD? Są choćby jakieś demka gdzie PT działa na Radeonach? Jak wygląda sprawa gier? Czy wypuszczenia Radków tak samo dobrych w PT jak RTXy od razu by naprawiło sytuację czy wszystkie gry z PT są zespawane z zamkniętymi dla Nvidii funkcjami i nadal choćby przez to będzie brak supportu albo katastrofalna wydajność? Radka nie planuję, ale fajnie jakby marketingowo 9xxx sobie radziły znacznie lepiej, jeśliby naprawili i koślawe FSR 3 (4 ma szansę być na pozioimie DLSS2 lub wyżej) i RT jednocześnie. Konkurencyjność by mocno wzrosła i wsystkim by to wyszło na dobre. Widziałem dziś w filmiku Hardware Unboxed testy, z których wynika, że AMD nadal nie bardzo ogarnia sterowniki pod gry z DX10/11. Poddali się czy ktoś coś wie o zapowiedziach, że jeszcze będą walczyć? Intel najwyraźniej kompletnie olał DX11, więc pewnie AMD też już położyło łaskę.
  14. W VR wcale nie tak rzadko 4090 wyprzedza 4080 o ok 50%, czasem 30, ale czasem i ponad 55%. Nawet w grach 2D potrafi dobijać do 50%. Zakładając, że 5080 będzie szybsza o np. 15%, to będziemy mieli np. 100fps 4080, 115fps 5080 i 150fps 4090. Chcę się mylić, w końcu ten RAM GDDR7 powinien sporo dać, ale.. no niestety, wszystkie sygnały na niebie i ziemi sugerują, że w rasterze jest w serii 5xxx. A, Indiana Jones ma raytracing pociachany (po tonie wypowiedzi developerów w wywiadzie na DF widać, że nie chcą dać opcji włączenia go wszędzie bo nie chcą wkurzać ludzi tym jak mało klatek by wtedy uzyskiwali w grze nawet na 4090), a i tak karty 16GB zaczynają ocierać się o krawędź. Jednak 24GB na 4090tce to istotny plus. No chyba, że ktoś kupuje karty za 6K do pogrania rok i potem zmienia. Jak ktoś ma 4090 to moim zdaniem nierozsądne jest sprzedawać teraz. Jak ktoś nie ma, a by chciał, to lepiej niech poczeka aż wszystko już będzie wiadomo o prawdziwej wydajności 5xxx.
  15. Możliwe, ale możliwe jest też (nie wnikam o ile mniej możliwe) że 5090 będą jak 9800x3d, pojawi się trochę, zaraz wywieje, ceny skoczą i z np., 11500zł za pierwszy sensowny model poza FE, które padną ofiarą właścicieli botów, zrobi się 12-13tys. 4090 wycofywane z produkcji od dawna, więc coraz trudniej dostępne. Zniechęceni wynikam i problemami z dostępnością ludzie wykupują co lepsze oferty na allegro i nagle najtańsza używana od sensownego sprzedającego, to 8000zł. To są układy, o których Nvidia wiedziała, że będą niewiele szybsze od 4090 i układy duże, których sprawne wersje idą pewnie do AI. To sugeruje, że będzie tych GPU tyle co kot napłakał, jeśli Nvidia od razu planowała zrobić z tego "halo product" dla PRu. Z drugiej strony rozczarowanie może być tak duże, że nikt tego nie będzie chciał i będzie aż nadto w sklepach.
  16. Ja też bym wolał prawdziwe, ale mamy co mamy. Oczywiście, że bez AI się by dało poprawić wydajność, ale Nvidia po prostu nie widzi potrzeby, żeby robić GPU do gier. Skoro i tak już inwestują tyle w AI, to wystarczy powiedzieć działowi marketingu, że mają tak to przedstawić, że niby to super sprawa dla graczy i pora na CSa. Jasne, że rozwój jest wolniejszy i droższy, ale jak coś kosztuje 50$ + 200$ marży, to wzrost ceny z 50 na 100$ nie musi oznaczać zmiany ceny z 250 na 500$ za GPU. To tylko przykład, oczywiście, nie mówię, że Nvidia ma 400% na każdym GPU. Jednak jeśli za taki sam chip mogą zarobić więcej dając chip klientom kupującym dla AI, to Nvidia po prostu nie widzi powodu, żeby się wysilać. Intel kuleje w DX 9/10/11 i ich dział discreet GPU ledwo zipie, AMD już nawet nie udaje, że walczy, to po co się wysilać. Apropo. Ktoś liczył ile segment AI zjada powierzchni takiego 4070 czy 4090? W 5xxx pewnie jeszcze więcej. A tu jest coś o GDDR7 i tam jest mowa o obniżonym czasie dostępu (latency). To mi brzmi zbyt pięknie, żeby było prawdziwe. Pamięci projektowane pod maksymalną przepustowość nigdy nie miewają poprawy w latency a tu nagle mają mieć? Bardzo ciekawe. Oby się potwierdziło.
  17. Jasne, ale chodzi o to, że jeśli jednak ten FG będzie działał świetnie przy wyższych ilościach klatek, to będzie w grze w 120fps możliwa różnica między prawdziwymi klatkami rozmytymi w ruchu, a wygenerowanymi i ułomnymi klatkami, ale za to bez rozmycia w ruchu. I tutaj nawet z kilkoma artefaktami może być sumarycznie znacznie lepiej, a input lag w grach typu Wieśmin czy RDR2 nie będzie aż tak wielkim problemem jak startujemy ze 120fps (prawdziwych) przed FG.
  18. Po to: https://blurbusters.com/massive-upgrade-with-120-vs-480-hz-oled-much-more-visible-than-60-vs-120-hz-even-for-office/
  19. Hmm. Nie oglądałem tego nawet dokładnie, bo jednak test na żywo to zupełnie inna sprawa, ale właśnie mi zestrzeliłeś prawie cały entuzjazm Zostaje nadzieja, że przy sygnale 120fps zamiast 20-30fps, będzie zupełnie inaczej, choć podobne nadzieje miałem z FG w DLSS3 i się potem rozczarowałem.
  20. Jakoś DDR5 potrafią mieć w sklepach opis z MT/s zamiast MHz. Musiałbym być idiotą chcąc zabłysnąć wiedzą, którą posiada tutaj każdy user. Zwyczajnie razi w oczy tego typu pomyłka, bo to trochę na poziomie MediaMarktów sprzedających 20 lat temu Pentiumy 6GHz (bo dual-core 3GHz) Mogę się trochę zgodzić, że to czepialstwo.
  21. Zmiana upscallingu zwykłego będzie niezbyt istotna, przynajmniej dla mnie (bo nie lubię DLSS) ale to właśnie ten Frame Gen może się okazać bardzo przydatny posiadaczom OLEDów 240, a szczególnie 360 i 480/500Hz. FG w DLSS4 ma realne szanse to zmienić. W grach gdzie i tak powyżej 120fps nie wyciśniesz przez CPU, zrobinie z tego 480fps nawet z artefaktem widocznym tu i tam, da ogromną poprawę jakości obrazu w ruchu na OLEDzie 480Hz bez włączania BFI i rezygnowania z HDR i ogólnej jasności. Input lag przy prawdziwych 120fps też nie powinien być aż tak straszny w grach innych niż strzelanki online itp. Framegen z 30-40fps mnie kompletnie nie interesuje, z 20fps po prostu śmieszy, ale z 90-150fps już jak najbardziej może to mieć sens, o ile obraz będzie akceptowalny, czyli zupełnie inny niż w FG w DLSS3.x czy FSR FG.
  22. Zapomnij. Nie w okolicach premiery. Chyba, że stanie się cud i AMD zaskoczy. Ale w maju/czerwcu to już być może, chyba, że marketing DLSS4 zrobi swoje i Twoja poleci na wartości. Ogólnie to jak wyjdzie, że DLSS4 Ci się by przydał to zmieniaj, ale jak nie, to pewnie różnica w wydajności będzie za mała, żeby się w ogóle zastanawiać. Wtedy poczekaj do kostek 3GB i na wprowadzenie serii Super, czyli +50% pamięci do każdego modelu. Przynajmniej wtedy z 24GB RAMu będziesz miał bardziej "future proof"
  23. Przestańcie się kłócić o ten input lag, bo raz, że nie wiadomo jak to wypadnie w praktyce, a dwa, że widzę tutaj niektórzy się kompletnie zaplątali. 7ms to nie jest lag z DLSS4. To tylko różnica względem FG na serii 4xxx. Całościowo jest znacznie więcej, o czym nawet gość w filmiku Digital Foundry mówi - najpierw czekasz jedną klatkę i potem sklejasz z tego klatki pośrednie a dopiero generowanie tych pośrednich trwa odrobinę dłużej jeśli chcesz ich 3 zamiast 1, ale czas generowania klatki jest sporo mniejszy niż czekanie na prawdziwą klatkę i potem wykonywanie wszelkich obliczeń. Przy generowaniu 3 klatek zamiast 1, nie trzeba wykonywać trzykrotnie nawet 100% tych obliczeń co przy generowaniu pierwszej, nawet pomijając już fakt, że najwięcej czasu zjada czekanie na tą prawdziwą klatkę na początku. Poza tym lag będzie inaczej wyglądał przy FG 50-200fps a inaczej 150-600fps. Na razie nic nie wiemy i bez sensu się o to kłócić. Jak z DLSS3 ja pozostanę optymistą aż nie dowiem się po premierze, że jest jednak źle. Z DLSS3 optymizm skończył się u mnie bardzo szybko, ale z DLSS4 jest szansa, że zamiast "tak jak myślałem, nie ma to sensu" powiem "nareszcie jakiś DLSS, który się do czegokolwiek nadaje". Testy CS2 na 9800x3d pokazują 250, to nie wiem gdzie Ty te 400 widziałeś, chyba, że mówimy o czym innym np. 0.1% vs 1% lows. Poza tym zgoda, że w tej grze jest dużo klatek i tak się najlepiej gra. Na pewno lepiej się będzie grało w AVG 400fps ze spadkami do 250 niż AVG 200 ze spadkami do 150, to jasne. Heh Jak ja często widuję takie wypowiedzi. Ktoś widzi kilka komentarzy, generalizuje, potem widzi kilka innych, znowu generalizuje i nagle wielkie zdziwienie "czemu ludzie wczoraj mówili to, a dziś im się odwidziało?!" A to po prostu byli inni ludzie. W internecie jest jednak trochę więcej niż 5 osób, które się o czymś wypowiadają. Ghosting przeszkadza tym którym przeszkadzał i nie przeszkadza tym, którym nie przeszkadzał. Ewentualnie może zacząć przeszkadzać tym, którym nie przeszkadzał. Tu nie ma żadnej magii i przyzwyczajania się. Za to są trendy i coraz więcej głupoty, bo jak widać marketing NV jest całkiem skuteczny jeśli chodzi o te wszystkie "rozmydlacze". Dlatego widzisz coraz więcej wypowiedzi w necie, że DLSS i ghosting nie przeszkadzają i jest super. Jeśli FSR 2 ludzie potrafią oceniać jako "OK" to dla takich DLSS jest cudownie ostry i nie ma piksela ghostingu nigdzie i nigdy No i zapewniam Cię, że żaden z graczy, który ostro krytykował DLSSy czy FG nie zmienił zdania do poziomu "jak można było grać bez tego". Najzwyczajniej na świecie ile graczy, tyle opinii. Z drugiej strony trzeba zauważyć, że od czasów DLSS 1 była spora poprawa z DLSS2 i jest jakaś nadzieja, że teraz zobaczymy podobny przełom z FG, czyli przejście z "to jest bezużyteczny idiotyzm" do "to ma wkurzające wady, ale w pewnych sytuacjach może być przydatne". Możliwe, że FG w 4.0 będzie nieporównywalnie lepszy od FG3.x A jeśli okaże się być do dupy, to jeszcze zdążymy na to ponarzekać w oparciu o konkretne info, a nie jakieś śmieszne filmiki youtuberów jak Linus. PS. A gość z przedpłatą nie wygląda mi na oszusta. edit: nie wiedziałem, że o forumowicza chodzi . Oczywiście nikomu nie radzę wchodzić w takie układy typu najpierw kasa, a potem licz na łaskę sprzedającego, że jednak wyśle. Rzeczy powyżej wartości 100zł to na OLX się kupuje tylko z odbiorem osobistym i sprawdzeniem na miejscu.
  24. Pierwszy będę wylewał pomyje na artefakty i inne problemy z FG, ale trzeba być uczciwym i napisać to: Mógł pomylić wady o których mówi z dwoma innymi, nie mającymi nic wspólnego z generowaniem klatek. Dowodził braku swojej wiedzy ignorancji wiele razy. Może jakby tam był Steve z Hardware Unboxed, to jeszcze by miało sens posłuchać co mówi, ale nie Linus. Zresztą nawet jeśli, to i tak jest nadal nadzieja, że ten generator będzie przydatniejszy niż DLSS3.x
×
×
  • Dodaj nową pozycję...