Skocz do zawartości

VRman

Użytkownik
  • Postów

    4 825
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    4

Treść opublikowana przez VRman

  1. Możliwe, ale możliwe jest też (nie wnikam o ile mniej możliwe) że 5090 będą jak 9800x3d, pojawi się trochę, zaraz wywieje, ceny skoczą i z np., 11500zł za pierwszy sensowny model poza FE, które padną ofiarą właścicieli botów, zrobi się 12-13tys. 4090 wycofywane z produkcji od dawna, więc coraz trudniej dostępne. Zniechęceni wynikam i problemami z dostępnością ludzie wykupują co lepsze oferty na allegro i nagle najtańsza używana od sensownego sprzedającego, to 8000zł. To są układy, o których Nvidia wiedziała, że będą niewiele szybsze od 4090 i układy duże, których sprawne wersje idą pewnie do AI. To sugeruje, że będzie tych GPU tyle co kot napłakał, jeśli Nvidia od razu planowała zrobić z tego "halo product" dla PRu. Z drugiej strony rozczarowanie może być tak duże, że nikt tego nie będzie chciał i będzie aż nadto w sklepach.
  2. Ja też bym wolał prawdziwe, ale mamy co mamy. Oczywiście, że bez AI się by dało poprawić wydajność, ale Nvidia po prostu nie widzi potrzeby, żeby robić GPU do gier. Skoro i tak już inwestują tyle w AI, to wystarczy powiedzieć działowi marketingu, że mają tak to przedstawić, że niby to super sprawa dla graczy i pora na CSa. Jasne, że rozwój jest wolniejszy i droższy, ale jak coś kosztuje 50$ + 200$ marży, to wzrost ceny z 50 na 100$ nie musi oznaczać zmiany ceny z 250 na 500$ za GPU. To tylko przykład, oczywiście, nie mówię, że Nvidia ma 400% na każdym GPU. Jednak jeśli za taki sam chip mogą zarobić więcej dając chip klientom kupującym dla AI, to Nvidia po prostu nie widzi powodu, żeby się wysilać. Intel kuleje w DX 9/10/11 i ich dział discreet GPU ledwo zipie, AMD już nawet nie udaje, że walczy, to po co się wysilać. Apropo. Ktoś liczył ile segment AI zjada powierzchni takiego 4070 czy 4090? W 5xxx pewnie jeszcze więcej. A tu jest coś o GDDR7 i tam jest mowa o obniżonym czasie dostępu (latency). To mi brzmi zbyt pięknie, żeby było prawdziwe. Pamięci projektowane pod maksymalną przepustowość nigdy nie miewają poprawy w latency a tu nagle mają mieć? Bardzo ciekawe. Oby się potwierdziło.
  3. Jasne, ale chodzi o to, że jeśli jednak ten FG będzie działał świetnie przy wyższych ilościach klatek, to będzie w grze w 120fps możliwa różnica między prawdziwymi klatkami rozmytymi w ruchu, a wygenerowanymi i ułomnymi klatkami, ale za to bez rozmycia w ruchu. I tutaj nawet z kilkoma artefaktami może być sumarycznie znacznie lepiej, a input lag w grach typu Wieśmin czy RDR2 nie będzie aż tak wielkim problemem jak startujemy ze 120fps (prawdziwych) przed FG.
  4. Po to: https://blurbusters.com/massive-upgrade-with-120-vs-480-hz-oled-much-more-visible-than-60-vs-120-hz-even-for-office/
  5. Hmm. Nie oglądałem tego nawet dokładnie, bo jednak test na żywo to zupełnie inna sprawa, ale właśnie mi zestrzeliłeś prawie cały entuzjazm Zostaje nadzieja, że przy sygnale 120fps zamiast 20-30fps, będzie zupełnie inaczej, choć podobne nadzieje miałem z FG w DLSS3 i się potem rozczarowałem.
  6. Jakoś DDR5 potrafią mieć w sklepach opis z MT/s zamiast MHz. Musiałbym być idiotą chcąc zabłysnąć wiedzą, którą posiada tutaj każdy user. Zwyczajnie razi w oczy tego typu pomyłka, bo to trochę na poziomie MediaMarktów sprzedających 20 lat temu Pentiumy 6GHz (bo dual-core 3GHz) Mogę się trochę zgodzić, że to czepialstwo.
  7. Zmiana upscallingu zwykłego będzie niezbyt istotna, przynajmniej dla mnie (bo nie lubię DLSS) ale to właśnie ten Frame Gen może się okazać bardzo przydatny posiadaczom OLEDów 240, a szczególnie 360 i 480/500Hz. FG w DLSS4 ma realne szanse to zmienić. W grach gdzie i tak powyżej 120fps nie wyciśniesz przez CPU, zrobinie z tego 480fps nawet z artefaktem widocznym tu i tam, da ogromną poprawę jakości obrazu w ruchu na OLEDzie 480Hz bez włączania BFI i rezygnowania z HDR i ogólnej jasności. Input lag przy prawdziwych 120fps też nie powinien być aż tak straszny w grach innych niż strzelanki online itp. Framegen z 30-40fps mnie kompletnie nie interesuje, z 20fps po prostu śmieszy, ale z 90-150fps już jak najbardziej może to mieć sens, o ile obraz będzie akceptowalny, czyli zupełnie inny niż w FG w DLSS3.x czy FSR FG.
  8. No MHz to tak nie bardzo
  9. Zapomnij. Nie w okolicach premiery. Chyba, że stanie się cud i AMD zaskoczy. Ale w maju/czerwcu to już być może, chyba, że marketing DLSS4 zrobi swoje i Twoja poleci na wartości. Ogólnie to jak wyjdzie, że DLSS4 Ci się by przydał to zmieniaj, ale jak nie, to pewnie różnica w wydajności będzie za mała, żeby się w ogóle zastanawiać. Wtedy poczekaj do kostek 3GB i na wprowadzenie serii Super, czyli +50% pamięci do każdego modelu. Przynajmniej wtedy z 24GB RAMu będziesz miał bardziej "future proof"
  10. Przestańcie się kłócić o ten input lag, bo raz, że nie wiadomo jak to wypadnie w praktyce, a dwa, że widzę tutaj niektórzy się kompletnie zaplątali. 7ms to nie jest lag z DLSS4. To tylko różnica względem FG na serii 4xxx. Całościowo jest znacznie więcej, o czym nawet gość w filmiku Digital Foundry mówi - najpierw czekasz jedną klatkę i potem sklejasz z tego klatki pośrednie a dopiero generowanie tych pośrednich trwa odrobinę dłużej jeśli chcesz ich 3 zamiast 1, ale czas generowania klatki jest sporo mniejszy niż czekanie na prawdziwą klatkę i potem wykonywanie wszelkich obliczeń. Przy generowaniu 3 klatek zamiast 1, nie trzeba wykonywać trzykrotnie nawet 100% tych obliczeń co przy generowaniu pierwszej, nawet pomijając już fakt, że najwięcej czasu zjada czekanie na tą prawdziwą klatkę na początku. Poza tym lag będzie inaczej wyglądał przy FG 50-200fps a inaczej 150-600fps. Na razie nic nie wiemy i bez sensu się o to kłócić. Jak z DLSS3 ja pozostanę optymistą aż nie dowiem się po premierze, że jest jednak źle. Z DLSS3 optymizm skończył się u mnie bardzo szybko, ale z DLSS4 jest szansa, że zamiast "tak jak myślałem, nie ma to sensu" powiem "nareszcie jakiś DLSS, który się do czegokolwiek nadaje". Testy CS2 na 9800x3d pokazują 250, to nie wiem gdzie Ty te 400 widziałeś, chyba, że mówimy o czym innym np. 0.1% vs 1% lows. Poza tym zgoda, że w tej grze jest dużo klatek i tak się najlepiej gra. Na pewno lepiej się będzie grało w AVG 400fps ze spadkami do 250 niż AVG 200 ze spadkami do 150, to jasne. Heh Jak ja często widuję takie wypowiedzi. Ktoś widzi kilka komentarzy, generalizuje, potem widzi kilka innych, znowu generalizuje i nagle wielkie zdziwienie "czemu ludzie wczoraj mówili to, a dziś im się odwidziało?!" A to po prostu byli inni ludzie. W internecie jest jednak trochę więcej niż 5 osób, które się o czymś wypowiadają. Ghosting przeszkadza tym którym przeszkadzał i nie przeszkadza tym, którym nie przeszkadzał. Ewentualnie może zacząć przeszkadzać tym, którym nie przeszkadzał. Tu nie ma żadnej magii i przyzwyczajania się. Za to są trendy i coraz więcej głupoty, bo jak widać marketing NV jest całkiem skuteczny jeśli chodzi o te wszystkie "rozmydlacze". Dlatego widzisz coraz więcej wypowiedzi w necie, że DLSS i ghosting nie przeszkadzają i jest super. Jeśli FSR 2 ludzie potrafią oceniać jako "OK" to dla takich DLSS jest cudownie ostry i nie ma piksela ghostingu nigdzie i nigdy No i zapewniam Cię, że żaden z graczy, który ostro krytykował DLSSy czy FG nie zmienił zdania do poziomu "jak można było grać bez tego". Najzwyczajniej na świecie ile graczy, tyle opinii. Z drugiej strony trzeba zauważyć, że od czasów DLSS 1 była spora poprawa z DLSS2 i jest jakaś nadzieja, że teraz zobaczymy podobny przełom z FG, czyli przejście z "to jest bezużyteczny idiotyzm" do "to ma wkurzające wady, ale w pewnych sytuacjach może być przydatne". Możliwe, że FG w 4.0 będzie nieporównywalnie lepszy od FG3.x A jeśli okaże się być do dupy, to jeszcze zdążymy na to ponarzekać w oparciu o konkretne info, a nie jakieś śmieszne filmiki youtuberów jak Linus. PS. A gość z przedpłatą nie wygląda mi na oszusta. edit: nie wiedziałem, że o forumowicza chodzi . Oczywiście nikomu nie radzę wchodzić w takie układy typu najpierw kasa, a potem licz na łaskę sprzedającego, że jednak wyśle. Rzeczy powyżej wartości 100zł to na OLX się kupuje tylko z odbiorem osobistym i sprawdzeniem na miejscu.
  11. Pierwszy będę wylewał pomyje na artefakty i inne problemy z FG, ale trzeba być uczciwym i napisać to: Mógł pomylić wady o których mówi z dwoma innymi, nie mającymi nic wspólnego z generowaniem klatek. Dowodził braku swojej wiedzy ignorancji wiele razy. Może jakby tam był Steve z Hardware Unboxed, to jeszcze by miało sens posłuchać co mówi, ale nie Linus. Zresztą nawet jeśli, to i tak jest nadal nadzieja, że ten generator będzie przydatniejszy niż DLSS3.x
  12. Ostatnio jak Nvidia nie czuła oddechu konkurencji na karku, to na bezczela graczom walnęła proces Samsunga będący upudrowanym 10nm jak dostępne już było TSMC 7nm. Przyznam, że nie szukałem, a może ktoś widział jakieś sensowne info o różnicach w procesie 3nm vs. 4nm w przypadku układów o charakterystyce gamingowych GPU, a nie tylko ogólnie? Jak różnica jest typu 10% to Nvidia może po prostu kompletnie olać ten proces skoro nikt z AMD lub Intela i tak im nie podskoczy w GPU do gier. Dadzą kostki GDDR7 3GB, jakieś AI które rewolucyjnie potrafi posprzątać ikonki na pulpicie i przewidzieć zużycie kabli w myszce i klawiaturze i starczy.
  13. Taka dygresja: 4nm vs. 5nm to różnice mniejsze niż jeszcze kilkanaście lat temu były w obrębie tego samego procesu po jego usprawnieniu. Nawet oficjalnie nie było o takich usprawnieniach mowy. Z których zdaje się (mogę się mylić) tylko jedna się nadaje do gamingowych GPU Zobacz na slajdy TSMC. Ja im się przyglądam od lat z uwagą i widać bardzo jasno, że gamingowe GPU pojawiają się zazwyczaj 2 albo 2.5r. po tym gdzie zaczyna się pasek nowego procesu na slajdzie. Tymczasem ta masowa produkcja dotyczy tylko procesu, który raczej jest optymalizowany pod urządzenia low-power jak chipy do komórek. Niestety po newsach o tym, że Samsung ma potężne problemy z GAA, po tym jak pojawiły się plotki że i u Intela nie idzie to jak mieli nadzieję, pojawiły się niedawno informacje, że Apple rezygnuje z 2nm. Mieli zacząć tego używać na koniec 2025. Jeśli problemy z usyskiem sprawnych chipów z wafla są tak duże w przypadku tak malutkich chipów, to znaczy, że na yield na poziomie akceptowalnym dla kart dla graczy możemy musieć czekać jeszcze wiele lat. Znowu. Slajdy marketingowe. Jak je poanalizujesz kilka lat to znajdziesz sporo schematów. Na przykład taki, że od GDDR5 nigdy nie pojawiła się w kartach do gier pamięć jaką zapowiadano jako najszybszą. Widziałeś GDDR5 10? A miała być. A GDDR6 24? Przecież to było sporo przed premierą serii 4xxx a jednak nic nie wyszło poza chyba 22,2 a na początek nawet zaledwie 20. Teraz też były dostępne 32 i ile dostaliśmy w 5090? 28. 36 to max, teoretyczna maksymalna wydajność jeśli ktoś chce do zastosowań, gdzie żyłowanie napięcia ma sens. Na kartach 512bit nie ma sensu najwyraźniej, a i 4090tka z 384 sugeruje, że trzeba te 15-20% odjąć. Mamy też zapowiedzi 40tek, ale tak samo jak z GDDR6 24 i GDDR6x 28, nigdy ich na karcie do gier nie zobaczysz. Chyba, że na kartach 64bit jak Nvidia wyskoczy z pomysłem aby kartom za 350$ czyli rtx6060, dać taką szynę i po dwie kostki 3GB lub 4GB To już ma mniejsze znaczenie. Bardziej nam rynek psuje teraz szał na AI i ograniczone ilości waflów u TSMC jakie Nvidia alokuje. Używać nowego procesu do kart dla graczy? "A komu to potrzebne? A dlaczego?" Ja napiszę pesymistyczny scenariusz, dla równowagi: początek 2026: 2nm TSMC zaczyna być przydatne do smartfonów. Problemy z uzyskiem sprawiają, że dopiero na koniec 2027 proces zaczyna mieć sens dla GPU poniżej 5000$ Mijają kolejne 2 lata zanim ten bardzo drogi proces lub inny jego wariant, nadający się lepiej do GPU tego typu (wysoki zegar i pobór prądu) okrzepnie na tyle, że Nvidia lub AMD całkiem już skupione na AI, łaskawie nam zaoferują w końcu karty zrobione w tym procesie. Konkurencja w postaci Samsunga i Intela do tego czasu spada na margines lub plajtuje. Na koniec 2029 dostajemy w końcu prawdziwą nową generację po ADA 4xxx. Ale Nvidia używa układów max 200mm2 i seria 7080 czy 9080 dostaje szynę 128bit i wypada w rasterze gorzej nawet od PS6 mimo 10x wyższej ceny. Na kanale Digital Foundry tłumaczą, że to nic nie szkodzi, bo AI, AI i AI. Kaczyński zostaje prezydentem w 2030r.. Dobra, może aż tak źle to nie.
  14. Nie no, trochę nietrafny opis. To po prostu timewarp obrotów kamery. Niestety już pojawiają się głosy (osobiście nie zamierzam oceniać inaczej niż na żywo) że wcale to takie cudowne nie jest To jest stara technologia w VR, gdzie jest oczywistością od chyba niemal dekady Przewagi to akurat raczej nikomu nie da. W grach typu CS2 czy Valorant i tak leci się w 400-500fps z 0,1% lows powyżej 200fps. Właśnie prędzej poprawi to zabawę zwykłym graczom, którzy na 10 godzin grania trafią przeciwnika raz czy dwa razy więcej. Prosi potrafią przewidywać w ułamku sekundy do tego stopnia, że gościu w 60Hz miał wyniki jak w 240Hz inni prosi. Po prostu się przyzwyczaił i brał poprawkę. Owszem, to było w śmiesznym filmiku na kanale Linustechtips, ale porównać wyniki kilku graczy pro, to chyba nawet oni tam potrafią
  15. https://www.roadtovr.com/scientists-mini-vr-headset-mice-study/ A niektórzy narzekają, że headsety np. Pimaxa są za duże
  16. Poczekajmy aż będzie wiadomo jak w ogóle sobie ten framegen poradzi. Jeśli tak samo tragicznie jak DLSS3.5 to nie ma sensu nawet tego włączać, ale jeśli różnica w artefaktach, ghostingu itp. będzie naprawdę ogromna, to choć nie poprawi to niczego w responsywności (a nawet ją pogorszy) to jednak już takie 120 fps interpolowane do 400-500fps, na OLEDach 480 zaoferuje naprawdę dobrze widoczne korzyści w jakości obrazu w ruchu. Nawet na OLEDach 240Hz może dać jakąś różnicę, choć nie tak wielką jak na 480Hz.
  17. Trochę dziwię się niektórym, że pytają o upgrade 4080 do 5080. Jest sporo sygnałów, że wydajność w rasterze będzie tylko symbolicznie wyższa. Tymczasem łysy z Braz.. znaczy z DF mówi coś ciekawego: wydajność nie będzie już poprawiana, za to będzie ulepszana poprzez AI. Czyżby on wiedział coś więcej dzięki swoim dobrym kontaktom z Nvidia? Cały filmik jaki dodali, wygląda jak marketing na poziomie prezentacja garnków albo Telezakupów Mango. Ludzi głębiej wchodzących raczej Nvidia na świecie nie znalazła, więc może gość coś wie.
  18. W przypadku "normalnych" kart może coś założyć by można, ale np. FE 5090 może nie mieć wiele wspólnego z cechami FE 4090. I to nie tylko w kwestii chłodzenia czy kultury pracy. Bez fusów z herbaty się na razie nie da robić żadnych założeń. Zaraz, zaraz. To istniały w ogóle karty w wersji Noctua bez ceny z kosmosu?
  19. Ja jakąś widzę. Tylko że mi tak zależy na ładniejszych włosach w grach jak na symulacji naprężenia gumek w gaciach dla postaci w grach RPG. No bez przesady, żeby się jarać taką pierdołą. Może kobiety mają prawo, bo wygląd, ciuszki i fryzury to ich żywioł. Ale gracze? Przy różnicy której prawie nie ma? Dokładnie tak. Co po supergrafice, jak postacie (całe, nie twarze) w grach z 2001 potrafią mieć lepszą i przyjemniejszą dla oka animację, a najpiękniejsze gry psują imersję bo jakiś pterodaktyl lata tak, że po sekundzie nie widzę tam Pterodaktyla, a drucik - "animation path" po którym przesuwa się nieudolnie obracany obiekt. W Indiana Jones nawet na 4080 trzeba dla pięknego oświetlenia wyłączyć ruchy roślinności, bo karta nie wyrabia przy PT, co zabija połowę imersji mocniej niż brak włączonego PT. Wracając do nieudolnych animacji. Czekam aż AI pomoże, bo w połowie gier animatorów powinno się za efekty ich pracy wywalić z roboty. Albo ich szefów, którzy nie dali im wystarczająco dużo czasu. W każdym razie tych co są za to odpowiedzialni. A może po prostu dobrą animację potrafi zrobić 1% animatorów i porównuję do pracy geniuszy. Po przeczytaniu 700 stron książki o podstawach animacji da się zrozumieć, że to nie jest łatwy zawód i nie trzeba mi pisać "to zrób to lepiej". Tylko jeśli na grę jest 300 baniek dolarów, to chyba powinno się zainwestować w dobrych fachowców, a nie psuć ludziom zabawę biegiem z kijem od szczotki we wiadomo czym. Najbardziej w grach indie to razi. Fajna grafika, nawet potencjalnie fajna gierka, ale animacje jak z gierek na przeglądarkę z lat 2000-2005. Może jak AI zacznie z tym pomagać to się poprawi i to będzie dużo ważniejsze z punktu widzenia graczy, niż jakieś tam bardziej naturalne włosy pod pachami. I chodzi mi tu teraz tak o animacje twarzy, gdzie rewolucja już puka do drzwi ("i bardzo ... dobrze") jak i właśnie animacje postaci i obiektów w grze. Wszystkiego. PS. Jest kilkadziesiąt stron tego wątku dziennie. Czytam może 5%. Skąd na reddicie wątek pytający o 200-300$ droższe niereferenty 5xxx? Coś się pojawiło w sklepach czy jak? Jak to tyczy 5090 to luz, ale jak 5080 to porażka. Albo może autor wątka to idiota, który zobaczył placeholdery?
  20. Red Matter 2, obowiązkowo, tylko że najfajniejsze doznania VR są dopiero po wielu godzinach gry, chyba, że już grałeś albo będziesz miał obok okienko z YT i nie będziesz się nigdzie zacinał. Nie chodzi nawet tylko o trudność samych puzli, ale czasem coś może być zwyczajnie nieintuicyjne i jak się zakorkujesz to łatwo można zmarnować sporo czasu, a wtedy na drugi dzień nie pamiętasz, że gra fajna, tylko wolisz zagrać w co innego bo poprzednio była nuda. I wtedy gra może czekać miesiące zanim do niej wrócisz. Tradycyjnie polecę Eye of the temple. Też trochę nudnawa. Początek i po 2/3 jest fajnie, ale pomiędzy początkiem a 2/3 będzie nuda. Jak cena nie przestraszy bo to drogo jak za kilka chwil grania, to Vader Immortal jest bardzo fajnie zrobiony choć pod Questa 1, więc graficznie czasem wypada cienko. Fajnie się pływa kajakiem. Jak masz podpięte to do PC to sobie pograj w tą grę na Unreal Engine 5, a za chyba miesiąc wyjdzie na Questa inna gra kajakowa z PSVR2. @Wu70 Dla wielu wady Pimaxa Crystal są nie do zaakceptowania. Wychodzi, że żeby dostać coś porządnego bez tragicznie małego FOV, to właśnie nie ma wyboru tylko ten VR za choćby nie wiem ile. Kwestia jaki zestaw wad i zalet ktoś uważa za najważniejszy, ale jakby mnie było stać to bym kupił VR1 zamiast Crystala, bo po prostu to nie jest to samo w kilku aspektach, które są dla mnie bardzo ważne. Gdyby było DOA to by nie podbijali teraz ceny. Widać, że sporo ludzi się rzuciło. Niestety nie zmieni tyle ile chciałem, żeby zmienił na rynku VR. Przed premierą spodziewałem się 1000-1500€. Przy 1000€ nawet ja bym mógł realnie o tym pomarzyć, że może kiedyśtam się uda kupić. Przy 3500€ to mogą równie dobrze podbić o jedno zera i bardziej niedostępny dla mnie i tak się już nie stanie. Sprzęta dla bogaczy wydających dziesiątki tysięcy na symulatory latania czy standy na siłownikach do wyścigów. Szkoda, bo jakby celować w mainstream, to możnaby zachować większość zalet VR1 przy kilkukrotnie niższej cenie. Dla przykładu ja bym chętnie kupił sporo tańszy model o trochę niższej rozdzielczości. Nawet 2K x 2K na oko bym rozważył, bo natywny port, porządne soczewki, brak strachu, że jakiś chiński Janusz biznesu mnie wytenteguje, o kilka stopni większy FOV, brak szpiegowania przez jakieś durne wielkie korpo, brak god rayss, glare, zniekształceń czy spapranego i wiecznie wkurzającego softu, realna nadzieja, że sprzęt posłuży 5-10 lat i nie zostanie wyłączony bo się producentowi odwidziało wsparcie albo wymóg online udupi sprzęt po wyłączeniu serwerów. Sporo przemawia za VR1.
  21. Ludzie żonaci dzielą się na trzy grupy: 1. ci którzy nie mają problemu 2. ci którym żona ciągle suszy głowę o zużycie prądu przez "te durne gierki" 3. ci, którzy już kupili sobie porządny miernik prądu z zapisem historii i wpięli go do gniazdka z którego idzie prąd do kompa, dzięki czemu mogą żonie pokazać co miesiąc ile dokładnie zjadło prądu granie. A jak punkt 3 nie skutkuje to kupujesz drugi i wtykasz w gniazdko gdzie żona podpina suszarkę do włosów.
  22. Wyliczyłem. Wychodzi coś pomiędzy pisiont groszy a dajpanspokój. Dwa do trzech razy więcej jak przy graniu jesz chipsy. BTW. Widzieliście porównanie specyfikacji 5070 do 4070super? 5070tka może wypaść wyraźnie gorzej tam gdzie przepustowość pamięci nie pomoże I jeszcze sobie odpowiem na pytanie o encodery: 5070ti podwójny, poniżej pojedynczy. 5090 potrójny.
  23. No szczerze mówiąc to tak. Mam taką nadzieję. Zerknąłem tutaj https://www.techpowerup.com/gpu-specs/geforce-rtx-5090.c4216 i oto potencjalne powody, przez które może być lepiej w 6xxx lub 7xxx (w każdym razie chodzi o prawdziwego następcę na - TSMC 2nm, to będzie +15% względem 3nm, a 5090 to 4nm, więc więcej. Do tego pierwsza od wielu lat poprawa w SRAM, a zdaje się, że to właśnie jest wykorzystywane do budowy L2 w RTXach. Mówi się też o kilku usprawnieniach jakie TSMC planuje na najbliższe 2-3 lata, co ma pomóc właśnie układom o wysokim poborze prądu i wysokich zegarach. Nie zdziwiłbym się jakby realnie dało to +30 albo i +35% względem 5090 przy poborze ~500-550W w grach. - 5090 ma tylko 88MB cache zamiast 72. 192 ROPs vs 176 ROPs, co przy tak dużej poprawie przepustowości pamięci daje kolejne wiadro paliwa do podejrzeń, że Nvidia nie zrobiła żadnego GPU, tylko dała co akurat miała z segmentu AI i tyle. Jeśli przez następne 2-3 lata będą robić GPU bardziej faktycznie do gier, może się okazać, że 5090 marnowało sporo wydajności bo np. ktoś uznał, że nie ma co "marnować" na jakieś tam prawdziwe niegenerowane klatki i to bez RT. A co jeśli w 6090 dadzą 2x więcej ROPs i np. 200MB L2? Ja pamiętam jak Nvidia poprawiała swoje karty po prostu przywracając priorytety w stronę graczy. Fermi 480 było bardziej do obliczeń niż do gier. Podobnie AMD poprawiło wydajność jak lekko odeszli od pakowania co się da byle lepiej się na ich kartach liczyło. Jeśliby faktycznie było tak, że NV popsuła wydajność priorytetyzując AI w serii 5xxx, to powrót na właściwe tory w serii 6xxx mógłby pozytywnie zaskoczyć. - za 2-3 lata wyjdą karty z HDMI 2.2 a nawet pewnie nowe konsole. Nvidia gada bzdury o tym, że era zwiększania wydajności w rasterze się skończyła, ale ciężko to będzie uzasadnić gdy PS6 za kilkaset dolców będzie oferowało podobną wydajność co ich karty za 1000$ (czyli rtx 6060 ). Różnice w wydajności mogą nie być już tak ograniczane przez CPU jak szefostwo NV przewidywało rozpoczynając projekt Blackwell. - być może pojawi się nisza dla gamingowych GPU. Za rok masowo będą dostępne kostki GDDR7 3GB, a jeśli premierę 6090 przesuną na koniec 2027, bo już się mówi, że TSMC nie idzie tak dobrze jak planowali, więc może nawet kostki 4GB. W przypadku karty typu 384bit można zrobić kartę 24GB na którą żaden fan AI nawet nie spojrzy gdy obok będą karty z 36 czy z 48GB. Pamiętacie 8800 GTS 320MB? To była świetna karta i świetny pomysł na dostawienie nowej niszy, bo kto chciał przyszłościowo, musiał kupić kartę z 640MB, ale ci którzy chcieli superszybką nextgenową kartę do tych gier, które już są, ale w bardzo fajnej cenie, kupowali wersję 320MB i się cieszyli wydajnością nieporównywalną z dotychczasowym flagowcem w postaci 7900GTX. 24GB pamięci na koniec roku 2027 to byłoby dokładnie coś takiego. Za mało aby mieć spokój na choćby rok, bo gry na PS6 pewnie będą celować w większą pamięć na pokładzie PS6, do AI nikt tego nie weźmie bo nawet tanie karty od AMD i Intela z 32, 36 lub 48GB na pokładzie nadadzą się do AI lepiej, kopać na tym już nikt niczego nie będzie, a graficy kupią wersję 48GB bo ich stać. Idealna okazja aby zarobić i jednocześnie zebrać oklaski od graczy.
  24. Bez szans, no i pamiętaj, że jeszcze z pół do półtora roku będzie tylko 16GB na tej karcie. 64MB vs. 72MB cache'u, znaczne różnice w ilości ROP/TMU/shaderów i na koniec ominięcie całkiem choćby jednego słupka wydajności w rasterze na slajdach z CES. 4090tka odstawia 4080 czasem i o 55% a 45-50% nie jest rzadkością. Jeśli 5080 znajdzie się w połowie dystansu to będzie super. W AI i RT to już prędzej. Dokładnie to jest ta deska, której obecnie złapał się mój tonący optymizm. Niech chociaż to zrobią porządnie i niech w grach 120fps będzie interpolowane sensownie do 480Hz to będzie to pierwsza funkcja nowych kart Nvidii od 2016r, którą osobiście uznam za naprawdę przydatną. Pytanie jak będzie wyglądał końcowy obraz, jak będzie wyglądał lag i jakie będą koszty, bo jak normalnie będzie 160fps a interpolacja zbije do 120 i wtedy podbije do 480 to też tak średnio. Podobnie z pytaniem o v-sync i wsparcie w grach np. co ogromną ilością gier z capem na 160, 200 czy 250fps? Wiele znaków zapytania, ale naprawdę trzymam kciuki, że wyjdzie z tego coś świetnego. (edit: oj, chyba jednak nie) Proce o 300% szybsze (do 480fps w grach gdzie obecnei jest ledwo 100-150fps) nie pojawią się pewnie wcześniej niż za dekadę albo kilka, więc to bardzo potrzebna funkcja. Jest jendak ryzyko, że celem tej funkcji w opinii Nvidii jest interpolacja gier z path tracingiem z np. 50fps, a wtedy może nas czekać potężne rozczarowanie. 2900 do 2000 to daleka droga. Chyba zbytni optymizm. Jak już poczekasz tyle, to będziesz niedaleko premiery wersji z pamięciami 3GB co da 15-18GB na modelu 5070, o ile taki zrobią. Myślę, że promki za 2600zł to realny optymistyczny scenariusz, no chyba, że AMD wywali cały dział marketingu i sprzedaży na pysk i zacznie prawdziwą konkurencję w tym segmencie, ale 90% osób wybierających w tej cenie 4070Super, może nie zainteresować się Radkiem nawet jeśli ma więcej RAMu i o 1/3 lepszy raster w podobnej cenie. A wtakiej sytuacji Nvidia za 2100zł to Ci łaskawie zaoferuje latem 5060tkę 16GB z wydajnością poniżej 4070 (bez Super) w rasterze. Mimo wszystko zapowiada się lepsza wydajność/zł w porównaniu do pierwszej sensownej karty Nvidii obecnie czyli 4070Super, więc "always look on the bright side" Szybszy RAM, być może fajny frame gen w DLSS4, może wyraźnie lepsze RT (choć z 12GB to i tak się nie zaszaleje) to i tak lepsze niż nic.
×
×
  • Dodaj nową pozycję...