Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano
34 minuty temu, Brolly napisał(a):

Mówisz że przeczekamy kolejną generację? tym czasem moja 3060 przy premierze 6xxx :E :

 

let-me-die-sad.gif

Brolly ja też ledwo pykam na 8GB karcie 3060ti i na pewno nie będę czekał na serię 6xxx, tylko pójdę w 5060ti 16GB. Obecnie w sterownikach nvidii już jest zaimplementowany NVIDIA Smooth Motion, który bez uruchamiania generatora klatek daje kopa w grach w serii 5xxx. Do tego dochodzi DLSS + MFG. MFG, tylko jak będzie trzeba zapchać klatki do minimum 60 FPS :P Ale 16GB musi wystarczyć do 1440p przy 5060ti 16GB i tak pozostać do wyjścia serii 6xxx, gdzie przekonamy się ile karty dostaną na wydajności i ile pamięci Vram przybędzie, bo trąbią, że będzie tej pamięci więcej w serii 6xxx :uklony:

7 minut temu, lukadd napisał(a):

Szybko wam się znudził ten Blackwell 8:E

Przynajmniej tam w temacie mniej spamu jest  ;D

Opublikowano

@Brolly Gram w 1440p np. w Wiedźmina 3, Horizon Forbiden West, a jak się da, to nawet w 2160p np. w Fishingplanet, Borderlands 3, lub nieco starsze produkcje, które nie zjadają pod korek Vramu i można przynajmniej w 60 fps-ach popykać :cool:

  • Mar_s zablokował(a) ten temat

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...