Skocz do zawartości

sideband

Użytkownik
  • Postów

    2 585
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez sideband

  1. Ta bryndza to teraz nazywa się optymalizacja Dlatego w Stalkerze 2 dali programowy Lumen. Sprzętowy nieźle zbija wydajność
  2. Programowy nie jest taki ciężki tylko przy okazji odbicia są marnej jakości Lumen to jest GI + odbicia.
  3. FG też leci na tensorach.
  4. 577.00 Modded By Side Ver 1.01 Zmiany: - usunięte artefakty(czarny ekran z latającymi kolorowymi kwadratami) po włączeniu FSR lub DLSS w Uncharted 4 - Włączony RB dla Last of Us Part 2 Link
  5. Na co szansę przy obecnej technologii wchodzi Reflex 2 lag nieco obniża przy okazji generując artefakty. Nawet głupia neural kompresja, którą się jaraja zbyt mocno zbija wydajność. Kompresja konkretna, ale obecnie zabiera za dużo wydajności. Ale co z nimi efektami na neural cieniowaniu. Fiku Miku skąd tu wziąć wysoka wydajność tensorów.
  6. Dobre pierdy będzie 160fps, ale z lagiem jak przy 30fps Do tego doprawione artefaktami.
  7. Wszystko co jest na UE5.x ubija wszystko nawet bez RT/PT Nowe Cod-y w singlu też mają konkretne wymagania. Jak kolejny Gen nie da konkretnego boosta to wymagania nie będą za bardzo rosnąć nikt nie będzie grał w tytuły w które nie da się normalnie pograć. A NV będzie pokazywać coraz bardziej dopakowane PT z coraz większym mnożnikiem FG Jak mają pokazywać takie gówno w jak w Indiana Jones to dziękuje bardzo Obiektywnie patrząc bez PT ta gra wygląda żenująco.
  8. Tylko DLSS Q potrafi dać 1.5x kopa i doprowadzić, że da się normalnie pograć. Daj FG na DLAA/natywną rozdziałkę i wymioty gwarantowane Gdyby nie DLSS v4 to NV pokazywałyby rozmazaną paćkę FG+DLSS P DLSS v4 i tak daleko to ideału
  9. Daj sobie spokój z tym FG. FG nie podnosi wydajności.
  10. Każdorazowo przy większym kopie generacyjnym jest chwilowy zapas i stąd te bajki
  11. Nic się nie zmieni w nowszych tytułach, a w starszych będzie można sobie pozwolić wbić DLAA lub ewentualnie nie włączać FG przy założeniu sporego boosta. Niektórzy już tak są przesiąknięci głupotami od NV, że nie wiedzą jak się gra bez FG
  12. Dobre monitor 120Hz jest wąskim gardłem dla 5090 Chyba jak sobie generujesz gówno klatki To sobie możesz generować nawet 16x i pisać, że potrzebujesz 1000Hz monitor
  13. Ułomność z DSC poniżej Blackwella to brak DSR/DLDSR/skalowania w dół. Za dużo głupot naczytałeś się o czarnych ekranach z DSC Anti Flicker to tylko marketing
  14. Pewne rzeczy trzeba wielokrotnie sprawdzać ludzie często mają subiektywne odczucia lub dana gierka lubi przymulić tylko to nie jest w pełni powtarzalne
  15. LG wymyśla bajeczki żeby jakoś wytłumaczyć ułomność A statyczna korekta gammy w TV LG została wprowadzona bo są zdają sprawę, że występuje ten problem. Ps. niektóre LCD też zmieniają gamme w zależności od odświeżania
  16. To jeszcze @Kadajo zauważy problemy z bielą na WOLED i jesteśmy w domu
  17. @Kadajo Najprościej w sterowniku
  18. Wysypywanie się podczas kompilacji shaderów to zawsze był problem stabilności CPU/MEM mnie nigdy od samego początku nie sypnęło się podczas kompilacji. Ta gra potrafiła grzać jak wygrzewacze to pseudo stabilne jednostki sypały się
  19. Kto Ci broni przecież Gsync będziesz działał Tylko na WOLED im niższe odświeżanie tym wyższa gamma Między 240 vs 60 to niezła różnica już jest w gammie.
  20. Jak nie będziesz miał większych problemów z frametime niezależnie czy od strony GPU czy CPU to wystarczy limit 3-4 klatek poniżej maxa. Jeżeli są duże problemy z frametime świrowanko w grze to i tak może rozrywać klatki. To wtedy jest potrzebny limit na niższym poziomie żeby poprawić frametime. Takowe spaprane miejsce znalazłem w Last of Us Part 1 mogę non stop się kręcić w kółeczku i cały czas rozrywa klatki pomimo względnie dobrej wydajności A monitoring pokazuje pełne obciążenie GPU 99-100% i niski pobór mocy abstrakcja
  21. U mnie zrobiło robotę cofnąłem się do felernych miejsc grałem 90min i zero problemów. Od czasu wyłączenia kolejne 3h poszło do końca gry bez crashy. Chyba, że limiter + LLM ze sterownika ma jakiś wpływ, ale wątpię.
  22. Gram na takiej ilości klatek by CPU/GPU nie powodował problemów z Gsync tyle w temacie. Z reguły latam na progu 85fps do singlowych gier. Docinam detale by mieć stabilną wydajność i jazda. Nawet jakby Gsync działał zawsze idealnie duże fluktuacje klatek źle wpływają na odbiór gry także nawet lepiej mieć mniej niż duże skoki. Twoja sprawa czy będziesz korzystał z Vsync + Gsync testuj i sprawdzaj. U mnie to nie ma większego sensu. Jak już chcesz Vsync + Gsync to wbij LLM na Ultra to chociaż zredukujesz laga, który wprowadzi Vsync. Ale to ma sens w momencie kiedy nie korzystasz RTSS + limiter z Reflexem.
  23. Jak włączysz Gsync + Vsync to nic nie zmienia póki jest dobra synchronizacja na Gsync i brak rozrywania. Jak sobie potestujesz konkretne gry i miejsca gdzie Vsync zaczyna działać to nie będzie rozrywania, ale przy okazji rośnie lag. Już to potestowałem w problemowej grze/miejscu gdzie chwilowo rozrywa klatki z Gsync to Vsync wchodzi do akcji tylko przy okazji podnosi laga. Także nie wierz tym testom, które pokazują, że nie rośnie lag w połączeniu Gsync+Vsync. Gram na locku to przez 99,9% czasu Gsync bangla jak należy Żadne magiczne odświeżanie na zapewni dobrej płynności bez synchronizacji. Przy 480Hz nadal widać tearing i brak płynności, ale ktoś jest ślepy to może tak działać.
  24. Gsync nie ma żadnego Vsync i buforowania dlatego zapewnia znacznie niższego laga. Im mniej klatek tym większa przepaść będziesz widział.
  25. Spróbuj RTSS limiter z Reflexem lub ze sterownika + LLM.
×
×
  • Dodaj nową pozycję...