Skocz do zawartości

sideband

Użytkownik
  • Postów

    2 594
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez sideband

  1. W4 raczej będzie tworzony z myślą o nowej generacji konsol.
  2. Poczytaj sobie więcej to się przekonasz, że color banding na WOLED to rzecz normalna. Też nie zagłębiałem się w temacie przed kupnem Ludzie też nie widzą innych problemów na monitorach na WOLED to nie znaczy, że nie istnieją. PS nie miałem takiego syfu jak on tam pokazał w tej konkretnej grze. TV dopiero G4 lepiej prezentuje się pod względem bandingu. LG niedługo wchodzi na normalne matryce RGB więc problem bandingu powinien zniknąć w monitorach. Gamme to zredukuj w sterach to się przekonasz, że jest mniej widoczny banding i przestaniesz widzieć detale na ciemnych przejściach
  3. Ciekawe kiedy drgnie coś u Intela
  4. Wyższa gamma i pełny gamut powoduje, że banding jest bardziej widoczny. sRGB i obniżanie gammy(pojawi się black crush) tylko zatuszuje problem
  5. Miałem 32gs95ue myślisz, że było lepiej? Myślisz czemu TV na WOLED mają filtr w opcjach by redukować to zjawisko
  6. Bo popełnili błąd mogli zostać na 4.x zamiast pchać we wczesny build 5.x Ciekawostka to pierwszy Stalker na DX9 już miał GI można było włączyć odpowiednią komendą i to samo tyczy się Metro 2033 także za pomocą tej samej komendy
  7. Oni wklepali własną implementacje RTGI A nie korzystali z gotowca z UE, który by zamordował wydajność.
  8. Nic z tym nie zrobisz WOLED ma spore problemy z color bandigiem, a to nie jedyna wada WOLED Możesz posiłkować się filtrami z reshade by to zredukować.
  9. Developer nie zoptymalizuje sobie kodu w takim UE bo i tak nie potrafi. Dlatego gry na UE działa jak działają póki ktoś nie klepie na nowszym poprawionym buildzie to nic nie wskóra. Optymalizować to może najwyżej przez cięcia nic poza tym. Niezależnie czy to RT czy nie żaden developer na UE nie grzebie na poziomie shaderów by je uprościć by uzyskać lepszą wydajność. Materiałów na temat optymalizacji jest sporo tylko takie rzeczy to ogarniają mądre głowy pracujący na swoich silnikach. Za dużo mądrych głów przeszło do 4A Games gdzie stworzyli rozwinięcie XRAY-a
  10. Może brak pomysłu na nowe IP co dzisiaj jest bardzo częste.
  11. Tylko ten nowy RTX to 6090.
  12. Niektóre OLED-y mają opcje do przyciemniania narożników by ograniczyć pobór mocy, ale to raczej nie powinno tak wyglądać
  13. Pomijając ograniczenia sprzętowe - szybkość komunikacji między GPU i CPU to całą robotę na nowych API musi zrobić developer to tyle w temacie braku mGPU w grach.
  14. Na pewno większa ilość NPC dobija GPU
  15. https://videocardz.com/newz/lexar-unveils-ultra-low-latency-ddr5-6000-cl26-expo-memory-ideal-for-9800x3d Kłamczuszki
  16. Raczej sobie odpuszczę do przyszłego roku.
  17. Poza starymi dziadkami to nikt nie kojarzy nawet takiej marki Także oni mogą zrobić z tym cokolwiek.
  18. Marudzenie ciotek klotek przed erą "RT" nowsze tytuły nie mordowały sprzętu . Poza tym nikt żadnemu developerowi nie każe zawracać sobie głowy RT czy PT i mogą poświęcić czas na inne kwestie, które mają większy wpływ na rozgrywkę.
  19. Tu nie chodzi to co pokazuje w poborze dla karty tylko dla całej platformy. U mnie na 4090 pokazuje 18W, a rzeczywiście po włożeniu 4090 bez ASPM łyka jak wsysała 40W. Poza tym samym pobór mocy w idle jest uzależniony na jakiej rozdziałce i odświeżaniu lecisz. Zawsze można spróbować wbić ręcznie L0sL1 i dać kontrolę nad ASPM biosowi.
  20. Chociaż jedna dobra gra w 2025
  21. AIDA ma swój algorytm, który w żaden sposób nie przekłada się na wydajność w grach. A ten test, który wrzuciłeś to bardziej się nadaje do porównań konkretnych CPU i platform między sobą pod względem zmian/różnic w podsystemie pamięci.
  22. W przypadku kart od NV tak jest w przypadku Intela to nie wiem czy tak będzie. Intel tak czy inaczej nadal nie ogarnął problemu z wydajnością bez RB i oszczędzania energii(nie mam na myśli ASPM) jak takie pierdki mają o wiele za duży pobór mocy przy pracy na kilku monitorach czy YT etc. Czasem trzeba ręcznie wklepać ustawienia w biosie bo inaczej ASPM nie działa.
  23. To tak nie działa to jest zależne od konstrukcji danego producenta. W skrócie karty, które nie reagują na włączenie ASPM(brak spadku poboru mocy) nie potrzebują ASPM do niskiego poboru w idle. Popatrz sobie na wyniki Techpowerup te które mają zawyżony pobór mocy względem innych na tym samym modelu wymagają włączenia ASPM by pobór mocy spadł w idle.
  24. Osłabiacz mnie typowe pitolenia żeby pitolić. Będzie jak pisałem i NV nie ma nic do tego te czasy już dawno się skończyły gdzie płacą developerom. Indianie też pograsz z RTGI na 7800XT w 1440p z ~100fps pomimo, że ta karta nie jest mocarzem wydajności. Za chwilę napiszesz, że na 7800XT chciałbyś pograć kolejne 10lat, ale NV popsuła gry i trzeba częściej zmieniać sprzęt. Wydajność na konsolach też popsuła NV bo mają ukrytą magiczną moc.
  25. RT w grze nie oznacza od razu zabicia wydajności. Do tego będziesz miał sporo ustawień, a więc skalowalność także możesz spać spokojnie, że nagle devsi na PC będą robić gry pod najdroższy sprzęt.
×
×
  • Dodaj nową pozycję...