Skocz do zawartości

DOOM: The Dark Ages - PC, XSX, PS5


Rekomendowane odpowiedzi

Opublikowano
16 godzin temu, Phoenix. napisał(a):

 

No to bye bye 8 GB Vram, jednak sobie nie zagram na premierę.

Ciekawie rozwiązali te różne nazwy ustawienia grafiki tak żeby w praktyce były takie same. Ukłon w stronę konsol?

Opublikowano
Godzinę temu, Phoenix. napisał(a):

Wymagania skoczyly w kosmos a doom zawsze slunal z malych, grafika wcale nie lepsza :D 

Coś im nie pykło. Z resztą... Doom (2016) był fajny, Ethernal mnie wynudził i po drodze przestałem w to grać... Dark Ages to pewnie jeszcze gorsza popłuczyna niż Ethernal.
Oby się nie okazało, że przemycili w tej odsłonie jakiś Woke Shit który rzucony został na pierwszy plan jak np. w Wolfensteinie czy Far Cry.

Opublikowano
Godzinę temu, Phoenix. napisał(a):

Wymagania skoczyly w kosmos a doom zawsze slunal z malych, grafika wcale nie lepsza :D 

No, ciekawy jestem co tu się zadziało ze wydajnosc tak lezy.

Teraz sobie wyobraźmy ze graliśmy z maksymalnym FPS do odświeżania monitora jaki mielimy w poprzednich dwóch częściach a tutaj jakby ktoś nam dal w ryja.

I to jeszcze w tak dynamicznym FPS... żenada.

  • Like 2
Opublikowano

Ciekawe jak to będzie z presetami detali w DOOM jak to pokazywał Steve z HU że między medium a ultra-nightmare ciężko dostrzec różnice i rzeczywiście na materiale nie widać róznicy tylko pytanie ile detali pochłonęła kompresja YT a na ile to realne, chociaż wspomina też że ten DOOM bardzo słabo się skaluje z presetami w dół. 

 

Zmniejszenie detali z ultra-nightmare na medium podobno daje przyrost ledwo 30-40% to bardzo mało :E  

coś tu dziwnie to wygląda.

Opublikowano (edytowane)
4 godziny temu, Kadajo napisał(a):

No, ciekawy jestem co tu się zadziało ze wydajnosc tak lezy.

Ta gra ma domyślnie włączony raytracing którego nie da się wyłączyć i to cała tajemnica z wydajnością, zresztą wystarczy zaglądnąć do wymagań sprzętowych i tam jest napisane "Raytracing-capable GPU", to samo było przecież z Indiana Jones'em (ten sam silnik)

Edytowane przez GTM
  • Upvote 1
Opublikowano (edytowane)
2 godziny temu, Frog67 napisał(a):

Zmniejszenie detali z ultra-nightmare na medium podobno daje przyrost ledwo 30-40% to bardzo mało :E  

coś tu dziwnie to wygląda.

W miejscówce testowej ppc jest ledwie 25% przyrostu i to po zejściu z nightmare na low :E

fbjRNHP.png

37 minut temu, GTM napisał(a):

to samo było przecież z Indiana Jones'em (ten sam silnik)

Tyle, że jak patrzę na testy ppc to indiana na takim 4090 i tak generował blisko 50% więcej fps na ultra vs doom ultra :E 

Edytowane przez lukadd
Opublikowano

@lukadd Są pewne różnice 

 

Indiana na Id Tech7 

DOOM TDA  na Id Tech8 

 

Grafika pewno zmieniła się nieznacznie, wydajność za to diametralnie mimo że Indiana też ma wymuszony RT jak DOOM, podejrzewam że szkopuł tkwi w wielkości map i ilości przeciwników przy włączonym RT to może mieć znaczenie.

 

Test procesora zapowiada się ciekawie 

Obliczyć RT (bo część musi obliczyć CPU) obliczyć wszystkich przeciwników ich przemieszczenie, pociski no w Indianie raczej takie dymy nie odchodzą jak w DOOM może tu pies pogrzebany.

Opublikowano
1 godzinę temu, Kadajo napisał(a):

No super, grafika praktycznie taka sama jak w Eternal ale RT i wydajność padła... i po uja oni to dali...

A jeszcze chcą PT dodać...

Już o tym pisałem dużo wcześniej, że w tego typu grze RT/PT nie ma większego sensu. Współczesne doomy zawsze były kojarzone z dobrą optymalizacją, ale to już się skończyło :E

Sami sobie narobili problemu mocno zwiększając wymagania na PC i z automatu mniej osób zakupi tą grę. Ta gra to i tak kupsztal oglądając gameplay od początku gry.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Tutaj chyba mylisz generacje procesorów i podejście do TAU vs dana generacja CPU.  Moim zadaniem przed pisaniem szybkich twierdzeń w stylu "Co tu czytać...." to lepiej jest poczytać dokumentację od i9‑10850K   Ten procesor również używa Turbo Time Parameter (Tau) do liczenia średniej mocy dla PL2. Jednak w Comet Lake Tau jest mniej elastyczne i bardziej statyczne niż w 13./14. generacji. i9‑10850K) używa Turbo Boost 2.0 – to prawda, ale klasyczny, starszy niż w 13./14. generacji. 13./14. gen używa Turbo Boost 2.0 z Adaptive Boost Technology (ABT)   W 13./14. gen co TAU faktycznie robi ·         Tau to parametr matematyczny używany przez algorytm Intel Turbo do wyliczania średniej mocy w czasie („time-averaged power”). ·         Nie jest to zegar, który odlicza X sekund i wyłącza PL2. ·         Algorytm korzysta z Tau, ale decyzja o zejściu z PL2 zależy od średniej mocy w tym oknie, limitów prądu, mocy i temperatury. ·         Również np stany C‑states procesora mogą wpływać na średnią moc, ponieważ przejścia w i z niskiego poboru energii zmieniają chwilowy pobór CPU. Algorytm uwzględnia te zmiany przy liczeniu średniej w oknie Tau. Dlaczego „czas PL2” może się różnić bo średnia moc (wyliczana z Tau) jest dynamiczna i zależy od wielu czynników: np: 1.      Bieżące taktowanie i napięcie CPU – nawet identyczna aplikacja może generować różne chwilowe pobory energii. 2.      Temperatura początkowa CPU – cieplejszy procesor szybciej zacznie schodzić z PL2. 3.      Dynamiczne zmiany w poborze energii – drobne różnice w działaniu kodu wpływają na średnią moc. 4.      Chłodzenie i przepływ powietrza – wentylatory, temperatura otoczenia itp. wpływają na tempo osiągania średniej mocy PL1. 5.      Inne limity systemowe – np. PL1, prąd, sterowniki, interakcje z OS. 6.      Stany C‑states – wchodzenie CPU w niskie C‑states zmniejsza chwilowy pobór, co wpływa na średnią i może wydłużyć utrzymanie PL2. 7.      Wersja "różna" mikrokodu odpowiada za algorytm Turbo Boost / Adaptive Boost Technology (ABT).          a więc ten sam cpu inny mikrokod wersja UEFI, a więc inne podejście do TAU może również być.  W praktyce ·         Ustawienie Tau w BIOS = stała liczba jednostek dla algorytmu (np. 56 s, 125, 253). ·         Czas utrzymania PL2 = zmienna zależna od średniej mocy w tym oknie i wymienionych czynników. ·         Nawet przy identycznym obciążeniu PL2 może trwać różnie (np. 10 s, 20 s lub 30 s), jeśli PL1 < PL2.   Uwagi odnośnie ustawień BIOS ·         Tau = auto → mikrokod sam dobiera wartość Tau optymalną dla CPU i platformy, ale algorytm nadal używa Tau do liczenia średniej mocy. ·         Scenariusz PL1 = PL2: Jeśli ustawisz PL1 = PL2 = np. 240 W i CPU nie przekroczy limitów temperatury ani prądu, procesor może pracować praktycznie stale na maksymalnej mocy PL2. Tau w tym przypadku nadal istnieje, ale nie wymusza zejścia z PL2, bo średnia moc nigdy nie przekroczy PL2. ·         W normalnym przypadku (PL1 < PL2), PL2 nigdy nie jest absolutnie stałe – zawsze zależy od średniej mocy, limitów prądu, mocy, temperatury i np. stanów C‑states. ......i wiele innych nie wymienionych.   
    • Ja mam kilka sztuk, głównie architecture i botanicals porozkładane po całej chacie - zrezygnowałem z tego hobby jednak na rzecz innych pasji
    • Raczej nie wszyscy są zdziwieni, ale jest jedno ale, prąd jest o wiele łatwiej wytworzyć w warunkach domowych, od benzyny. Trudno też mi sobie wyobrazić, aby w najbliższych latach prąd w domowych gniazdkach był po 3 zł.
    • To była kiedyś topka MSI   Zawsze można zamontować dodatkowy czujnik i mieć odczyt w HWiNFO  Zawsze coś  
    • Buspasy dla EV do 01 stycznia 2028r - Nawrocki podpisał ustawę   Ale hejt się na niego leje  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...