Skocz do zawartości

Jaki widok kamery najbardziej lubisz w grach Resident Evil?  

67 użytkowników zagłosowało

  1. 1. Jaki widok kamery najbardziej lubisz w grach Resident Evil?

    • Kamera zza pleców postaci (TPP)
    • Widok pierwszoosobowy (FPP)
    • Stała kamera - Fixed Camera Angles (stare klasyczne RE)
    • Nie mam preferencji / zależy od gry


Rekomendowane odpowiedzi

Opublikowano

Nie przesadzajcie. Obecne grafy nie radzą tylko z PT.

Kiedyś też wychodziły gry z opcjami 'uber grafika' i też nie radziły znimi przyszłe generacje.

Rozumiem, że gdyby nvidia wstrzymała się z wprowadzeniem PT, to teraz byłoby wszystko git z wydajnością?

Jeszcze do niedawna to samo było z RT. Ta sama gadka. Nie było graf, które dobrze radziły z RT. Teraz RT działa na luzie i to samo będzie niebawem z PT ;)

 

Opublikowano (edytowane)
38 minut temu, STALKER napisał(a):

EDYTOWANE PRZEZ KABOR

Dopóki go nie kupią tego hakera to będzie łamał drmy.

Weź to z edytuj bo aż zęby mnie zabolały :E

Edytowane przez Kabor
  • Haha 1
Opublikowano (edytowane)
31 minut temu, Kadajo napisał(a):

Ogólnie to wiedziałem ze szanowny kolega @DżonyBi jak już nie będzie miał argumentów to zacznie dzielić DLSS na ten lepszy i gorszy.

Mam dwa monitory oled 1440p, i 4K i wiem co widzę przed oczmami. Ja nie mam zamiaru schodzić z DLSS Q na monitorze 4K, jak również nie mam zamiaru nagle udawać, że DLSS P na monitorze 4K dobrze wygląda. Natomiast jak odpaliłem u siebie na monitorze 1440p DLSS Q to byłem w lekkim szoku. To zdecydowanie nie jest ten sam poziom co 4k+DLSS Q. O tym też pisałem, ale 5090 sprzedałem, więc już się nie będę wypowiadał o własnych doświadczeniach.

Edytowane przez DżonyBi
Opublikowano

No i spoko.

Większość pewnie jednak uważa ze dopłacanie takich kwot która żąda Nvidia jest niewarta różnicy jakości obrazu w DLSS.

Inaczej wszyscy by mieli 5090.

Narracja zawsze wygląda podobnie, obraz jest super, dopóki masz wystarczająco dużo mocy.

Jak nagle nie masz to magicznie niższe ustawienia "nie wyglądają tak źle".

Opublikowano

side to jest kwestia przyzwyczajenia. Tu nie ma żadnej magii.

DLSS nie stałby się tak popularny, gdyby tylko w DLSS Q miał dobra jakość obrazu, albo napiszmy akceptowalna dla graczy.

A pamięta ktoś jeszcze ze DLSS ma ustawienie Ultra Quality które ma 77% natywnej ? Ciekawe, dlaczego Nvidia je porzuciła %-)

Opublikowano (edytowane)
35 minut temu, Kadajo napisał(a):

DLSS nie stałby się tak popularny, gdyby tylko w DLSS Q miał dobra jakość obrazu, albo napiszmy akceptowalna dla graczy.

Jest popularny, bo daje darmowe fpsy, a jakość schodzi na dugi plan jak nie masz możlwości jej podnieść. To nie ma nic wspólnego z tym, że DLSS P ma dobrą jakość obrazu, a sam obiektywizm tutaj jak najbardziej jest możliwy, bo mamy wzorzec czyli natywny obraz.

Edytowane przez DżonyBi
Opublikowano
3 minuty temu, DżonyBi napisał(a):

Jest popularny, bo daje darmowe fpsy.

Jest popularny, bo nie masz innego wyboru jak nie chcesz oglądać pokazu slajdów a zachować wysokie ustawienia grafiki.

4 minuty temu, DżonyBi napisał(a):

a jakość schodzi na dugi plan jak nie masz możlwości jej podnieść.

Jak to nie masz możliwości jej podnieść masz jeszcze DLAA, masz możliwość ustawić % wyżej skalowanie niż 68% (pisałem o Ultra Quality który ma domyślanie 77%).

Topowa karta powinna dać możliwość grac na topowych ustawieniach prawda a takim ustawaniem jest DLAA, a nie DLSS, DLSS każdy używa jak nie ma wystarczającej mocy w karcie jak sam właśnie napisałeś.

No i właśnie. Dlaczego na 5090 nie używasz DLAA nad DLSS przecież ma lepsza jakość obrazu... no właśnie sam sobie odpowiedziałeś dlaczego.

Opublikowano (edytowane)

Jak nie masz możliwości jej podnieść na słabym sprzęcie i jesteś skazany na DLSS P. To nie mam nic wspólnego z akceptacją jakości DLSS przez graczy. Jak nie tego co się lubi, to..

 

To chciałem napisać odnośnie tego dlaczego dlss jest popularny. Jakościowy DLSS to jest na monitorze 4K z nastawem Q.

 

Edytowane przez DżonyBi
Opublikowano

I w sumie to jest bardzo ciekawe, bo właściciele 5090 zazwyczaj rozpływają sie jaka to wspaniała jest jakość DLAA w 4K, ale tam, gdzie DLAA dławi ich kartę jak morderca to w sumie nagle nie widza różnicy miedzy DLSS Q i ze no ...
te DLAA to w sumie bez sensu jest w tej grze :)

Opublikowano (edytowane)

Szczerze to mnie mało obchodzi co oni tam widzą.

 

Ja u siebie przełączam między DLAA,  a DLSS Q, żeby  porównać i często nawet jak karta daje radę w DLAA to i tak świadomie wybieram DLSS Q, bo różnica czasem jest tak mała, że nie widzę sensu przepłacać tego dodatkowymi watami. Mówię cały czas o wyświetlaczu 4K.

Edytowane przez DżonyBi
Opublikowano
Godzinę temu, DżonyBi napisał(a):

Mam dwa monitory oled 1440p, i 4K i wiem co widzę przed oczmami. Ja nie mam zamiaru schodzić z DLSS Q na monitorze 4K, jak również nie mam zamiaru nagle udawać, że DLSS P na monitorze 4K dobrze wygląda. Natomiast jak odpaliłem u siebie na monitorze 1440p DLSS Q to byłem w lekkim szoku. To zdecydowanie nie jest ten sam poziom co 4k+DLSS Q. O tym też pisałem, ale 5090 sprzedałem, więc już się nie będę wypowiadał o własnych doświadczeniach.

Na co wymieniłeś?

Opublikowano
Godzinę temu, Kadajo napisał(a):

side to jest kwestia przyzwyczajenia. Tu nie ma żadnej magii.

DLSS nie stałby się tak popularny, gdyby tylko w DLSS Q miał dobra jakość obrazu, albo napiszmy akceptowalna dla graczy.

A pamięta ktoś jeszcze ze DLSS ma ustawienie Ultra Quality które ma 77% natywnej ? Ciekawe, dlaczego Nvidia je porzuciła %-)

Brzydką mówiąc ludzie to by gówno zjedli niektórzy twierdzili, że DLSS 1.x był dobry, a 2.x to już jest lepiej niż natywna to o czym mowa :hihot:

Ultra Quality cały czas istnieje to tylko kwestia developera czy udostępni go w grze, a Ty możesz sobie ustawić dowolne skalowanie z dokładnością do 1% ;)

To zależy od gry niektóre same w sobie są rozmyte, textury słabej jakości to słabo wtedy widać ubytek jakości nawet po włączeniu DLSS P ;)

Już pomijam ślepych klientów, którzy nic nie widzą :E

Opublikowano
13 minut temu, DżonyBi napisał(a):

Szczerze to mnie mało obchodzi co oni tam widzą.

 

Ja u siebie przełączam między DLAA,  DLSS Q, żeby  porównać i często nawet jak karta daje radę w DLAA to i tak świadomie wybieram DLSS Q, bo różnica czasem jest tak mała, że po co przepłacać dodatkowymi watami. Mówię cały czas o wyświetlaczy 4K.

To jak cię mało co obchodzi co inni tam widza to, co się czepiasz tego, co inni mają do powiedzenia, bo podejrzewam ze tez cię to mało co obchodzi.

 

A ja widzę za każdym razem wyraźną różnicę miedzy DLSS Q a DLAA i nie wiem, jak można nie widzieć tej różnicy. Oczywiście pisze też o 4K i pisze o najnowszym DLSS jaki można dziś użyć i najnowszych presetach.

Różnica w jakości obrazu za każdym razem jest zdecydowanie większa miedzy DLAA a DLSS Q niż miedzy DLSS Q a DLSS P.

Może to kwestia oka, może to kwestia tego, że wiem, na co zwrócić uwagę.

7 minut temu, sideband napisał(a):

Brzydką mówiąc ludzie to by gówno zjedli niektórzy twierdzili, że DLSS 1.x był dobry, a 2.x to już jest lepiej niż natywna to o czym mowa :hihot:

Ultra Quality cały czas istnieje to tylko kwestia developera czy udostępni go w grze, a Ty możesz sobie ustawić dowolne skalowanie z dokładnością do 1% ;)

To zależy od gry niektóre same w sobie są rozmyte, textury słabej jakości to słabo wtedy widać ubytek jakości nawet po włączeniu DLSS P ;)

Już pomijam ślepych klientów, którzy nic nie widzą :E

No i właśnie dlatego mamy przechlapane :E

 

Akurat dobry materiał wpadł ... :E

Co prawda nie ta gra, ale... porównanie idealne do tego, o czym rozmawiamy :E

 

 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...