Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano (edytowane)

Każda szanujący się pecetowiec wie, że monitor należy podpiąć do portu w dedykowanej karcie graficznej. Ale czy na pewno?

Przeprowadziłem testy w grze Modern Warfare 2 oraz It Takes Two na maksymalnych ustawieniach na karcie graficznej Nvidia RTX 4060 oraz Intel UHD 770 (i5-14600K), płyta główna Asus PRIME B760M-A WIFI D4, RAM Kingston FURY Renegade DDR4 32GB 3600MHz CL16. System to Windows 11, w tle uruchomione wyłącznie sterowniki do obu kart graficznych oraz MSI Afterburner.

Góra monitor podpięty do karty Nvidia, dół monitor podpięty do płyty głównej, czyli do karty zintegrowanej Intel.


image.thumb.png.c97f42d550a2965e74b87135098a51ae.png

image.thumb.png.0dfec04517398e3188acd205fd42c603.png

 

 

image.thumb.png.5a2a8973f68eabc5f00ecd3507eb645a.png

image.thumb.png.69be40e1c9a217143b1bbd3d4c1daa80.png

 

 

image.thumb.png.0a4a12dfdd088e6d7b40aa7dac5b64e1.png

image.thumb.png.c8d65e17aaa19a00ed265acac22ad621.png

 

 

image.thumb.png.0512d3ce10db101b7f7eb578baeb96dd.png

image.thumb.png.1c5fea485787aef0bfa876b017efcd0d.png

 

Jak widać FPS jest zbliżony, natomiast można zaoszczędzić nawet 0.5 GB pamięci na karcie graficznej, ponieważ renderowanie nakładki Windowsa jest realizowane przez zintegrowaną grafikę, a dedykowana karta jest wykorzystywana wyłącznie do renderowania gry, po czym klatki kopiowane są do zintegrowanej grafiki, która następnie wysyła je do monitora. Taka oszczędność na karcie graficznej z 8GB VRAM w niektórych grach mogłoby oznaczać np. możliwość użycia frame generation, wyższych tekstur lub ray tracingu.

 

Ktoś ma może chęci na podjęcie się realizacji jakiegoś obszerniejszego testu?

@Lipton  @S.Oktaba  @Tomcug

Edytowane przez Krisol
  • Thanks 1
  • Upvote 2
Opublikowano (edytowane)

U mnie z 10 procent wolniej 😜 od siebie jeszcze dorzucę prośbę o sprawdzenie narzutu sterownika z GPU i gpu+ igpu

Bo tu może wyjść ciekawostka 

Edytowane przez janek25
Opublikowano (edytowane)

Nawet gdyby było 10-20% mniej wydajności... Zapchanie Vramu zdecydowanie bardziej zaboli niż taki ubytek.
Taki wiedźmin 3 z RT i DLSS prawie mieści się w 8gb, zapycha się po chwili grania. Możliwe że wtedy rtx5060ti 8gb na pcie 5.0 / 4.0 były do uratowania w niektórych sytuacjach... A będą sprzedawane za grosze, gdy wyjdzie rtx5060 super z 12gb, choć już teraz je kupują na nędznych promocjach, więc Nvidia pewnie wstrzyma produkcję dużo wcześniej. 

Edytowane przez musichunter1x
Opublikowano (edytowane)
2 godziny temu, AndrzejTrg napisał(a):

A może pokaż obraz gdzie coś jest w ruchu albo coś się dzieje, ponieważ porównywać statyczny obraz z dedyka do integry jest lekko bez sensu, to tak jakbyś porównywał białe tło :) 

Moim zdaniem nie ma różnicy w wydajności po przejściu całego tego początkowego kanionu w MW2, jednak przydałby się jakiś profesjonalny test. Niedługo wychodzi Battlefield 6 więc tam przetestuję, póki co zostaję podpięty pod iGPU. Przy okazji można zaoszczędzić nawet tą symboliczną ilość prądu, integra praktycznie nic nie pobiera.

Edytowane przez Krisol
Opublikowano (edytowane)

@KrisolSprawdź coś mocno dociskającego pamięć i przepustowość. Może Spiderman 2, Wiedźmin 3 z RT + DLSS, gdzie na 8gb na pewno zapcha Vram. Sztuczka z integrą może pomoże, ale nie na rtx4060, ponieważ ma pcie x8 4.0 oraz niską przepustowość Vramu.

Edytowane przez musichunter1x
Opublikowano (edytowane)

@janek25

Tak ale Microsoft ma rozwiązanie programowe Cross Adapter Scan-Out, które działa tak samo jak przełącznik MUX, wsparcie zaczyna się od Intela 11 gen oraz Ryzena 6000.

https://devblogs.microsoft.com/directx/optimizing-hybrid-laptop-performance-with-cross-adapter-scan-out-caso/

https://learn.microsoft.com/en-us/windows-hardware/drivers/display/supporting-caso

 

@AndrzejTrg

Tak dobrze to nie ma, gra nadal renderowana jest na dedykowanej karcie, tak samo jak gdyby monitor podpięty był do RTXa.

Edytowane przez Krisol
Opublikowano (edytowane)

No nie wiem, na moim sprzęcie działa to jak dla mnie identycznie + oszczędza się 0.5 GB VRAM. Dekada to przepaść w stosowanych technologiach.

Edytowane przez Krisol
Opublikowano
6 minut temu, Krisol napisał(a):

No nie wiem, na moim sprzęcie działa to jak dla mnie identycznie + oszczędza się 0.5 GB VRAM. Dekada to przepaść w stosowanych technologiach.

Hybrid mode kiedyś i teraz działa tak samo. Nie ma znaczenia jakie karty będziesz łączył. To jest funkcjonalność od systemu operacyjnego i można poczytać jak dokładnie to działa. 

Testowałem to do ewentualnego wykorzystania scaline sync tylko okazało się, że nie ma to sensu i lag okazał się tak duży, że było widać piękna gumkę od majtek przy ruchach. Także zysk ze scaline sync, który właściwie nie podnosi laga został "zjedzony" przez hybrydę.

  • Upvote 1
Opublikowano (edytowane)

@Send1N

Nie ale to subiektywne odczucie.

 

@sideband

Nie działa tak samo, patrz powyżej Cross Adapter Scan-Out dla Windows 11 z WDDM 3.0. Polecam przetestować na nowszej platformie, minimum Intel 11 gen (Xe) lub Ryzen 6000 (RDNA 2). Obecnie praktycznie każdy program ma sprzętową akcelerację, przykładowo Windows + sterowniki i do tego nawet zminimalizowane trzy programy: 1 karta w Edge, Discord i Steam zajmują łącznie 0.8 GB VRAM.

 

@musichunter1x

Przepustowość VRAM nie ma w tym przypadku żadnego znaczenia, natomiast PCI-E 4.0 8x to przepustowość 16 GB/s, jedna ramka 1080p RGB 8-bit to okolice 8 MB, więc przy 120 FPS będzie to wymagać 960 MB/s, zatem bez problemu.

 

Dodatkowe testy w benchmarkach, wybrany lepszy wynik z dwóch przebiegów, Nvidia na górze, Intel na dole. Wyszło 1-2% różnicy, czyli w granicy błędu pomiarowego.

 

image.thumb.png.33caa836aecf235c0a3c76131769a5c2.png

image.thumb.png.8412f1b8dca73d7d4b76720f5efcd865.png

 

 

image.thumb.png.765a60e004c454dab5a21170b195f8b0.png

image.thumb.png.58447a52d0935fbbdc57619f1b492582.png

Edytowane przez Krisol
  • Like 1
Opublikowano (edytowane)
11 godzin temu, Krisol napisał(a):

Tak ale Microsoft ma rozwiązanie programowe Cross Adapter Scan-Out,

różne rzeczy obecują

 

Tamten screnn z 3070ti i 12 gen,w11.

Roznica pod 20 %.Zalezy od gry

Ja sprawdzałem na 10850k w the last of us.

Rożnica w przedzałach 10-15%,blizej tego drugiego

Edytowane przez janek25
Opublikowano (edytowane)

@Krisol  Od dłuższego czasu korzystam z tej możliwości, zwłaszcza w pecetach w mini obudowach, w których nie ma miejsca na dodatkowe wentylatory wiejące w stronę k. graficznej.

Na przykład teraz mały 9060XT - uparcie nie chce zejść w najniższy stan energetyczny, przy odpalonym jutubie / twitchu / kicku. Jak bez tego bierze ~5W w spoczynku, tak z odpalonym strimem 18-20W. To już jest za dużo na tryb pasywny, wentylatory co jakiś czas startują, jest to irytujące...


Nie gram w szybkie sieciowe gry multiplayer, nie odczuwam więc żadnego wzrostu input-laga. 

Na zajętość VRAM nie zwracałem uwagi, ale masz rację - testy to jedno, a zwyczajne codzienne użytkowanie to drugie (zawsze coś działa w tle i zawsze coś "podbiera" VRAM).

 

 

i5-13400 + B760 ITX + RTX4060
Ryż 7600 + B650 ITX + 9060XT

obie konfiguracje bezproblemowe - i na pingwinie, i na okienkach. Chociaż w przypadku RTX4060 sens niewielki (grafa bierze mało, także przy akceleracji wideo), na Radeonie zyski są dużo bardziej widoczne.

 

Edytowane przez rzymo
Opublikowano (edytowane)

Dziękuję Side za poparcie :lol2:  

 

Zieloni mają swoje upscalery, dllssy i inne cuda na kółkach. Czy, gdybym podłączył  integrę (14600k)  to czy te bajery od zielonych zostają, czy obraz będzie wyświetlany pod sterownik Intela ?

 

EDIT: czy jest możliwe, żeby dodać Igpu do karty w slocie pci-e jako dopalacz ? Side non stop pali :E 

 

 

Edytowane przez leven
Opublikowano

Jest jeszcze kwestia ile Hz obsluzy dany port.
Nie robilem co prawda testow FPS, ale podlaczeniu monitora (dp - usb C) 'przez' integre dawalo mi maksymalnie 60hz na monitorze, podlaczenie bezposrednie - 144hz (max monitora)
Pacjent rog zephyrus g14 R9 6900 RX6800S

Opublikowano (edytowane)

Podpiąłem monitor do iGPU, aby zobaczyć różnice. W poborze mocy w idle jest mniej o 3W wg miernika w ścianie. W grze Far Cry 6 z fps zablokowanymi na 72 (mam monitor 75Hz) pod iGPU lag był nieco większy, mniej więcej taki jak przy włączonym VSync. Tearingu nie widziałem, więc GSync działał.

W idle pobór mocy dla RTX spadł z 24 do 14W wg GPU-Z, myślałem, że spadnie niemal do zera.

Z kolei z monitorem podpiętym pod dGPU i po wyłączeniu iGPU w biosie zużycie mocy w idle na mierniku wcale nie spadło.

Edytowane przez wamak

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...