Skocz do zawartości

Krisol

Użytkownik
  • Postów

    42
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Krisol

  1. U mnie to nieco ponad 1.1V ale taktowanie rdzeni P lekko spada (gdzieś do okolic 5.2 GHz), każde 100 MHz więcej względem fabrycznych 5.3 GHz jest "drogie" jeśli chodzi o volty, a 130W to i tak jak dla mnie dużo jak na CPU.
  2. Najprościej zmienić ustawienia jak poniżej: 1. Domyśle ustawienia BIOS/UEFI 2. Włączyć profil "Intel Default" 3. IA CEP -> off 4. CPU Load Line Calibration -> jak najniżej, najlepiej level 1 U mnie na PRIME B760M-A WIFI D4 daje to 131W i taki sam wynik w CB 2024 jak przy 181W (1382 punkty), chłodzenie Fera 3 daje radę.
  3. Ostatni już test, Hogwarts Legacy, ustawienia ultra, RT ultra, frame gen on, DLAA, 1080p - ponownie bez różnicy w wydajności, gdyż alokacja VRAM przez grę na tym etapie to okolice 4.7GB. Podsumowując, można przyjąć, że w grach które potrzebują więcej niż ~7.5GB VRAM wydajność będzie wyższa jeśli monitor będzie podpięty do iGPU, jeśli potrzebują mniej, będzie taka sama lecz przy założeniu, że system to Windows 11, a procesor to Intel generacji 11 lub nowszy, bądź Ryzen 6000 lub nowszy.
  4. Wiedźmin 3, ustawienia RT Ultra, DLSS quality, 1080p, frame gen - podobna sytuacja jak w Rift Apart, bez różnicy.
  5. Rift Apart bez różnicy w wydajności, jednak to spodziewane gdyż gra na tym etapie wymaga jakieś 7GB VRAM, ustawienia very high + ray tracing very high, 1080p, DLAA.
  6. Nowy test i niespodzianka, w The Last of Us Part I wydajność jest o 12% wyższa kiedy monitor podpięty jest do iGPU. Najprawdopodobniej jest to zasługa dodatkowych 500MB wolnej pamięci VRAM na karcie graficznej. Poniżej zrzuty ekranu, wyniki powtarzalne - testy robione 3 razy, na zasadzie przepięcie kabla -> restart komputera -> uruchomienie gry. Ustawienia ultra, 1080p, DLAA. Zamierzam przetestować jeszcze parę gier, myślę że Hogwarts Legacy, Ratchet & Clank Rift Apart i może Wiedźmin 3.
  7. @VRman Tylko że 9800X3D + 5060 Ti 16 GB kosztuje tyle co 14600K + RTX 5070 + B760 z WiFi i PCI-E 5.0, który jest o wiele bardziej zbalansowanym zestawem, szczególnie do ewentualnego monitora 1440p.
  8. Tak szczerze to "najlepiej" kupić i5-14600K z DDR5 6800-7200, niedawno bywał za 599 zł w wersji KF, być może że jeszcze coś się pojawi - wydajność w grach na poziomie R5 9600X, w programach wielowątkowych jak R7 9700X. W porównaniu do 7800X3D - o 15% wolniejszy w grach, o 10% szybszy w programach, w porównaniu do 9800X3D - o 25% wolniejszy w grach, o 10 % wolniejszy w programach.
  9. 9800X3D będzie nieco szybszy w Photoshopie o ile to ma aż takie znaczenie, do gier lepiej RTX 5060 Ti.
  10. Ci którzy posiadają starsze CPU mogą spróbować manualnie przydzielić procesy Windowsa do iGPU mając monitor podpięty pod dGPU. https://www.reddit.com/r/OptimizedGaming/comments/1j7jmvq/guide_reduce_vram_usage/ https://www.reddit.com/r/buildapc/comments/1mea3w0/how_to_decrease_vram_usage_with_an_igpu/
  11. Tak, CASO wymaga WDDM 3.0/3.1, więc zadziała tylko na W11 w grach z DX11 oraz DX12, dla Intela od premierowej wersji W11, dla AMD od 22H2.
  12. No dobrze, moje prywatne testy mówią co innego niż ten prywatny test z YT.
  13. Czyli bez obsługi Cross Adapter Scan-Out, spadek wydajności spodziewany. Tak jak pisałem wcześniej, brak spadku wydajności dotyczy tylko Intela gen 11+ albo Ryzena 6000+.
  14. @janek25 Na jakim CPU i OS było sprawdzane?
  15. Ryzen 7700 nigdy nie zejdzie nisko z poborem ze ściany bo to modułowy CPU, na Intelu czy monolitycznym Ryzenie pobór prądu jest o połowę niższy przy niskim obciążeniu. iGPU jest w IOD, które samo pobiera stale 15W przy włączonym EXPO, do tego aktywne połączenie między CCD a IOD (Infinity Fabric) z 10W, zatem wyłączenie iGPU nie ma prawa nic dać jeśli monitor jest podpięty pod dGPU, bo nie ma to praktycznie żadnego wpływu na zużycie mocy przez IOD czy Infinity Fabric.
  16. Jeśli o mnie mowa to faktycznie nie odczuwam różnicy w lagu między iGPU a dGPU w Modern Warfare 2, bo po prostu nie ma różnicy.
  17. Wszystko działa, gra nie widzi różnicy między podpięciem monitora do dGPU czy iGPU. Jedyna różnica którą póki co zauważyłem to brak obsługi RTX HDR. U siebie mam 1080p 75 Hz, nie próbowałem wyższej rozdzielczości ani odświeżania.
  18. SPRZEDANE 139 zł - https://allegrolokalnie.pl/oferta/battlefield-6-klucz-intel-gamer-days
  19. @Send1N Nie ale to subiektywne odczucie. @sideband Nie działa tak samo, patrz powyżej Cross Adapter Scan-Out dla Windows 11 z WDDM 3.0. Polecam przetestować na nowszej platformie, minimum Intel 11 gen (Xe) lub Ryzen 6000 (RDNA 2). Obecnie praktycznie każdy program ma sprzętową akcelerację, przykładowo Windows + sterowniki i do tego nawet zminimalizowane trzy programy: 1 karta w Edge, Discord i Steam zajmują łącznie 0.8 GB VRAM. @musichunter1x Przepustowość VRAM nie ma w tym przypadku żadnego znaczenia, natomiast PCI-E 4.0 8x to przepustowość 16 GB/s, jedna ramka 1080p RGB 8-bit to okolice 8 MB, więc przy 120 FPS będzie to wymagać 960 MB/s, zatem bez problemu. Dodatkowe testy w benchmarkach, wybrany lepszy wynik z dwóch przebiegów, Nvidia na górze, Intel na dole. Wyszło 1-2% różnicy, czyli w granicy błędu pomiarowego.
  20. No nie wiem, na moim sprzęcie działa to jak dla mnie identycznie + oszczędza się 0.5 GB VRAM. Dekada to przepaść w stosowanych technologiach.
  21. @janek25 Tak ale Microsoft ma rozwiązanie programowe Cross Adapter Scan-Out, które działa tak samo jak przełącznik MUX, wsparcie zaczyna się od Intela 11 gen oraz Ryzena 6000. https://devblogs.microsoft.com/directx/optimizing-hybrid-laptop-performance-with-cross-adapter-scan-out-caso/ https://learn.microsoft.com/en-us/windows-hardware/drivers/display/supporting-caso @AndrzejTrg Tak dobrze to nie ma, gra nadal renderowana jest na dedykowanej karcie, tak samo jak gdyby monitor podpięty był do RTXa.
  22. Moim zdaniem nie ma różnicy w wydajności po przejściu całego tego początkowego kanionu w MW2, jednak przydałby się jakiś profesjonalny test. Niedługo wychodzi Battlefield 6 więc tam przetestuję, póki co zostaję podpięty pod iGPU. Przy okazji można zaoszczędzić nawet tą symboliczną ilość prądu, integra praktycznie nic nie pobiera.
  23. Ciężko stwierdzić, moim zdaniem bez większych różnic.
  24. Każda szanujący się pecetowiec wie, że monitor należy podpiąć do portu w dedykowanej karcie graficznej. Ale czy na pewno? Przeprowadziłem testy w grze Modern Warfare 2 oraz It Takes Two na maksymalnych ustawieniach na karcie graficznej Nvidia RTX 4060 oraz Intel UHD 770 (i5-14600K), płyta główna Asus PRIME B760M-A WIFI D4, RAM Kingston FURY Renegade DDR4 32GB 3600MHz CL16. System to Windows 11, w tle uruchomione wyłącznie sterowniki do obu kart graficznych oraz MSI Afterburner. Góra monitor podpięty do karty Nvidia, dół monitor podpięty do płyty głównej, czyli do karty zintegrowanej Intel. Jak widać FPS jest zbliżony, natomiast można zaoszczędzić nawet 0.5 GB pamięci na karcie graficznej, ponieważ renderowanie nakładki Windowsa jest realizowane przez zintegrowaną grafikę, a dedykowana karta jest wykorzystywana wyłącznie do renderowania gry, po czym klatki kopiowane są do zintegrowanej grafiki, która następnie wysyła je do monitora. Taka oszczędność na karcie graficznej z 8GB VRAM w niektórych grach mogłoby oznaczać np. możliwość użycia frame generation, wyższych tekstur lub ray tracingu. Ktoś ma może chęci na podjęcie się realizacji jakiegoś obszerniejszego testu? @Lipton @S.Oktaba @Tomcug
  25. @bluebart Przecież to bez znaczenia bo to jednolita masa, połóż tak jak będzie wygodniej. BTW ta tamka dla AM5 coś w ogóle daje poza względem estetycznym? Z tego co wiem tylko na LGA1700 jest ten problem z wyginaniem IHS.
×
×
  • Dodaj nową pozycję...