Skocz do zawartości

Krisol

Użytkownik
  • Postów

    42
  • Dołączył

  • Ostatnia wizyta

1 obserwujący

Ostatnie wizyty

Blok z ostatnimi odwiedzającymi dany profil jest wyłączony i nie jest wyświetlany użytkownikom.

Osiągnięcia Krisol

Zielony

Zielony (2/5)

24

Reputacja

  1. U mnie to nieco ponad 1.1V ale taktowanie rdzeni P lekko spada (gdzieś do okolic 5.2 GHz), każde 100 MHz więcej względem fabrycznych 5.3 GHz jest "drogie" jeśli chodzi o volty, a 130W to i tak jak dla mnie dużo jak na CPU.
  2. Najprościej zmienić ustawienia jak poniżej: 1. Domyśle ustawienia BIOS/UEFI 2. Włączyć profil "Intel Default" 3. IA CEP -> off 4. CPU Load Line Calibration -> jak najniżej, najlepiej level 1 U mnie na PRIME B760M-A WIFI D4 daje to 131W i taki sam wynik w CB 2024 jak przy 181W (1382 punkty), chłodzenie Fera 3 daje radę.
  3. Ostatni już test, Hogwarts Legacy, ustawienia ultra, RT ultra, frame gen on, DLAA, 1080p - ponownie bez różnicy w wydajności, gdyż alokacja VRAM przez grę na tym etapie to okolice 4.7GB. Podsumowując, można przyjąć, że w grach które potrzebują więcej niż ~7.5GB VRAM wydajność będzie wyższa jeśli monitor będzie podpięty do iGPU, jeśli potrzebują mniej, będzie taka sama lecz przy założeniu, że system to Windows 11, a procesor to Intel generacji 11 lub nowszy, bądź Ryzen 6000 lub nowszy.
  4. Wiedźmin 3, ustawienia RT Ultra, DLSS quality, 1080p, frame gen - podobna sytuacja jak w Rift Apart, bez różnicy.
  5. Rift Apart bez różnicy w wydajności, jednak to spodziewane gdyż gra na tym etapie wymaga jakieś 7GB VRAM, ustawienia very high + ray tracing very high, 1080p, DLAA.
  6. Nowy test i niespodzianka, w The Last of Us Part I wydajność jest o 12% wyższa kiedy monitor podpięty jest do iGPU. Najprawdopodobniej jest to zasługa dodatkowych 500MB wolnej pamięci VRAM na karcie graficznej. Poniżej zrzuty ekranu, wyniki powtarzalne - testy robione 3 razy, na zasadzie przepięcie kabla -> restart komputera -> uruchomienie gry. Ustawienia ultra, 1080p, DLAA. Zamierzam przetestować jeszcze parę gier, myślę że Hogwarts Legacy, Ratchet & Clank Rift Apart i może Wiedźmin 3.
  7. @VRman Tylko że 9800X3D + 5060 Ti 16 GB kosztuje tyle co 14600K + RTX 5070 + B760 z WiFi i PCI-E 5.0, który jest o wiele bardziej zbalansowanym zestawem, szczególnie do ewentualnego monitora 1440p.
  8. Tak szczerze to "najlepiej" kupić i5-14600K z DDR5 6800-7200, niedawno bywał za 599 zł w wersji KF, być może że jeszcze coś się pojawi - wydajność w grach na poziomie R5 9600X, w programach wielowątkowych jak R7 9700X. W porównaniu do 7800X3D - o 15% wolniejszy w grach, o 10% szybszy w programach, w porównaniu do 9800X3D - o 25% wolniejszy w grach, o 10 % wolniejszy w programach.
  9. 9800X3D będzie nieco szybszy w Photoshopie o ile to ma aż takie znaczenie, do gier lepiej RTX 5060 Ti.
  10. Ci którzy posiadają starsze CPU mogą spróbować manualnie przydzielić procesy Windowsa do iGPU mając monitor podpięty pod dGPU. https://www.reddit.com/r/OptimizedGaming/comments/1j7jmvq/guide_reduce_vram_usage/ https://www.reddit.com/r/buildapc/comments/1mea3w0/how_to_decrease_vram_usage_with_an_igpu/
  11. Tak, CASO wymaga WDDM 3.0/3.1, więc zadziała tylko na W11 w grach z DX11 oraz DX12, dla Intela od premierowej wersji W11, dla AMD od 22H2.
  12. No dobrze, moje prywatne testy mówią co innego niż ten prywatny test z YT.
  13. Czyli bez obsługi Cross Adapter Scan-Out, spadek wydajności spodziewany. Tak jak pisałem wcześniej, brak spadku wydajności dotyczy tylko Intela gen 11+ albo Ryzena 6000+.
  14. @janek25 Na jakim CPU i OS było sprawdzane?
  15. Ryzen 7700 nigdy nie zejdzie nisko z poborem ze ściany bo to modułowy CPU, na Intelu czy monolitycznym Ryzenie pobór prądu jest o połowę niższy przy niskim obciążeniu. iGPU jest w IOD, które samo pobiera stale 15W przy włączonym EXPO, do tego aktywne połączenie między CCD a IOD (Infinity Fabric) z 10W, zatem wyłączenie iGPU nie ma prawa nic dać jeśli monitor jest podpięty pod dGPU, bo nie ma to praktycznie żadnego wpływu na zużycie mocy przez IOD czy Infinity Fabric.
×
×
  • Dodaj nową pozycję...