Skocz do zawartości

SebastianFM

Użytkownik
  • Postów

    738
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez SebastianFM

  1. Odkryłeś Amerykę. 🙂
  2. @leven, ten problem to jest tylko w twojej głowie. Znowu to narzekanie. Jak ci tak bardzo nie pasują rdzenie E to możesz je wyłączyć. Poza tym czemu w takim razie nie wziąłeś AMD?
  3. To ty przeczytaj te komentarze a nie opowiadasz bajki. W ostatnim czasie potrafili ludziom anulować normalne zamówienia bez powodu, poza tym sprzedają towar, którego nie mają na stanie. Mogę się założyć, że ci anulują.
  4. @Pitt_34, wystarczy przeczytać komentarze o sprzedającym, żeby wiedzieć, że nie wyślą.
  5. @sideband, programy i niektóre gry można uruchomić na rdzeniach E tak żeby działały dokładnie tak jakby rdzenie P były wyłączone. 1. Powinno się ograniczyć liczbę równoległych wątków uruchamianych przez grę. Jeżeli gra jest uruchamiana na rdzeniach E to powinna korzystać z 16 zamiast 32 równoległych wątków. Np. w Battlefield 6 można ustawić liczbę wątków za pomocą user.cfg, w Cyberpunk 2077 uruchamiając grę z odpowiednim argumentem wiersza poleceń. Ja napisałem mały program na własny użytek, który podczas uruchamiania gry podmienia funkcję używaną przez grę do sprawdzania liczby rdzeni procesora. Oszukuje on w ten sposób grę, że procesor ma tylko 16 rdzeni E przez co gra nie tworzy i nie uruchamia więcej niż 16 równoległych wątków. 2. Ustawienie koligacji na rdzenie E. 3. Dodatkowo można wpisem w rejestrze zarezerwować rdzenie P tak, żeby nawet system na nich nic nie uruchamiał. Nie trzeba wtedy nawet korzystać z koligacji. Cyberpunk 2077, ustawienia Ray Tracing: Ultra, miejsce testowe @tomcug'a, uruchomiony w 16 wątkach na rdzeniach E.
  6. Tylko, że to jest mniej niż 5% różnicy.
  7. @Kadajo, na tej samej zasadzie mógłbyś jechać po 9950X3D a jednak tego nie robisz. Procesor ma dużo rdzeni, gra wykorzystuje wszystkie dostępne więc pobór mocy jest wyższy. To nie jest wina Intel'a chociaż mogli pomyśleć i zrobić procesor typowo dla graczy, np. tylko 8 rdzeni P z HT albo 8 rdzeni P bez HT i 8 rdzeni E. Swoją drogą jak każda trochę ogarnięta osoba da radę ustawić ten procesor typowo pod gry, ograniczając znacznie pobór mocy i nie tracąc wydajności. Co ma na celu twoje narzekanie?
  8. 130 W różnicy czyli to znaczy, że porównujesz i7-14700K na domyślnych, bardzo nieoptymalnych ustawieniach z 9800X3D po UV inaczej nie ma szans, żeby było aż tyle. W ogóle to bez sensu porównywać 8 rdzeniowy procesor z 20 rdzeniowym procesorem skoro wiadomo, że dodatkowe rdzenie nie zwiększą wydajności w grach a tylko zwiększają pobór mocy. Poza tym @Kadajo bardzo przesadza z tym, że tego procesora nie da się schłodzić. Nawet na domyślnych ustawieniach pobór mocy podczas gry nie jest taki, żeby zwykłe chłodzenie powietrzne sobie nie poradziło.
  9. @Kadajo, ja mam jedno pytanie, dlaczego ty jako odpowiednik 9800X3D stawiasz i9-14900K? Bardziej odpowiednie byłoby porównanie do i7-14700K tylko wtedy nie pasowałoby pewnie do twojej narracji o cenie, poborze mocy, wymaganym chłodzeniu itp.
  10. @MaxaM, to nie ja robię wywody tylko wy nie mając pojęcia nawet o podstawowych rzeczach. Piszesz, że to co pokazałem nic nie wnosi a to ty nie potrafisz wyciągnąć z tego sensownych wniosków. Np. drugi i czwarty etap z tych zaznaczonych przeze mnie. W 1080p nie odczytują z VRAM, ponieważ przetwarzane dane mieszczą się w cache. W 4K podczas tych dwóch etapów trwających 1,2 ms odczytywanych jest z pamięci VRAM około 130 MB danych. Czy wpływa to negatywnie na wydajność? Oczywiście, że nie, nawet w najmniejszym stopniu. To właśnie obala hipotezę @musichunter1x'a, że trzeba coś blokować w cache, że są jakieś niby przycięcia jak dane nie mieszczą się w cache, itp.
  11. @MaxaM, kolejna porcja domysłów i zgadywanek. Ja natomiast opieram się na faktach. Próbujecie być mądrzejsi od inżynierów NVIDIA. Ty się mądrzysz o jakimś wypadaniu jakichś stałych danych, jakichś instrukcji z cache. Wiesz w ogóle o czym piszesz?
  12. Zrobiłem takie porównanie, DLSS 4.5 (v310.5.2), DLAA, Preset M, 1080p vs 4K. Celowo użyłem DLAA, żeby rozmiar danych wchodzących był większy. Z całego przetwarzania DLSS zaznaczyłem w obydwu przypadkach te same 5 etapów. Statystyki po prawej stronie dotyczą tylko zaznaczonego fragmentu. 1080p. 4K. Widać, że w wyższej rozdzielczości jest odczytywanych i zapisywanych w pamięci VRAM więcej danych jednak nie wpływa to negatywnie na wydajność.
  13. @tomcug, mam dla ciebie bardzo proste wyjaśnienie skąd taka różnica między RTX 2080 Ti i RTX 3080 Ti. Obliczenia wykonywane przez rdzenie Tensor to tylko połowa pracy. W najnowszym DLSS wykonywanych jest też bardzo dużo obliczeń na zwykłych jednostkach, a tutaj już jest duża różnica w wydajności.
  14. Ty cały czas robisz błędne założenia. GPU przetwarza obraz/dane małymi fragmentami. Przetwarzanie jest podzielone na etapy i jest rozłożone w czasie. W każdym etapie każdy SM dostaje do przetworzenia małą część. Jak skończy przetwarzanie to dostaje kolejną.
  15. @Pawcio, ja miałem przez długi czas taką samą płytę główną jak ty. Zerknij na moje odpowiedzi z początku tego tematu. Jak zmieniasz CPU Vcore Loadline Calibration to musisz odpowiednio ustawić też wartości AC/DC Loadline. Ja ci proponuję zostawić na Auto. Sprawdź za pomocą HWiNFO wartości AC/DC Loadline. Jeżeli pokazuje ci 90/90 to znaczy, że ustawienia nie są optymalne. Musisz wtedy wyłączyć Intel Default Settings i ręcznie ustawić limity PL1, PL2 i IccMax.
  16. @musichunter1x, co ty mi tłumaczysz? Właśnie gdyby w wyższej rozdzielczości był spadek wydajności większy niż to wynika z większej ilości obliczeń spowodowanej większą liczbą pikseli, to wtedy możnaby spekulować, że rozmiar cache jest niewystarczający. Przy DLSS coś takiego nie ma miejsca. W 4K przetwarzanie DLSS zajmuje 4 razy dłużej niż w 1080p. Karta z 2 razy większą wydajnością w obliczeniach ma 2 razy krótszy czas przetwarzania pomimo tego, że nie ma 2 razy większego cache.
  17. @musichunter1x, jak się stawia jakąś tezę to wypadałoby mieć argumenty na jej poparcie a tobie ich brakuje. Porównanie wydajności DLSS na różnych kartach graficznych z różnym rozmiarem pamięci cache potwierdza, że nie masz racji w tym temacie. RTX 4090 ma większy rozmiar cache od RTX 4080 o 12,5% natomiast ma o 50% wydajność w 4K. RTX 4090 ma większy rozmiar cache od RTX 4070 Ti o 50% natomiast ma prawie 2 razy wyższą wydajność w 4K. Zwróćcie uwagę, że właśnie w 4K jest największa różnica w wydajności a przy niewystarczającym rozmiarze pamięci cache byłaby zupełnie odwrotna tendencja.
  18. @Kadajo, to są błędne wnioski. Ograniczeniem jest wydajność jednostek obliczeniowych.
  19. To są bzdury, że akurat DLSS wymaga dużego cache. NVIDIA w generacji RTX 40 znacznie zmniejszyła przepustowość pamięci a duży cache to rekompensuje. Było już wiele dyskusji na ten temat więc myślę, że nie ma co do tego wracać. Wystarczy sobie porównać specyfikację i wydajność w grach RTX 3090 Ti z RTX 4070 Ti. Używając profilera NVIDIA Nsight Graphics można uzyskać dużo ciekawych informacji. Ilość danych przetwarzanych przez DLSS jest dużo większa niż rozmiar cache, nawet przy rozdzielczości wyjściowej 1080p. DLSS 4.5 (v310.5.2), Performance, Preset M. Całe przetwarzanie DLSS na GPU (RTX 4070 Ti) zajmuje w zależności od rozdzielczości wyjściowej: 1080p: 0,79 ms, 1440p: 1,24 ms, 4K: 2,75 ms. Raczej z tych czasów nie wynika, że rozmiar cache ma wpływ na wydajność. W rozdzielczości 4K jest 4 razy więcej danych do przetworzenia i 4 razy więcej obliczeń niż w 1080p a czas jest 3,48 razy dłuższy. Przy rozdzielczości wyjściowej 4K podczas jednego przetwarzania DLSS, Performance, Preset M odczytywanych z pamięci VRAM jest 477 MB a zapisywanych 416 MB.
  20. @Pentium D, ten wbudowany to się nie nadaje do testowania, za słabo ciśnie. W wymagającym miejscu testowym samo obniżenie tRFC i zwiększenie tREFI, w porównaniu z wartościami ustawianymi domyślnie przy XMP, daje nawet 10% wydajności. Sprawdzaj, którą podał @tomcug.
  21. @MarcoSimone, zamiast tego mema powinno być ELI5.
  22. Przecież to ty nie masz racji a najlepsze jest to, że właśnie sam wyciągnąłeś błędne wnioski z tych screen'ów z CapFrameX. CPU max thread load to nie jest obciążenie całego procesora! W żadnej grze obciążenie procesora nie będzie wynosiło 100%. Wynika to z tego, że nie da się wszystkich obliczeń zrównoleglić i rozdzielić na wszytkie rdzenie. Przykład, użycie rdzeni w Battlefield 6.
  23. @leven, jak ci brakuje wydajności na rdzeniach P to możesz ją zwiększyć aż o 38% przesiadając się na i7-14700K.
  24. @Linku, na pewno możesz spróbować obniżyć wartości tRFC2 i tRFCpb. Nie napisałeś na jakim napięciu działają pamięci a wartość pokazywana przez pyhwinfo (DIMM VDD) na pewno nie jest prawidłowa. Możesz spróbować zwiększyć napięcie o np. 0,05 V i zmniejszyć tCL o 2.
  25. Twoja odpowiedź świadczy o ignorancji lub lenistwie. Taki problem sprawdzić, kto odpowiada za ten program? GPU-Z też unikasz?
×
×
  • Dodaj nową pozycję...