Skocz do zawartości

tomcug

Administrator
  • Postów

    4 406
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    109

Treść opublikowana przez tomcug

  1. Ja przechodziłem na 13900K, a wg fanclubu jedynej słusznej opcji z tego forum to już jest ziemniak I gra chodziła elegancko, a zawsze można w razie potrzeby wyłączyć ReBAR, trochę pomoże Głupoty gadasz, dwójka mniej wymagająca jest i także lepiej zarządza VRAM.
  2. Widziałeś, żebym kiedyś klaskał nad jakimś cyrkowym wyczynem Romana? Nie interesują mnie mody, które podnoszą wydajność o kilka procent i pobór prądu o kilkadziesiąt, a z osobą Pana Chasera nie ma to nic wspólnego
  3. Mamy raczej inną definicję bardzo mocnego kompa
  4. Nie będzie, będziesz miał limity mocy jak w każdej innej generacji. A jak będziesz je sobie chciał zdjąć i mieć 700 watów, to zdejmiesz
  5. WOW, bo gościu podbił wydajność o kilka procent oraz pobór prądu o 50%? Filmu oczywiście nie oglądałem, ale raczej innego tam w środku nie będzie u Pana Chasera.
  6. No nie, nawet jak takich 0,5% zsumujesz dziesięć, to nadal masz gównoróżnicę Jak chyba Phoenix pisał, polerowani berła i nic więcej. Wrzucając podstawową optymalizację timingów wszystkich rzędów bez polerowania berła jesteś 10% do przodu, a pałowanie w opór... sztuka dla sztuki.
  7. Ehe, na pewno zauważysz te 0,5% różnicy w sytuacjach ograniczenia przez CPU Niektóre rzeczy realnie coś dają, a to już dłubanie dla samej satysfakcji "o, wypałowałem zestaw do absolutnego oporu!".
  8. Przecież ta gra na ziemniaku działa.
  9. Nie ma żadnej reguły, sprawdź obydwa i oceń samemu, czy jest sens "dopłacać" do L.
  10. NV wrzuciła nową wersję FrameView: https://www.nvidia.com/pl-pl/geforce/technologies/frameview/ Podobno lepiej liczy FPS przy wartościach bliskich tysiąca, ale raczej to mało istotny scenariusz I ma kilka poprawek pod kątem konkretnych gier.
  11. Wszystkim się zajmie power limit
  12. Ale Vallc ma rację, że w relacji do poboru prądu proce Intela są łatwe do schłodzenia.
  13. Z Raptorów względnie niski pobór w grach bez optymalizacji ma chyba tylko 14600K. Ale wszystkie te procki da się fajnie ustawić.
  14. Bez przesady, to absolutne grosze bez praktycznego znaczenia
  15. Jak wyżej, żadne z tych ustawień nie skaluje się z rozdzielczością, po prostu zwiększają lub zmniejszają obciążenie CPU bez względu na rozdzielczość. Przynajmniej tak było we wszystkich poprzednich BF-ach, a szansa, że BF6 to rodzynek, w którym rozdzielczość ma wpływ na wydajność CPU, jest pomijalna moim zdaniem. Na limicie GPU wydajność CPU przestaje mieć znaczenie, liczy się charakterystyka platformy w zakresie tego, jak potrafi ona napędzić kartę graficzną. Na limicie GPU, czy masz i3-13100, czy i9-13900K, nie ma to absolutnie żadnego znaczenia, FPS będzie taki sam: Dlatego w wariancie limitu od strony GPU czysta brutalna moc 9800X3D nic nie daje, gdyż liczy się wtedy wyłącznie charakterystyka platformy. A ta jest taka, że z uwagi na opóźnienia PCIe i podsystem RAM platforma LGA 1700 marginalnie lepiej napędza GPU niż AM5. Ale w kontrolowanym środowisku bez błędów pomiarowych jak u tego YT ęksperta to są groszowe różnice. Na RTX 4080 średnio mi wyszło 0,5-0,9% różnicy (zależnie od rozdzielczości), maksymalnie ~2%.
  16. 14900K i "złom", niezły odlot @Kadajo
  17. Nikt tego nie neguje, niektóre detale obciążają także CPU Nie ma takiego zjawiska, co najwyżej wskoczysz na ograniczenie ze strony GPU w wyższej rozdzielczości. Ale dopóki GPU nie ogranicza, czy 720p, czy 4K -> CPU-FPS jest taki sam. Przykład w AC: Mirage:
  18. Ja Ci mogę to bardzo prosto przetestować. Wziąć 3060 Ti GDDR6X i 3070, zobaczymy czy 608 vs 448 GB/s coś pomoże przy DLSS 4.5.
  19. Nigdy się nie interesowałem tą funkcjonalnością, ale gwarantuję Ci, że nawet jeżeli jest taka możliwość, to nikt DLSS tak nie implementuje
  20. To Ty musisz udowodnić swoją tezę, a nie ja, że jest inaczej
  21. Ale to jest tylko Twoja teoria, że to przynosi poprawę, na co nie ma żadnych praktycznych przesłanek, że karty z mało pojemną cache mają jakieś przestoje w obliczeniach i więcej cache dałoby poprawę. Nie ma dowodów, nie ma sprawy. Nie wydaje mi się, żeby dało się to sprawdzić. Ale tę kwestię na pewno rozjaśni @SebastianFM, bo on się bawi profilerem od NVIDII.
  22. Ok, wszystko jasne. Gdybyś miał jakieś sensowne argumenty, a nie teorię pisaną patykiem po wodzie, to można by to było traktować poważnie Wracając jeszcze do tabelek NVIDII, RTX 4070 Ti vs RTX 3080 Ti to kolejny ciekawy przykład. RTX 4070 Ti ma 8x więcej cache L2, a w 4K z profilem L przewaga to tylko 67%. Coś się nie spinają te "keszowe" rewelacje.
  23. @musichunter1x Za dużo głupotek od AI "wchłaniasz" Masz oficjalne tabele od NVIDII: RTX 2080 Ti dwa razy dłużej przetwarza w 4K przy modelu L od RTX 3080 Ti, a oba GPU mają praktycznie tyle samo cache. Pamięć cache to nie jest magiczne pudełko, że dosypujesz więcej i więcej i pomaga w nieskończoność. Przy zastosowaniach stricte obliczeniowych cache rzadko kiedy jest wąskim gardłem, najczęściej po prostu brak możliwości dalszej poprawy wynika z wysycenia jednostek wykonawczych. Choć moim zdaniem jest w tej tabeli pewna ciekawostka. RTX 2080 Ti i RTX 3080 Ti mają bardzo podobne standardowe możliwości Tensorów, a pomimo tego na RTX 3080 Ti przetwarzanie jest dwukrotnie szybsze (z grubsza). Być może DLSS 4.5 w trybie FP16 wykorzystuje macierze rzadkie? Bo w tym wariancie Ampere ma 2x kopa na Tensorach.
  24. Tyle warte są te zrzuty z wypałowanymi ustawieniami pod kątem normalnej, codziennej pracy
  25. Na bank tak było Zwykłe omyłkowe opublikowanie kodu, nic więcej.
×
×
  • Dodaj nową pozycję...