Skocz do zawartości

Sterowniki GeForce & NVIDIA App - temat zbiorczy


Rekomendowane odpowiedzi

Opublikowano

Poniekąd tak, ale nie spodziewam się, że nagle doda mi 10% wydajności, a patrząc po ich dokonaniach w ostatnim czasie po prostu nie chce mi się ruszać czegoś co działa dobrze 😆

Opublikowano
8 minut temu, ztx napisał(a):

Poniekąd tak, ale nie spodziewam się, że nagle doda mi 10% wydajności, a patrząc po ich dokonaniach w ostatnim czasie po prostu nie chce mi się ruszać czegoś co działa dobrze 😆

BF6 nowych wymaga:red:

Opublikowano (edytowane)
11 minut temu, sideband napisał(a):

Nowsze nie znaczy lepsze powtarzam to od lat ;)

Zgadza się, ale wychodzą nowe gry to trzeba nowe stery instalować, żeby uruchomić dziada :E  Więc na bieżąco warto mieć świeże stery.

Edytowane przez leven
Opublikowano

To prawda, że podczas korzystania z DLSS powinno się wyłączyć ograniczenie klatek na sekundę oraz vsync w panelu NVIDIA? Ostatnio gdzieś o tym czytałem, bo przez cały czas mam w panelu NVIDIA limit klatek, vsync wyłączony i tryb niskiego opóźnienia na włączony.

Opublikowano

Oczywiście, że nie. Jak wyłączysz ograniczenie klatek i FPS wyjdzie poza zakres VRR to będziesz miał rwanie obrazu albo vsync się włączy (w zależności od ustawień) co też nie jest wskazane jak chcesz używać VRR.

  • Upvote 2
Opublikowano

Tak właśnie myślałem i potwierdza się to w grach, które posiadam, ale jeśli mam wątpliwości to pytam tutaj, bo mogę otrzymać konkretne odpowiedzi. W niektórych tytułach muszę tylko włączać vsync w panelu NVIDIA, żeby trybiło, ale w grach tak naprawdę zawsze synchronizacja wyłączona. Dzięki 🤙🏻

Opublikowano (edytowane)

Bardziej warto dla komentarzy niż filmu, ciekawe ile z tych problemów to wina użytkownika i systemu, bo trudno wierzyć by aż tyle problemów z tym było :P Mogłem brać tego czeskiego rx9060xt za grosze, byłby pod eksperymenty z linuksem.

 

Edytowane przez musichunter1x
Opublikowano (edytowane)

No właśnie problem, że wszystko ma teraz skopane stery, a ploty chodzą, że karty już "same sobie" je piszą, bo używają AI do tego. :E 
Niektórym nawet pobór prądu niekiedy skacze 2-krotnie w mało wymagających grach przez nowsze stery, ale chodzi głównie o chwilowe skoki, bo średnio jest tylko trochę więcej.

Edytowane przez musichunter1x
literówka zauważona po dniach
Opublikowano
12 godzin temu, sideband napisał(a):

Wejdź na forum guru3d i forum AMD to się do wiesz jak jest wspaniałe.

YT to nikt nie kopie leżącego bo i po co:E

Jedno trzeba przyznać :E amd nigdy nie miało aż takich problemów ze sterami jak NV od zimy 2025 przez kilka miesięcy xD 

  • Upvote 1
Opublikowano (edytowane)

Daleko nie trzeba szukać pierwsze Navi była  konkretna kaszana ze sterami i po roku nadal były problemy. Niektórzy dali sobie spokój z AMD na dobre po doświadczeniach z 5700.

Co obecnych czasów to nie wiedziałem, że AMD ma takie problemy z wywalaniem gier z RT/PT na dwóch ostatnich generacjach.

Edytowane przez sideband
  • Upvote 1
Opublikowano
16 minut temu, Adikon napisał(a):

Włączacie potrójne buforowanie i optymalizację wątkową w panelu NVIDIA? Zauważyłem u siebie poprawę w większości gier kiedy mam te opcje włączone. 

Ja tak. Właściwie mam ustawienia na najwyższą jakość obrazu.

Wtedy panel widzi pełny zakres, a nie niepełny. 

 

a.jpg

 

b.jpg

 

c.jpg

 

d.jpg

  • Thanks 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Na oryginalnych oringach nie ma szans tego zrobić, żeby było szczelne. Testowo wrzuciłem trochę grubsze z innych złączek i wygląda na szczelne, w następnym tygodniu będę miał już wszystkie części to będzie loop składany. Z minusów, nie da rady tego pogiąć więc wszystko będzie na prostych rurkach, z dużą ilością złączek kątowych 90. Kolejny minus to średnica wewnatrz, standardowe rurki mam w wymiarach 16\12 a te są 16\9.5 więc możliwe że przepływ spadnie, ale wszystko będzie na 2xd5 na zewnętrznej chłodnicy mora IV 600 poza komputerem, więc można podkręcić obroty na d5. Jak wszystko się uda z tymi rurkami to wrzucę efekt końcowy, jeśli nie to będę na zwykłych płaskich rurkach robił.
    • https://www.bankier.pl/wiadomosc/UOKiK-wszczal-postepowanie-wyjasniajace-dot-ograniczenia-konkurencji-przy-sprzedazy-sprzetu-elektronicznego-9075242.html   Bardzo szybko korpo go sprowadzą do pionu  zmowy cenowe są cały czas w XXIw. Korpo są w wielu obszarach dogadane. Albo wyślą genialnie opłacanych prawników na niego albo pogadają z kim potrzeba z władz, albo skuteczniej ukryją dogadywanie się  Jedna z bardzo niewielu spraw co wypłynęła w temacie urządzania ludziom nowego "raju" przez korpo. 
    • Tu pełna zgoda i zrozumiałe podejście. Też uważam, że to by było najlepsze, ale widzę dwa sensowne powody, przez które autorzy testów mogą mieć inna zdanie: 1. Jest naprawdę cała masa laików, którzy kompletnie nie rozumieją czemu wyniki w 720p i 1080p są lepsze aby ocenić realne możliwości procesora. Wyobraź sobie, że robisz test przez trzy dni, masa roboty, wychodzi Ci, że 14800X3D wyprzedza Intela 999AI o 90%, cieszysz się, że jest taki wielki postęp, że coś fajnego, a potem widzisz jak jakiś filmik youtubera na YT z milionem wyświetleń mówi o Twoim teście i pada "ten gość potwierdził, że różnica to tylko 2%, więc nie ma co dopłacać". Cała praca w błoto i do tego masa ludzi ogłupiona bzdurami. 2. Zasoby. Czas. Jeśli takie wyniki interesują np. 20% Twoich widzów/czytelników, a w tym czasie możesz spożytkować czas lepiej, to możesz uznać, że testy w 1080p wystarczą.   Optymalnie by chyba było zrobić tak - testy w 720p/1080 - wybrać te, gdzie są duże różnice - zrobić w tych grach testy w 1440p i 4K - dostęp do tego dać za okienkiem "klikam, ale rozumiem, że testowanie wydajności proca ma sens tylko w 1080p" czy coś   Ale cóż. Testujący i tak zrobią jak uważają, czy nam się to podoba czy nie. No to już zależy od gry. Tak samo można nagiąć w drugą stronę, że Ryzen 5600 + 5070ti będzie szybszy niż 9800x3D plus rtx 4070 (bez Ti). Znowu dla niektórych graczy grających w  mniej mainstreamowych grach/ustawieniach/itp. znacznie lepiej wypadnie 9800x3d i 4070 niż Ryzen 7600 + 5090.  Sam do takich należałem przez poprzednie 25 lat i będę należał nadal, choć gdyby nie VR, to monitory z Pulsarem mogłyby tu sporo zmienić. Do tej pory było często tak, że jak zabraknie proca, to nic się nie da zrobić, albo tniesz detale, które psują całą imersję (pop-in) a w przypadku niemocy GPU można było iść na (owszem, często okropne) kompromisy. Wspomniałem o Pulsarze, bo spadek poniżej  X (gdzie X=fps i X=Hz na monitorze) nie oznacza takiej katastrofy, jak przy graniu z v-sync ON i stroboskopem. Z VR to już trochę skomplikowane, bo nadal liczy się przede wszystkim CPU, tylko że jak grasz w modowane gry albo jakiegoś MSFSa to 9800x3D + 2060 niekoniecznie musi wypaść lepiej od Ryzena 3600 z 5090tką, bo na jednym dasz radę pograć w 144p (bez zera!  a na drugim się porzygasz, bo nie utrzymasz FPSu komfortowego dla VRu choćby nie wiem co robić.   
    • https://videocardz.com/newz/gigabyte-launches-flagship-x870e-aorus-xtreme-x3d-ai-top-motherboard-at-1099
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...