Skocz do zawartości

RX 90xx (RDNA 4) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
4 godziny temu, leven napisał(a):

Zieloni też dostali popalić z winy MS. Hotfix za hotfixem w sterownikach do kart graficznych. Masakra :E 

No tak, zieloni coś tam też ciągle dłubią z microshitem. 

Fixed Bugs:

Users running R580 branch drivers (58x.xx) or newer may observe lower performance in some games after updating to Windows 11 October 2025 KB5066835 [5561605]

 

 

Opublikowano (edytowane)

Ja właśnie przechodzę Alan Wake 2 DLC The Lake House i jestem zaskoczony że po włączeniu PT średnie, detale max, FSR4 ultra Quality, w 1440p średnio około 60 FPS. Do tego AFMF2.1 i jest 120FPS. 

Edytowane przez Hard Reset
Opublikowano

Hmm... Ciekawe jak ma się CNN z RR do FSR4 z odszumianiem Redstone?
Ogólnie RT będzie miało sens dopiero na następnej generacji konsol, gdy zupełnie zrezygnują z dobrze zrobionego normalnego oświetlenia, przynajmniej w dobrych grach. Teraz gier wartych włączenia RT i przejścia jest tyle co kot napłakał, szczególnie gdy wydajność ma być uzasadniona. :E 

Opublikowano (edytowane)

-20% TDP -85mv + OC pamięci  model Sapphire RX 9070 Pure

Średnia zużycie spadło 298W do 201W a maks z 452W do 343W podczas grania z Vsynch 60hz

Szczerze za minimalny spadek klatek warto.

Mój 650W zasilacz daje radę pierwszy raz w historii pewnie rozkręcił wentylator ;)

cb 2077 max ultr -20  -85 .jpg

Edytowane przez deathrabit
  • Like 1
Opublikowano (edytowane)
W dniu 18.12.2025 o 19:30, deathrabit napisał(a):

-20% TDP -85mv + OC pamięci  model Sapphire RX 9070 Pure

Średnia zużycie spadło 298W do 201W a maks z 452W do 343W podczas grania z Vsynch 60hz

 

 

Jak ten rx mógł brać prawie 300W jak z PL +10% może wziąć maksymalnie około 270W:hmm:

Edytowane przez Pentium D
  • Upvote 2
Opublikowano

Witam wszystkich, szybkie pytanie. Chcę kupić RX 9070XT, po materiałach na YT oraz recenzjach, opiniach na forach wybrałem wersję od PowerColor Hellhound, która na morele aktualnie kosztuje mniej więcej 3050zł, jednocześnie zauważyłem, że jest też cieszący się w miarę dobrymi opiniami produkt od Gigabyte w wersji Gaming OC za około 2750 zł na morele (+ cashback 250zł za zarejestrowanie zakupu jakaś akcja od gigabyte - więc wyszłoby 2,5k). Wiem, że PowerColor ma świetną kulturę pracy fajne temperatury a o gigabyte są mieszane opinie w tym temacie. Warto dopłacać te 500zł, czy oferta z gigabytem w takiej kwocie to fajna okazja? No i jeszcze gwarancja: GB ma 36 miesięcy, a PC tylko 24.

  • Like 1
Opublikowano

Cześć. mam asrocka 9070Xt SL dark i taką dziwną sytuację: na moim windowsie karta w spoczynku podbiera 10-15W podczas gdy na widnowskie syna od 3-5W. u niego GPU clock spada do 0, ram do 20Mhz a napięcie o 0,035V.

zainstalowany ten sam windows, z tymi samymi poprawkami, te same sterowniki karty.. jakiś pomysł co jest jednak innego że tak się dzieje?

Opublikowano
57 minut temu, Wiktor79 napisał(a):

Cześć. mam asrocka 9070Xt SL dark i taką dziwną sytuację: na moim windowsie karta w spoczynku podbiera 10-15W podczas gdy na widnowskie syna od 3-5W. u niego GPU clock spada do 0, ram do 20Mhz a napięcie o 0,035V.

zainstalowany ten sam windows, z tymi samymi poprawkami, te same sterowniki karty.. jakiś pomysł co jest jednak innego że tak się dzieje?

Ten sam komputer i dwa konta czy dwa różne komputery? 

Jakie monitory jeśli dwa różne kompy i jakie odświeżanie ekranu masz ustawione? 

Opublikowano

No i wszystko jest w normie, na pierwszym screenie masz użycie gpu 0% i pobór prądu poniżej 10W a na drugim pamięci wskoczyły na 800mhz z racji tego że gpu load jest na poziomie 5% więc coś lekko obciąża kartę stąd wyższy pobór mocy ;) 

Opublikowano (edytowane)

RT na jakości "niewiarygodna" pewnie spaczyło wyniki.
W testach mam 4fps mniej, ale z DLSS P i RT ultra na rtx3060ti. :E DLSS T 60fps avg oraz ~53 min, DLSS CNN z RR 64fps i 56.
Ale Cyberpunka przechodziłem jeszcze na gtx1660ti i absolutnie nie mam ochoty tam wracać, chyba że z jakimiś modami na rozgrywkę i AI. Dodatek ogrywałem w części na rtx3070 w 4k z DLSS P, bez RT.

Edytowane przez musichunter1x
Opublikowano (edytowane)
21 godzin temu, mikejike777 napisał(a):

Warto dopłacać te 500zł, czy oferta z gigabytem w takiej kwocie to fajna okazja?

 

niezbyt szczególny ten gaming, ale hellhound to też nie jest król ciszy i chłodu według kangurów, 550zł to ogromna różnica, o ile uda ci się załapać na cashback..

a kulturę pracy karty można zawsze trochę poprawić suwakami w adrenaline, mniej papu dostanie to i cichszy i chłodniejszy będzie

 

 @Lipton

bardzo chwali Hellhounda, ale czy warto dopłacić aż 550zł ? 

 

 

Edytowane przez miro
Opublikowano
22 godziny temu, mikejike777 napisał(a):

Witam wszystkich, szybkie pytanie. Chcę kupić RX 9070XT, po materiałach na YT oraz recenzjach, opiniach na forach wybrałem wersję od PowerColor Hellhound, która na morele aktualnie kosztuje mniej więcej 3050zł, jednocześnie zauważyłem, że jest też cieszący się w miarę dobrymi opiniami produkt od Gigabyte w wersji Gaming OC za około 2750 zł na morele (+ cashback 250zł za zarejestrowanie zakupu jakaś akcja od gigabyte - więc wyszłoby 2,5k). Wiem, że PowerColor ma świetną kulturę pracy fajne temperatury a o gigabyte są mieszane opinie w tym temacie. Warto dopłacać te 500zł, czy oferta z gigabytem w takiej kwocie to fajna okazja? No i jeszcze gwarancja: GB ma 36 miesięcy, a PC tylko 24.

Na bios silent karta jest bardzo wporzadku ;) 

 

 

Opublikowano
4 minuty temu, Phoenix. napisał(a):

Na bios silent karta jest bardzo wporzadku

a Lipton wyżej  powiedział " kultura pracy leży i kwiczy "  ...  więc co tester to inaczej..

 

taniej zapewne nie będzie, wziąłbym, pobawił się, masz przynajmniej 14 dni na testy.. 

 

Opublikowano

Gigus ma agresywna krzywa i wywtrczy uzywac bios sillent lub recznej krzywej i tyle, a nie dramatyzowac ;) 

5 minut temu, miro napisał(a):

więc co tester to inaczej..

Przeciez blacku tez mowi ze jest glosna wiec nie pitol glupot ze co tester to innaczej, tylko naucz sie czytac ze zrozumienim co sie pisze ;) 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
    • Nie, ale już z chyba trwają jakieś prace na serwerach przygotowujące do wydania wersji 0.6 więc to już blisko
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...