Skocz do zawartości

RX 90xx (RDNA 4) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
10 minut temu, Spl97 napisał(a):

Jeżeli to nie fake, to 5080 16 GB będzie tylko na krótko, a potem wejdzie wersja 5080 z 24 GB.

Wejdź na stronę i sprawdź ;)

49 minut temu, Vulc napisał(a):

Przemawiają za nimi też przyzwyczajenia graczy, chociażby historie o problemach ze sterownikami u AMD, gdzie nie ma znaczenia, że to od dawna problemem nie jest. Przede wszystkim przemawiają cyfry - bodajże 90% udział w rynku na końcu zeszłego roku, jasno sugeruje w którą stronę obrócą się oczy klientów w pierwszej kolejności.

 

Jeśli AMD chce coś ugrać, musi mocno zaznaczyć swoją obecność nową serią. Mają kolejną iterację FSR (ostatnie wieści sugerują, że jest nieźle), mają ten monolityczny rdzeń, więc wydajnościowo powinno być przyzwoicie. Tyle, że bez naprawdę agresywnych cen nie przebiją się do świadomości graczy, dla których jasne jest, że jak kupować grafikę to od zielonych. A "czysty raster" nikogo niestety nie będzie interesować w świetle "cudownego" AI od Nvidii. Zakładając, że na tym gruncie AMD wypracuje przewagę.

 

Fakt, za wcześnie na czarne scenariusze, ale i tak pozostaję mocno sceptyczny w kontekście popularności nowych Radeonów.

AMD nie straciło udziałów od strzała tylko trwało latami odzyskanie części też będzie trwać. Stery jak stery liczy się wydajność jakby wystrzelili grubo z wydajnością to uwierz mi entuzjaści i tak by kupili AMD ;)

Opublikowano (edytowane)

Do utraty rynku przez Radeony przede wszystkim przyczynił się wysoki pobór mocy oraz wysokie temperatury w porównaniu do bezpośrednich konkurentów. Do tego dochodzi niefortunna wycena topowych kart. 

 

Gwoździem do trumny jest bycie w tyle za NVIDIĄ pod względem "ficzerów".  

 

Z pamięci mogę przywołać TressFX jako ostatni ciekawy przebłysk AMD. 

 

Później to NVIDIA zaczęła pchać ten wózek do przodu. 

Edytowane przez Radio Tirana
Opublikowano
4 minuty temu, Radio Tirana napisał(a):

Do utraty rynku przez Radeony przede wszystkim przyczynił się wysoki pobór mocy oraz wysokie temperatury w porównaniu do bezpośrednich konkurentów. Do tego dochodzi niefortunna wycena topowych kart. 

Jeszcze seria 6000 miała lepszy perf./W względem popularnej serii 3000 od Nvidii, więc nie był to aż tak bardzo decydujący czynnik.
Bardziej istotne było zapóźnienie we wprowadzanych ficzerach.

Tak, czy inaczej- jeżeli 9070XT:
- będzie miał wydajność ~7900XTX w rasterze i ~RTX3090/3090TI w RT
- wyniki z bazowym TDP 260W (tyle podaje Techpowerup) bedą niewiele gorsze niż te zaprezentowane dla 330W
- FSR dogoni jakością DLSS
- cena będzie atrakcyjna
... to ta karta może być naprawdę ciekawym wyborem.
I oby tak było, nawet (a zwłaszcza) dla osób które planują kupić GPU od Nvidii.
Ja tam AMD z góry nie skreślam.

  • Confused 1
  • Upvote 1
Opublikowano

Taki stan dla RT przy 330 W poboru energii (biorąc pod uwagę że to ma być 4nm proces) to trochę lipa. Wydajniejsza (starsza karta, w procesie 5 nm RTX 4080) pobiera mniej niż 300 W - co i tak w przypadku tej generacji kart NV jest szokująco wysoki poziom poboru energii

Aktualnie jeden plus jaki widziałem, to że FSR 4.0 jakościowo zbliża się (według HA) do DLSS 3.0 (jak wiadomo DLSS 4.0 wprowadza jeszcze większe usprawnienia w tym temacie (jakościowym)
Minus - FSR 4.0 dedykowane tylko dla nowej serii.

Cena, cena, cena - kartę będą musieli dawać po mega taniości.  

Zrzut ekranu 2025-01-09 160203.png

Opublikowano

Miałem RX 570 8GB, poza restartowaniem się Wattmana, a co za tym idzie reset profilu uv i wenylatorów, nie pamiętam nic złego, może poza wydajnością w jakiś tytułach, ale Senuę 1 przeszedłem właśnie na tym RX 570 8GB. Zmieniłem bo brakowało mi mocy i przyszedł gtx 1660ti z forum pclaba.

Być może wezmę AMD, nadal nie jestem zdecydowany, bo nie znam wyników wydajności, poboru, czy temperatur poszczególnych modeli, tak samo jak RTXów. Co do RT i tak obecne Radeony są lepsze niż moja obecna karta, widziałem jak to działa np na 7900XT.

Czekam na testy i ceny w polskich sklepach, bo tu też może być różnie, niestety nvidia ma tylko 12gb dla rtx 5070, więc nie tędy droga. Na pewno wolę RX niż RTX 5070, więc żaden użytkownik z nazwą rtx5090 nie przekona mnie, że "białe jest białe, a czarne jest czarne".

 

Tak pobór prądy jest spory, moja obecna to nie przebija 200W w jakiś wymagających tytułach- czasem widziałem taki pobór czy w benchmarku.

Nie wiem jak sterowniki, ale chyba nie sprawiają jakiś problemów, choć nie raz czytam, że siedzę na x wersji bo ta coś crashuje itd. Jak dobrze pójdzie to wydajność takiego RX 9070XT może być x2 większa niż mojego obecnego RTX'a, choć już niektóre gry mają tyle przy 7900XT.

Opublikowano
14 minut temu, RTX5090 napisał(a):

Taki stan dla RT przy 330 W poboru energii (biorąc pod uwagę że to ma być 4nm proces) to trochę lipa. Wydajniejsza (starsza karta, w procesie 5 nm RTX 4080) pobiera mniej niż 300 W - co i tak w przypadku tej generacji kart NV jest szokująco wysoki poziom poboru energii

4080 pobiera 320W. Jeśli 9070XT będzie mieć wyniki na poziomie 4080 przy poborze prądu na poziomie 4080, ale cenie 7800XT (i poniżej 5070) to nikt nie będzie zadawał więcej pytań, karty szybko znikną z półek.

 

Skoro RTXy 4000 mają szokująco wysoki pobór energii to co można powiedzieć o 5000?

Opublikowano
2 minuty temu, kalderon napisał(a):

4080 pobiera 320W

to maks TDP, ale jak widziałem w testach zazwyczaj pobór jest do 300 W. 

 

 

3 minuty temu, kalderon napisał(a):

Jeśli 9070XT będzie mieć wyniki na poziomie 4080

Wynik RT (dzisiejszy wyciek) pokazuje wydajność 4070TI SUPER, 4080 (nie mocniejsza wersja Super) odskakuje. Z testów grach wiadomo, że w RT im mocniej  RT uderzamy tym teoretycznie podobny wynik 7900XTX z benchmarku 3D marka, zaczyna się zacierać i karty AMD dostają po 4 literach (poniżej test UE z nowym rozwianiem MegaLights + wsparcie dla HRT)
w 3D marku RT - 7900XTX ma wynik podobny do 4080, natomiast im mocniejsze RT tym 7900XTX ma wynik ciut gorszy od 4070. 

image.png.9a644a4655fd1a3c873dcbb57f7be66a.png
 

 

4 minuty temu, kalderon napisał(a):

Skoro RTXy 4000 mają szokująco wysoki pobór energii to co można powiedzieć o 5000?

Tak samo są to naprawdę duże pobory energii (ale jak też wiadomo karty są bardzo podatne na UV i z zachowaniem tej samej wydajności 4080 można zbić do 260-270 W) 

Opublikowano
1 minutę temu, Phoenix. napisał(a):

Bzdura, min PL dla 4080 to 310W.

Opie te TDP dla serii40 jest w krytycznych sytuacjach (bardzo mocno dociśnięta karta w PT). 

Moja seryjna 4090 (TDP 450W) po OC w normalnych grach pobiera mniej niż 400 W. Dopiero w grach z PT + bajery DLSS dobijam do ściany 430-440W. A przypominam karta jest po srogim OC. 

Opublikowano

https://videocardz.com/pixel/powercolor-radeon-rx-9070-series-revealed-reaper-confirmed-as-dual-slot-design

Teraz, RTX5090 napisał(a):

Opie te TDP dla serii40 jest w krytycznych sytuacjach (bardzo mocno dociśnięta karta w PT). 

Moja seryjna 4090 (TDP 450W) po OC w normalnych grach pobiera mniej niż 400 W. Dopiero w grach z PT + bajery DLSS dobijam do ściany 430-440W. A przypominam karta jest po srogim OC. 

Zapraszam do dzialu nvidia, tam masz jeszcze gorszy pobor w stosunku do wydajnosci w nowych kartach , mozesz pokazac swoje umejetnosci rowniez tam ;)

Opublikowano
46 minut temu, RTX5090 napisał(a):

Taki stan dla RT przy 330 W poboru energii (biorąc pod uwagę że to ma być 4nm proces) to trochę lipa.

Ale wyniku z TSE juz nie wrzucisz gdzie jest wiekszy od 4080S??  Tylko wybiorczo wrzucasz co ci pasuje.

Opublikowano
Godzinę temu, Radio Tirana napisał(a):

Do utraty rynku przez Radeony przede wszystkim przyczynił się wysoki pobór mocy oraz wysokie temperatury w porównaniu do bezpośrednich konkurentów. Do tego dochodzi niefortunna wycena topowych kart. 

 

Gwoździem do trumny jest bycie w tyle za NVIDIĄ pod względem "ficzerów".  

 

Z pamięci mogę przywołać TressFX jako ostatni ciekawy przebłysk AMD. 

 

Później to NVIDIA zaczęła pchać ten wózek do przodu. 

Pierwsze duże tąpnięcie zaczęło się od Maxwella. FE karty w tamtych latach też latały na wysokich temp i ciche też nie były. W tamtych latach 970 zapewniała wydajność 290x przy znacznie niższym poborze mocy do tego znacznie lepiej ogarnięte stery od strony CPU i to były czasy kiedy NV miała dobrze wycenione karty także AMD nie miało za wiele argumentów by wybierać sprzęt od nich. Żadne magiczne ficzery od NV na to nie wpłynęły również przy Pascalu. Także wystarczyło kilka lat wtop i nawet niezła seria RX6xxx nie potrafiła przekonać ludzi do AMD.

Opublikowano
1 minutę temu, Phoenix. napisał(a):

Ale wyniku z TSE juz nie wrzucisz gdzie jest wiekszy od 4080S?? 

image.thumb.png.70ffb1e152a72839b343ff6f627d742f.png

Proszę kolego. 
1. Nowe TOP GPU (bo tutaj AMD nie będzie miało nic mocniejszego w tej generacji) słabsze od poprzedniego TOP 
2. Nowe TOP z mniejszą ilością pamięci od poprzedniego TOP tej samej firmy (chyba jeszcze nie było takiego przypadku)
3. Wynik w czystym rasterze ciut lepszy ale przy 330 W poboru VS około 300 W dla 2,5 letniej karty konkurencji.  A karta młodsza, wykonana w lepszym 4nm procesie. 

Opublikowano
5 minut temu, RTX5090 napisał(a):

więc taka 4080 naprawdę w krytycznych sytuacjach dobija do 300 W.

Porownujesz smarka do wybranego przez ciebie scenariusza gdzie nie mamy wyniku radeona z cyberpunka. Pobor 300W dla 9070XT nie jest niczym odbiegajacym do tego co oferuje w kwesti wydajnosci no ale potrolowac sobie musisz jak zwykle.

Teraz, RTX5090 napisał(a):

1. Nowe TOP GPU (bo tutaj AMD nie będzie miało nic mocniejszego w tej generacji) słabsze od poprzedniego TOP 
2. Nowe TOP z mniejszą ilością pamięci od poprzedniego TOP tej samej firmy (chyba jeszcze nie było takiego przypadku)
3. Wynik w czystym rasterze ciut lepszy ale przy 330 W poboru VS około 300 W dla 2,5 letniej karty konkurencji.  A karta młodsza, wykonana w lepszym 4nm procesie. 

Dodaj do tego cene 550 dolarow, a nie 1000 dolarow i moze polaczysz kropki ;)

  • Upvote 3
Opublikowano (edytowane)
6 minut temu, Phoenix. napisał(a):

gdzie nie mamy wyniku radeona z cyberpunka.

Wystarczy że wynik 9070XT w RT jest na podobnym poziomie do 7900XTX (co sugeruje 3dmark RT) to masz wyniki dla cybera (FHD) wyglądają właśnie tak (temu napisałem im gra ma więcej RT tym AMD coraz więcej traci). A ten 3dmart RT to taki średni poziom RT. 

image.png.8577ccc759e534e26875463d014faa98.png 

Edytowane przez RTX5090
Opublikowano

Wynik w grach bedzie zgola odmienny i twoj przyklad nie bedzie reprezentatywny w zaden sposob bazujac na poprzedniej generacji wiec nie wiem po co to wrzucasz ;) Zapomniales, a raczej tego nie wiesz, ze wynik z czystego RT ze smarka nijak ma sie do tego jak w grze jednoczesnie liczony jest raster, a RDNA3 i RDNA4 bedzie pod tym wzgledem dzielic przepasc.

No i mysle przyszedl ten moment, zeby wrzucic cie do ignorowanych bo jak widze wiekszosc juz cie wrzucila i tobie nie odpisuje a wiadomo jak wygladaja gadki z toba i w jakim kierunku zmierzaja ;) EOT.

  • Like 1
  • Upvote 1
Opublikowano
1 minutę temu, Phoenix. napisał(a):

a RDNA3 i RDNA4 bedzie pod tym wzgledem dzielic przepasc.

Za kilka dni przekonamy się kto ma racje ( Ja i samo AMD gdzie na swoich slajdach umieściła serię 9070 na maksymalnym poziomie 7900XT) czy kolega który buja w obłokach i marzeniach że będzie olbrzymi boost. 

Opublikowano
2 godziny temu, galakty napisał(a):

prawie nic wydajności nie tracisz, kilka procent... 

Jak na 5090 stracisz te kilka procent wydajności to będziesz mieć poziom 4090 po OC :E

21 minut temu, RTX5090 napisał(a):

4090 po srogim OC w CP2077 z PT,

A weź wyłącz dlss i frame gen to będzie 500+ :)

Opublikowano (edytowane)
3 godziny temu, Reddzik napisał(a):

Nom ten pobór prądu jest żałosny, taka krowa i tyle ma ciągnąć prądu, a mieli iść w energooszczędność, a tu człowiek będzie mieć elektrownie w chałupie. Jestem ciekaw tego uv na Radeonie, bo patrząc na te Waty to bez tego ani rusz.

Niestety UV na radku to cos czego nie lubie bo trzeba zbijac zegary, na 4080 zrobilem sobie stock zegary minus 60W poboru i byla klasa. Karta 250W w maxie brala. Sama karta prezentuje sie okazale, solidna wydajnosc w rasterze, RT oraz 16gb vram, jesli bedzie kosztowac 2500zl-2700zl to bedzie robic furore i takie 5070 bedzie mialo pod gorke.

Edytowane przez Phoenix.
  • Upvote 4
Opublikowano (edytowane)

Nie wiem czy słuchaliście Zmasła, ale wklejam link do filmiku od momentu gdzie mówi o FSR4, wspomina nawet że aktualnie FSR4 ma działać tylko na kartach serii 9000 i FSR4 będzie otwartym kodem, i wsparcia dla kart konkurencji na premierę nie będzie.

Twórcy gier będą musieli zaimplementować... więc nie wiadomo ile gier się do tego "ustosunkuje", ewentualnie poczekać na mody.

Na końcu wzmianka o Neural Rendering od AMD, odszumienie RT, "dzięki temu z mega zaszumionego obrazu działającego w 4pfs po włączeniu tych wszystkich bajerów udało się podnieść wydajność na 35fps"

 

Edytowane przez Reddzik
  • Like 1
Opublikowano
8 minut temu, Reddzik napisał(a):

Na końcu wzmianka o Neural Rendering od AMD, odszumienie RT, "dzięki temu z mega zaszumionego obrazu działającego w 4pfs po włączeniu tych wszystkich bajerów udało się podnieść wydajność na 35fps"

No i elegancko, ze w tym temacie w koncu cos sie rusyzlo.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...