Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
4 minuty temu, DżonyBi napisał(a):

Ja nie bronie 4090, a 5090 sobie kupie jak mi sie zachce. Nie zabraknie dla mnie. Staram sie po prostu na to obiektywnie patrzec. Tyle i az tyle. Natomiast jak zwykle najwiecej cisna po 4090 wlasciciele paździerzy.

Bo liczą że pazdzierz, zmienią na 4090 za 3500 :E. Nie będąc złośliwym, fajnie by było jakby tak pykło. Ale szansę raczej słabe na to. 

Opublikowano

Też nie bronie 5080, stwierdzam fakty. 30Gbps vs 28Gbps(różnica 7% na korzysc 5080) , 360W vs 287W (różnica 25% na korzyść 5080). Zatem to nie jest tak, że 5080 jest połową 5090....
5090 bedzie miał tzw limit max 600W dalej nie wzbije (czyli 4% wiecej) 5080 Pewnie będą szły 400W moze i wiecej (450W). Zatem będzie miał o wiele wyzsze taktowania, szczególnie przy pełnym obciążeniu. Natomiast jakby nV rzeczywiscie wypuściła 5080 z TDP np 285W to raczej mrane szanse na przeskoczenie 4090...

Opublikowano (edytowane)

@areczek1987

Ale kto sie przejmuje? Mam siedziec cicho i nie wypowiadac sie na forum? Zaraz wylacze sygnature i nikt mi takich glupot nie bedzie pisal. Traktuje to jako zabawe i jak sie okaze, ze 5080 bedzie szybszy to zawalu nie dostane, a jak bedzie jednak troche wolniejszy to bedzie oznaczalo tylko, ze dobrze to przeliczylem. Z 5090 nie ma takiej zabawy, bo jest bezdyskusyjnie najszybszy. Jestem bardzo ciekaw jak sobie poradzi z chlodzeniem 5090FE.

Edytowane przez DżonyBi
Opublikowano (edytowane)
10 minut temu, maxmaster027 napisał(a):

Też nie bronie 5080, stwierdzam fakty. 30Gbps vs 28Gbps(różnica 7% na korzysc 5080) , 360W vs 287W (różnica 25% na korzyść 5080). Zatem to nie jest tak, że 5080 jest połową 5090....
5090 bedzie miał tzw limit max 600W dalej nie wzbije (czyli 4% wiecej) 5080 Pewnie będą szły 400W moze i wiecej (450W). Zatem będzie miał o wiele wyzsze taktowania, szczególnie przy pełnym obciążeniu. Natomiast jakby nV rzeczywiscie wypuściła 5080 z TDP np 285W to raczej mrane szanse na przeskoczenie 4090...

Pcie zgodnie ze specyfikacją dokarmi 75W a można za nią wyjść. Pytanie czy warto ;)

9 minut temu, DżonyBi napisał(a):

@areczek1987

Ale kto sie przejmuje? Mam siedziec cicho i nie wypowiadac sie na forum? Zaraz wylacze sygnature i nikt mi takich glupot nie bedzie pisal.

Podaj suche liczby wedle siebie jak będzie się kształtować wydajność tej 5080 na tle 4090. Mój wpis od którego się zaczęło był za stawianiem kogoś innego. Nie oceniaj tylko podaj swoje. Taka zabawa by nie było nudno.

Edytowane przez areczek1987
Opublikowano
31 minut temu, DżonyBi napisał(a):

Ja nie bronie 4090, a 5090 sobie kupie jak mi sie zachce. Nie zabraknie dla mnie. Staram sie po prostu na to obiektywnie patrzec opierajac sie na tym co wiemy. Tyle i az tyle. Natomiast jak zwykle najwiecej cisna po 4090 wlasciciele paździerzy.

Krótki staż masz i nie wiesz że tu głównie cisną Ci co nigdy tego nie kupią albo nie grają w daną grę;)

  • Upvote 2
Opublikowano
4 minuty temu, skypan napisał(a):

Zastanawia mnie dlaczego sprzętowo RTXy serii 4000 potrafią wygenerować jedną klatkę więcej ale 2 lub 3 już nie ? Nie potrafią bo czym  wtedy było by się chwalić w RTX 5000.

@sideband o tym pisał i nie jest to programowa sztuczka. 

3 minuty temu, SmogSmok napisał(a):

Bo to jest zblokowanie programowy by seria 5000 lepiej wyglądała na slajdach. 

Bzdura

Opublikowano
7 minut temu, Voodoo2 napisał(a):

Co Wy w tym astralu widzicie? Desingiem nie grzeszy, a znając Asusa to będzie ćwierkac jak ptaszki latem 

No najładniejszy jest i najbardziej przemyślany ze wszystkich co do tej pory pokazali.

Opublikowano
20 minut temu, Phoenix. napisał(a):

o tym pisał i nie jest to programowa sztuczka. 

Wspomniał o

 

"że nowa generacja ma dodatkowo w krzemie sprzętowy framepacing.

Bez odpowiedniej wydajności bez FG i stabilnego frametime FG to wielkie G. Pomijając artefakty przy x4 to NV pokazuje FG przy DLSS P by przyzwoicie działało"

 

Tu nie chodzi o jakąś kłótnię tylko wyjaśnienie. Może jakiejś odpowiedzi nie zobaczyłem więc jak by co proszę o uzupełnienie. Przy pierwszym FG siłą rzeczy musiał pojawić się framepacing. Przy jednej generowanej klatce na pewno będzie mniejszy niż przy trzech. OK Jak podeszli do tego przy serii 4000 ? Co odpowiada za prawidłowe wyświetlanie klatek (framepacing) w RTX 4000 ? Sprzętowe rozwiązanie czy programowe ? A może to zlali i nic z tym nie robią w RTX 4000  bo nie można ? Serie poniżej RTX 4000 nie posiadają sprzętowego wsparcia do FG i tam to rozumie dlaczego nie ma FG a tym bardziej MFG. Może seria 4000 dała by radę z 2 wygenerowanymi klatkami ?

Opublikowano
6 minut temu, ODIN85 napisał(a):

No najładniejszy jest i najbardziej przemyślany ze wszystkich co do tej pory pokazali.

Kwestia gustu, wiadomo, mi nie przypadła. Do boleści ceglasta bryła, pasek rgb rodem tych chińskich podpórek i ten wentylator na backplate, który nie wiadomo czy coś wniesie. Ale suprim za to bardziej w moim guście za to. 

Mój target to WATERFORCE WB, ale pewnie za 5080 beda krzyczeć 7,5k - także srednio 

Opublikowano

Bez względu na to, czy to ściema, czy nie, czas solidnych zysków z generacji na generację minął i Jensen to wie, dlatego teraz każda kolejna generacja będzie miała jakiś "booster" na wyłączność.

  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • A to dla tego u mnie na HDMI betoniarka działa jak należy, bo mam kabel UNITEK KABEL HDMI 2.1 8K, 4K120HZ UHD, 2M, C138W  Piszą, że jest dobry: https://www.komputronik.pl/informacje/jak-wybrac-hdmi/#Unitek-HDMI Z resztą nic dziwnego, jak się ma tak wypasiona kartę, jaką ja mam 
    • Nie mam jakiegoś sztywnego budżetu, ale szaleć też nie mam zamiaru. Monitor 4k nie kupiłem jakoś specjalnie pod granie, ale wiadomo, że jak już jest to czemu by nie pograć w 4k     Znając mnie prędzej zostawię 9800X3D i dołożę do 5080. Dzisiaj na na promocji BF upolowałem 9800X3D za 1699PLN. 7800X3D jest obecnie w x-kom za 1299 PLN. Nie warto dołożyć tych 400 PLN do 9800X3D, patrząc przyszłościowo może zostać na dłużej? Zamin 9800X3D będzie bottleneckiem, to pewnie jeszcze sporo generacji GPU wyjdzie i to prędzej samo GPU wymienię... o ile ceny nie beda kosmiczne. Jak pisałem wyżej, to trochę spontaniczny zakup, wiec nie doktoryzowałem się na temat sprzętu PC. Czasami z ciekawości pobieżnie poczytam artykuły oraz komentarze pod nimi poczytam i jakoś utarło mi się w głowie, że dopłata z 5070Ti do 5080 jest niewarta z powodu, że niewiele się zyskuje na wydajności oraz fakt oraz przy cenie 5080 mamy tylko 16GB, dlatego jeśli 5080 to czekać na SUPER, które wg plotek ma mieć 24 GB. Możecie polecić jakieś konkretne modele 5080, 5070TI, RX 9070 XT, które warto kupić, biorąc pod uwagę cena/jakość wykonania/kultura pracy? Sa jeszcze jacyś producenci GPU, którzy podwalają zdjąć chłodzenie bez utraty gwarancji? Ja zatrzymałem się na EVGA, które już niestety GPU nie produkuje. W obecnym PC mam CPU i GPU chłodzone customowym LC. Chłodzenie chce wykorzystać do nowego zestawu... CPU na pewno będzie miało custom LC i GPU też byłoby fajnie "zwodować", ale nie widzi mi sie tracić gwarancję, przy takich cenach GPU. Mobo mogę wziąć w sumie tańsze, ale jestem estetą, a obudowa to Lian Li O11D EVO RGB Black, wiec mobo też musiałby być czarne i ewentualnie jakieś kolorowe elementy, które mogę jakoś łatwo zakryć/zakleić  ... ta MSI PRO B850-P WIFI może od biedy też by mi estetycznie podpasowała.. do przemyślenia  
    • Gdyby tylko nie ten stutter  realnie za męczenie się mogę dać 20zł, ale do tego nie dojdzie. Na kluczykowniach taniej nie ma.
    • https://www.ceneo.pl/187410617 absolutne premium  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...