Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)

275W dla 5070 Super śmierdzi mi już przymusowym wsadzaniem łap do UV czego nienawidzę bo na stocku karta będzie się palić jak piec hutniczy. Czy się mylę?

Efektywność energetyczna Blackwella mam nadzieję, że jest lepsza niż Ady bo już teraz wystarczy odpalić cokolwiek na UE5 i mamy okolice ~80*C na stocku. :E

Edytowane przez caleb59
  • Like 1
Opublikowano
15 minut temu, wrobel_krk napisał(a):

@galakty7% wydajności i 17% wzrost poboru tdp z 300 na 350w ma byc:)
Wyciskanie ostatnich skoków z chipa to tylko kosztem dużego poboru, tak samo z OC jest:)

No to jeszcze lepiej xD 

 

Ja i tak UV bym robił, kusi dużo pamięci i nowa gwarancja, a z Rubinem to nigdy nie wiadomo, ja tam nie liczę że będzie lepiej niż jest, nie te czasy. Może być tylko gorzej. 

  • Upvote 1
Opublikowano

@caleb59 TGP 4070 -> 4070S to było +20W, teraz 5070 -> 5070S to rzekomo +25W. Nie widzę żadnej niepokojącej anomalii. Producenci na pewno zaprojektują optymalne chłodzenia.
Średniopółkowe karty mają teraz TGP na poziomie topowych z poprzednich generacji. Granica się wciąż przesuwa. 

RTX 1080ti: 250W
RTX 2080ti: 280W
RTX 3090: 350W
RTX 4090: 450W
RTX 5090: 575W
RTX 6090: 6xx W(?)

Opublikowano

5080 dostanie trochę szybsze pamięci i będzie podkręcona, ale to chyba za mało aby nadgonić te 9-16% gdzie do RTX 4090 brakuje jakieś 12%

 

Ale z drugiej strony pasuje jak w mordę strzelił do aktualnej filozofii Nvidii.

 

I na 100% nie będzie można tych kart podkręcać.

Opublikowano (edytowane)
Godzinę temu, caleb59 napisał(a):

Efektywność energetyczna Blackwella mam nadzieję, że jest lepsza niż Ady 

Tą główną zmianą jest nowa, dodatkowa jednostka zarządzania podzespołami i takie tam inne usprawnienia w przełączaniu się między stanami zasilania + GDDR7.
Jeśli gra nie wykorzystuje w pełni karty to może wyłączyć pewne podzespoły, lub swobodnie obniżyć ich ustawienie.
Niestety pewnie te zmiany są przyczyną problemów Blackwella. :E Pewnie następna generacja to naprawi, tak jak to było z innymi kartami. 

 

Edytowane przez musichunter1x
  • Upvote 1
Opublikowano (edytowane)
12 minut temu, Tornado3 napisał(a):

Będą nowe wojenki userów 4090 i 5080S :D

Tu nie ma nad czym wojować, jak brać to od razu 5080, pamięci tyle samo, plus gwarancja, nowsze ficzery, a te kilka procent różnicy w wydajności to i tak wartość pomijalna. Ade można było kupić jeszcze na premierę Blacka, od biedy miało to sens w kwocie 6k, ale teraz?? 

 

Ja raczej kupię 5080@24, 5800x3d wykarmi, dolar w miarę tani, nie ma sensu się zastanawiać. 

12 minut temu, Tornado3 napisał(a):

Del. 

 

Edytowane przez Totek
  • Upvote 4
Opublikowano
28 minut temu, Totek napisał(a):

a te kilka procent różnicy w wydajności to i tak wartość pomijalna

Mnie to serio "gryzie" jak widzę uogólnianie.

Zależy w czym. 

 

Bo jak taki ktoś na ten przykład chciałby pograć w VR to tam ma o:

 

image.thumb.png.af74154fd71dac57c20b5f5e4638898a.png

 

(tutaj na wynik 4080 nie ma co patrzeć, bo coś ewidentnie "nie teges" z tym testem, bo 4090 jest super, ale nie aż tak żeby być niemal 2x szybszą od 4080)

 

Choć tutaj już bliżej.

Ale bywa i tak:

image.png.bb3b90377b642125bc59ac78f90752fb.png

 

 

image.png.422c774872f3bdde7ba1bb4fea00e54d.png

 

 

Opublikowano

Różnice są i nie zaprzeczam, ale potencjalny kupujący ma wybór między trzyletnim klockiem bez gwarancji a nowym, niewiele słabszym ale z gwarancją i nowszymi technologiami, z zapewne podobną ceną (a może niższą, kto wie...) co ten 4090 z drugiej ręki. 

 

Jak będę się przesiadał z 3080 na 5080 dostanę 70-85% boosta w zależności od scenariusza (przy 4090 byłoby 90-110%), więc i tak będę happy.

Opublikowano
1 godzinę temu, Kadajo napisał(a):

Jak przecieki się potwierdza to w pewnych sytuacjach nawet go przegoni :E

Z tym ze 4090 nadal będzie można podkręcić :E

 

Ale w tych przeciekach nie ma nic ciekawego. Dalej ten sam GB203 w 5080Super.

 

Obecne 5080 w niektórych modelach też mają i to już od dawna biosy 450W. A marginalne zwiększenie przepustowość vram w 5080super guzik realnie da do wydajności w grach jak brakuję jednostek.

 

Nvidia zamiast robić wała chociaż mogłaby wydać 5080Ti na nowym układzie z większą liczbą jednostek.

4 minuty temu, Totek napisał(a):

Jak będę się przesiadał z 3080 na 5080

Jak tyle czekałeś z przesiadką z 3080 i dawałeś radę to ja osobiście poczekałbym już na Rubina.

Opublikowano

@lukadd

Też tak myślałem, ale to kolejny rok z kawałkiem. W tym czasie procek zdąży już się postarzeć, Kurtas na premierę zrobi problem z dostępnością i dolicz kolejne miesiące. Wzrostu wydajności wielkiego się nie spodziewam bo znowu przytną chipy albo przesuną półki cenowe. Nie wiadomo jak z kursem dolara podczas gdy teraz jest korzystnie. Suma sumarum kupię w najbliższym czasie i wtedy dopiero zmiana całego pieca jak pojawi się AM6, będzie to już po premierze konsol, w okolicach GTA6 PC i Wieśka 4. Dlatego ta seria 6000 mi nie leży nic a nic. 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • To pewnie była Próba Traw  
    • Do tak drętwej gry nie będę kupowała nowej karty, aby mieć to samo, ale z PT, bo studio nie chciało przeznaczyć środków na ręczne ustawianie oświetlenia.   Żeby to było jednoznaczne rozwinięcie formuły z ciekawymi mapami i przeciwnikami do starć..., ale jest krok do przodu i dwa wstecz. Do atmosfery w zamkniętych lokacjach wystarczy RT. Ot ciekaw byłem jak ustawili optymalizację dla kart 8GB, a nikt nie robił testów ze zoptymalizowanymi ustawieniami. Jeśli ktoś ma monitor 1440p to będzie lepiej niż przy PS5 Pro na tym monitorze. W ustawieniach bliźniaczych do PS5 Pro i 4K DLSS P już trzeba wyłączyć hair strands, bo Vram się przelewa i wtedy trzyma ~50fps, przynajmniej na początku. 
    • Do benchmarków będzie sztos. Jak poprawia ngu d2d to w grach też będzie sztos (już jest kozacko z ramem 8000+)   W pierwszych testach jest prawie 15% wzrostu wydajności (tak jak pisałem o zebrałem dużo plusikow)     https://ithardware.pl/aktualnosci/intel_core_ultra_5_250k_plus_przetestowany_hit_segment_cpu-49235.html
    • Ja bym po prostu folię rzucił pod gont czy co tam ma być. Ale blacha nie wyjdzie taniej te kilka arkuszy? I już płyty nie trzeba będzie tylko normalnie kantówki na krzyż - a i tak trzeba będzie zrobić bo przecież jedna płyta OSB tego nie pokryje tylko kilka. Nie bawiłbym się w to - drewno konstrukcyjne na słupy i wieniec, na górę kratownica z kantówki impregnowanej ciśnieniowo, folia i blacha.
    • w sensie jak pogodzić? Przecież wiem, że teraz jest jechane z AI bo widzę na forach i grupach dyskusyjnych skupiających programistów z jakimi ludzie problemami przychodzą i „czemu to nie działa". Problemy których normalnie pisząc kod byś nie uświadczył bo z jakimś olejem w głowie byś nawet nie był w stanie takie faux pas popełniać. Później tylko czytasz komentarze „stop posting this ai slop" Najlepiej AI w microsofcie jak nawet w ich sterownikach są błędy letalne. Teraz to już chyba certyfikaty do podpisu sterowników też już AI wydaje, bo nawet ROOTKITy używają certyfikowanych driverów, a wystarczy spojrzeć na tabelę importów żeby mieć już jakiś pogląd na to, co się tam kryje    Najzabawniejsze jest, że prompterzy nawet sami wytłumaczyć problemu nie potrafią, bo nie mają zielonego pojęcia co się dzieje w tym kodzie.      AI to jest dobre, ale w generowaniu masy wanna-be koderków którzy budzą co najwyżej politowanie stosując permanentnie metodę kopiego-pejsta.    Ale nikt nie próbuje udowodnić, że modele jeszcze nie są lepsze od najlepszych programistów, bo to oczywiste. One nie są nawet lepsze od hobbystów w danym frameworku czy języku.    W sensie, rozumiem Twój punkt widzenia. Jak się ktoś zupełnie na czymś nie zna, to AI będzie lepszy, bo samemu i tak nigdy w życiu by niczego nie wyprodukował.    Możesz wytłumaczyć jak można zapomnieć includa? Chyba że piszesz w notatniku albo na kartce, to okej.   No, jak znajdziesz błąd i go poprawisz to tak. W innym wypadku będzie dalej brnąć w to bagno. Dlatego powodzenia w projektach zbudowanych z wielu tysięcy linijek. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...