Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
Teraz, maxmaster027 napisał(a):

Jak sie zdecyduja na 6090TI to 1000W jest prawdopodobne.

Wypuszcza 6090 z 1 zlaczem PCIE 600W pewnie jakies 30k CUDA.
I 6090 TI z 2 zlaczami PICE 5 o mocy 1000W, pewnie  jakies 35k CUDA

Bez roszad w procesie jak wyjdą wersje oc lub btf to sięgniesz tego na tych chipletach.

Teraz, maxmaster027 napisał(a):

Cena to pewnie bedzie ilosc CUDA i na pól w złotówkach

Gb202 ma ich 24500...

Matrix powinien na dniach wychodzić. Oby wyłowili bios.

Opublikowano (edytowane)
4 minuty temu, areczek1987 napisał(a):

Bez roszad w procesie jak wyjdą wersje oc lub btf to sięgniesz tego na tych chipletach.

Gb202 ma ich 24500...



No i kosztuje 21500 : 2 to jest 10700zl Tyle teraz mniej wiecej sie placi za 5090, Droższe wersje kosztuja 12-13tys
5080 ma 10750~ i kosztowal przez wiekoszsc czasu okolice 5200zl 

Edytowane przez maxmaster027
Opublikowano
24 minuty temu, areczek1987 napisał(a):

Dopiero co podawałem 5090 master do odbioru na podlasiu za 8500...

Jestem za. Wreszcie mobilizacja by wystawić chłodzenie jak nie całego pc do innego pomieszczenia :lol2: ten ich kozacki cooler się do tego idealnie nadaje.

Do tego tylko modele z AIO i blokami wodnymi zacznie mlaskanie, jęczenie i jeszcze więcej reklamacji :hihot:

Opublikowano (edytowane)

Treść bez wartości:

 

Rubin za półora roku. Optymistycznie po kolejnych 1.5-2 latach wreszcie postęp dzięki TSMC N2X czy innym lepszym.

Pesymistycznie 2.5r. 

1.5+2.5=4 lata od teraz.

Jak Rubin się samozaora ceną z kosmosu np. 3499$ MSRP, albo będzie w rasterze całe 3-10% szybszy, to ci co kupili 4090 i 5090tki za milion cebulionów, wcale na takich "idiotów marnujących kasę" nie wyjdą. 

A co sobie pograją (szczególnie w VR) to ich. 

Nie ma co się czepiać. Jesteśmy "ruszani" tylnym wejściem przez Nvidię czy kupujemy 5090tkę za 12000 czy kupujemy 5030Ti zwane 5060Ti za 1500zł.

 

-------------------------------------

 

 

 

 

A tu na temat kart i wartościowe info:

 

 

 

Edytowane przez VRman
  • Upvote 1
Opublikowano

Jak grałem w wiedźmina 3 juz jakiś czas po premierze to płotka po dachach chat skakała po czym lądowała kopytami do góry... a to przez wielu uważana za najlepszą grę ever (w tym mnie):D 

Minęło troche czasu i poprawili mnóstwo ale to przykład, że gry zbugowane, popsute na premierę w różnym stopniu były od zawsze.

Co do cen kart to z generacji na generację sa coraz droższe i sie sprzedają a wiec producent nie przeszacował ich wartości.

To nie jest tanie hobby jak celujesz w nowości ale tu nikt nikogo do niczego nie zmusza bo to tylko hobby i zawsze można iść na grzyby albo pograć w starsze produkcje, na konsoli lub w planszówki:)

 

Opublikowano (edytowane)
Godzinę temu, sideband napisał(a):

Chciałbym żeby w najbliższych latach topowe karty weszły na TDP 1000W+ szybko majstry zmienią zdanie :hihot:

Nie wiem jak bedzie wygladal 6090 ale moge wysunac wodze fantazji z AI. Jak bedzie prezentacja wygladala w 2034roku

 

Welcome everybody I am proud to present the new series of RTX GPU
At this presentation, it took us a while to deliver the best performance card on Earth, the Mighty GeForce 9080 24 GB,  RTX 4090 raw Performance! The 9080 has 15,000 CUDA cores and includes the newest additional chip that causes no lag penalty, pure rendering that can multiply your performance by up to 20×. The MFGx20 is the newest and greatest technology. Its efficiency is insane.

If you don’t like the MFGx20 and plan to buy the 9090 instead, you’re going to lose compared to this card.

Now, the 9090 — I know you’ve all been waiting for it — is the first card that has 100,000 CUDA cores. It weighs 25 kg and requires three power supplies to work properly. On the back, we’ve hidden the connectors — you’ll need ten PCIe 5.0 cables to power this thing. We made it for you so you can play new games at 8K resolution.

The newest CybernetQuantum Punk 3077 can run at 15 FPS in 8K DLAA, but by using the incredible MFGx20, you can increase the FPS to 300, and with no latency penalty thanks to our newest MFG chip. Only fluid motion artifacts.

Ladies and gentlemen, here it is — the 9090!
ASDFGH.thumb.jpg.e2a9c5ed63d36447026634838f9d83de.jpg

It is not ninety ninety, It is RTX mighty mighty! Things that he can do are literally almighty

Edytowane przez maxmaster027
  • Haha 2
Opublikowano (edytowane)
23 minuty temu, jankooo napisał(a):

a to przez wielu uważana za najlepszą grę ever (w tym mnie):D 

Kolejna gra, która z RT na 4090 potrzebuje nie tylko DLSS Q, ale i FG. Na 5090 starczy tylko DLSS Q. Niby karta "tylko 30%", a w wielu grach tyle właśnie wystarcza, żeby obejść się bez fejkowych klatek.

Edytowane przez DżonyBi
Opublikowano
1 godzinę temu, maxmaster027 napisał(a):

No widzisz, jeden glos rozsądku. Nowa technologia, tani, ma MFGx4 udany nastepca

Tak samo DLSS 4 tez jest niesamowity. Zamiast narzekac na DLSS UP
Zrzutekranu2025-10-25121933.png.73301bc075d017f08cdf47addb509054.png
Pozytywnie nastawieni ludkowie, powinni byc pod przepotęznym wrazeniem, że z 11% rozdziałki potrafi tak bardzo podgonic natywna. A Ci narzekja, że gowno. Niech se kupią Radeony i graja na FSR ciekawe czy beda mieli lepiej

Gdybym mial kupowac to i tak wybralbym 9070xt zamiast 5070TI, podobna wydajnosc, FSR4 daje rade i 1000zl w kieszeni. Moge ustawic sobie RT na medium zamiast na high, nie jest to dla mnie problem.

Opublikowano (edytowane)
2 godziny temu, RTXnietylko4060tiUSER napisał(a):

5070TI to chyba najbardziej udany model z rodziny Blackwell.

Żaden model z rodziny Blackwell nie zasługuje na miano „udanego”. NVIDIA po prostu odcina kupony – wzrosty wydajności są symboliczne, często ledwo zauważalne w grach. 5070 Ti, podobnie jak reszta serii, nie wnosi nic rewolucyjnego – to raczej kosmetyczny upgrade, który ma sprawiać wrażenie nowości. W praktyce to ta sama architektura z drobnymi poprawkami i dopiskiem „nowa generacja”, która niczego realnie nie zmienia. Seria Blackwell to pokaz tego, jak bardzo NVIDIA przestała się starać, wiedząc, że i tak ludzie kupią.

Różnice względem 4070 Ti Super są wręcz nędzne, a mimo całej tej marketingowej otoczki karta bardzo często nie dogania nawet 4080

Edytowane przez X360
  • Upvote 3
Opublikowano

5070Ti zyskuje tylko tym że ma 16GB pamięci, wzrosty wydajności są mierne. 

Teraz, janek25 napisał(a):

Za chwilę i Intel będzie mieć MFG na intelu wiec będzie sobie można za frajer sprawdzić ta technologie. A Fg na turingu i ampere jak nie ma ,tak i nie będzie...

Jedynie softem, zawsze to coś jak ktoś nie ma kasy na zmianę... Chociaż te 2-3k dzisiaj na GPU to raczej nie są wielkie pieniądze.

Opublikowano (edytowane)

Neural texturing! Nowa rewolucja AJAJA w grach!

 

Od pierwszego info pisałem, że to gówno jest bezużyteczne, bo może w 30fps jest przydatne, ale w 500fps zjada już 1/3 lub więcej wydajności, co jest po prostu kretyńskim rozwiązaniem. 

 

 

image.thumb.png.77e47334e6dfb74b706e7b65c15ba40e.png

 

 

Minus 35% wydajności. Zajebista technologia :E

Wincyj AI!

Ale ale.

Tam jeszcze jest "forward pass": 0.41ms vs. 1.21ms

To jakieś 3x szybciej bez tego gówna.

VRAM kosztuje grosze. Danie kartom 10GB więcej to jakieś śmieszne miedziaki. Pół roku temu w sklepie, nie hurtem, W SKLEPIE online, chipy 3GB kosztowały poniżej 10$. To 32GB daje 100$. W sklepie

 

Ale co tam. Nie ważne. NV i AMD dadzą nam w kartach za 1000$ połowę RAMu i będą głosem łysego w Digital Foundry nam tłumaczyć, jak wspaniałe jest AI i jak się przydaje w grach! :lol2:

Kit tam, że w cenie karty połowa wynika z kosztów

- opracowania nowego GPU, gdzie 99% prac poszła w AI

- segment AI zajmuje część GPU co podbija cenę lub obniża wydajność względem tego, gdyby dać w to miejsce to, co jest przydatne w rasterze

- przez modę na AI ogólnie ceny GPU są teraz x3

 

No dalej! Na kolana i całujmy po stopach Jensena za AI. Tak pięknie to wszystko nam się przydaje. Gry chodzące w 40fps w 1440p na 5090tce bez FG już zaczęły wychodzić. Zaraz będziemy grali z FG jako przymusem. Chwalmy Pana AJAJA! :lol2:

 

Nie chodźcie na reddit poczytać o takich rzeczach jak ten neural texturing bo można dostać raka. Jak z RT przyda się to w sumie tylko do obniżenia kosztów wydawcom gier, tutaj obniżenia kosztu dla producentów kart (można zaoszczędzić i dać JESZCZE mniej VRAMu) i kosztu utrzymania serwerów, bo przecież to skandal, żeby płacąc 400zl za grę oczekiwać, że będzie można całą grę np. 100GB pobrać kilka razy w ciągu kilku lat, albo raz i nigdy więcej.

No i ten poprawiony czas pobierania gry. Mieszkam na zadupiu w którym psy szczekają dupami. Nawet tu pobranie 70GB Battlefielda 6 zajęło kwadransik. 

 

Potrzebujemy AI jak cholera! :E

 

(tu nie czytałem komentów, ale w podobnym wątku kilka tygodni temu ludzie z pierdylionem punktów reputacji na Reddcie, czyli "szanowani fahofcy" argumentowali że spadek wydajnośći w 500fps ich nie interesuje, bo to nierealistyczny scenariusz. No jasne. Kto by chciał grać w 500fps jak można w 30tu :E

Trochę mnie ciekawi co napiszą teraz, ale już mi debilizmu starczy po poprzednim wątku)

 

 

Edytowane przez VRman
  • Upvote 1
Opublikowano
6 minut temu, janek25 napisał(a):

Za chwilę i Intel będzie mieć MFG  wiec będzie sobie można za frajer sprawdzić ta technologie. A Fg na turingu i ampere jak nie ma ,tak i nie będzie...

A co mają zrobić idą z nurtem skoro ludzie to tępe główki :hihot: Poza tym tumanie jest LSFG i każdy może to sprawdzić :hihot:

Jeżeli będzie się opłaciło wprowadzić żeby karta pierdziała ci do nosa to zrobią to :hihot:

Opublikowano
5 minut temu, VRman napisał(a):

Neural texturing! Nowa rewolucja AJAJA w grach!

 

Minus 35% wydajności. Zajebista technologia :E

Wincyj AI!

Ale ale.

Tam jeszcze jest "forward pass": 0.41ms vs. 1.21ms

To jakieś 3x szybciej bez tego gówna.

VRAM kosztuje grosze. Danie kartom 10GB więcej to jakieś śmieszne miedziaki. Pół roku temu w sklepie, nie hurtem, W SKLEPIE online, chipy 3GB kosztowały poniżej 10$. To 32GB daje 100$. W sklepie

 

Tak jest nowa technologia przede wszystkim powinna zadbac o dobry FPS, lub oferowac zauwazalnie lepsza grafike przy nieznacznie nizszym FR. Jezeli cos ubija rendering 3krotnie, to jest to po prostu kiepskie. DLSS Performance transformer dla przykladu ubiło nieco wydajnosc w porownaniu do CNN, no ale dostarczajac przy tym zauwazalnie lepsza grafike i przejzystosc w ruchu. Wiec takie cos jest super, a to że ktos tam sie podnieca UE5 ło ja ka wydajnosc jaka grafika nawet ładna prawie jak cyberpunk i 30fps..

  • Upvote 1
Opublikowano
11 minut temu, X360 napisał(a):

Różnice względem 4070 Ti Super są wręcz nędzne, a mimo całej tej marketingowej otoczki karta bardzo często nie dogania nawet 4080

Jest szybsza a przy tym kosztuje podobne pieniądze

 

Za 4070Tis zapłaciłem w PROMOCJI 3529zł i to była jedna z najniższych cen za bądź co bądź niski model (Gainward Panther). Teraz kupisz za tą kasę wyższą wydajność z numerkiem 5070Ti- dobre i to? Czy lepiej jakby nie było blackwelli z symbolicznym wzrostem?

 

W wątku panuje niesamowita odklejka bo producent najmocniejszych układów graficznych jest obsmarowywany, że karty są za SŁABE... Idżcie do konkurencji:hahaha:

Proponuje włączyć logiczne myślenie a wyłączyć myślenie życzeniowe:hihot:

 

  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • @tekkno nie należy brać informacji z 1 źródła, ale nie należy też odrzucać wszystkich i uważać się za jedynego najmadrzejszego.  Nie wiem jaki jest problem z transferem masy w tej grze, być może masz rację, być może on - Nie działa trailbraking? Nie chce mi się w to wierzyć, bo takie coś to fizyka NFSa i Burnouta, a nie simcade i sima.  Co do ludzi oglądających streamy to zjawisko znane od czasu wynalezienia pierwszego TV, ludzie oglądają, nic nowego. Jeżeli chcesz wiedzieć dlaczego poczytaj książki o psychologii. Dlaczego wolą oglądać, niż grać? Z tego samego powodu, dlaczego oglądają TV, a nie czytają książki - granie wymaga zaangażowania, umiejętności, minimum wysiłku - oglądanie żadnego z powyższych.   
    • ile komplet zimówek średniej klasy do tego audi kosztuje? 5k? 
    • Kiedy Aliexpress wjedzie za mocno   20251126_182210.mp4    
    • https://ithardware.pl/aktualnosci/rtx_60_premiera_karta_nvidia_amd-46890.html   Jak myślicie, jednak 5000 Super faktycznie może nie być jak, już chodzą plotki, że premiera następnej generacji może być opóźniona. 
    • Ustawiasz tak samo, ale 9800 nie specjalnie się skaluje z zegarem, poza oczywiście niektórymi przypadkami, jak załadowanie shaderów i siatki dużej mapy. Natomiast zyski z ustawienia są inne, szczególnie 7800. Tego faktycznie można nie ruszać. 14600k czy 9700 też można - specjalnie wolałbym tego nie rozciągać - jest to trochę marnotrastwo.  W moim przypadku jest miodzio przy 120, w innym może być i 100.  88 jest bezpieczne - absolutnie nie optymalne. Poza tym wystarczy otymizer dać na 30 i już masz po optymalnych ustawieniach AMD. Jak puścisz wszystko z płyty, to zobaczysz i 1.45v, co jest bezpieczne dla stabilności i znowu niekoniecznie optymalne. Tylko zegar zależy od napięcia i temperatury, temperatura od napięcia i optymalne sztywne ustawienie dla jednej sztuki będzie 1.25 dla drugiej 1.35. Co znowu ni jak się ma do AMD które stworzyło i ustawiło - ręczne ustawienia o ile są sensowne zawsze będą lepsze od fabrycznych, bo one muszą uwzględniać najgorsze kawałki krzemu i margines bezpieczeństwa, żeby zawsze było stabilnie… i nie wiedzą jakie włożysz chłodzenie.  88 W też pewnie ok, ale skoro domyślnie te procesory mają 65w, to 88 jest po to, żeby zrobić jakąś różnicę (w skrócie - wiadomo pbo itp). 120 vs 88 nie będzie w żaden sposób porównywalne do różnicy jaką masz 65 vs 88, ale będzie jeszcze sensowna i dla mnie widoczna przy dropach fps - dla wielu osób nie zrobi różnicy, tak jak dla mnie średni 250 - na monitorze 240hz nie widzę specjalnie różnicy czy to jest 180 czy 240, ale drop z 250 na 120 już tak. Moje ustawienia są o tyle fajne, że to właśnie minimalizują… i nie działa to tak samo na 88W. Na zdjęciu sprzed chwili masz 166w przy średnim 158 - maksymalnie widziałem 169, najczęściej jest to 164-168 w przy średnim 155-160. To jest bez sensu i właśnie coś mi się wydaje, że ustawianie ręczne limitów nic tu nie daje 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...