Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
Godzinę temu, tomek25 napisał(a):

Nie wiem czy było wklejane na forum, jestem na etapie nadrabiania stron w tym temacie:hmm: 

 

Sorry on jest oderwany troszke od postepu jaki sie dokonał. Porównuje 7900xtx i 7900xt do 5070Ti i 5080 ...wydajnosc w rasteryzacji, fajnie... porównuje nowe karty z serii 5000 do starych 7900XT i XTX w rasteryzacji, a potem nową serię RX 9070 i 9070XT w ray tracingu do starszej wersji nV 4070Ti Super.... nie no komedia. 

Opublikowano
5 godzin temu, Pentium D napisał(a):

 

  Pokaż ukrytą zawartość

shock.thumb.jpg.86e42e3bcdc4d10eb1f03edd0d87cad8.jpg

 

 

Kurtas chce za topkę teraz 1999 USD

 

W 2012 za GTX 690 wołał 999 USD a to była karta z dwoma rdzeniami. Dwa lata później, w 2014 za GTX TITAN Z, też karta z dwoma rdzeniami wołał 2999 USD.

 

2015 - GTX 980 Ti za 649 USD

2017 - GTX 1080 Ti za 699 USD

2018 - RTX 2080 Ti za 999 USD

2020 - RTX 3090 za 1499 USD

2022 styczeń - RTX 3090 Ti za 1999 USD

2022 wrzesień - RTX 4090 za 1599 USD. Pięknie wydymani ci co kupili 3090 Ti.

2025 - RTX 5090 za 1999 USD i tu też zanosi się na :sex: skoro seria 6000 może być w tym roku lub za rok.

 

Jak pokazuje historia ceny wyciągane z dupy i nie mające nic wspólnego z rozmiarem rdzenia i oferowaną wydajnością. 2080 Ti miał gigantyczny rdzeń a kosztował połowę tego co 3090 Ti. RTX 4090 wydajniejszy od 3090 Ti a tańszy.

 

zdecydujcie sie, jeden przyjdzie i powie 3090/4090 to nowy Titan, przyjdzie drugi i powie - karty dla plebsu :E

wrzesien 2018 RTX 2080Ti 999USD 4352 CUDA
grudzien 2018 RTX Titan 2499USD 4608 CUDA

 

I wszystkie teorie wywalily sie na zbity ryj :D

Opublikowano (edytowane)

ja o tym mówiłem jeszcze na Labie :E, że nvidia titanami sobie testowała rynek, aż wreszcie dali na serie  xx90 takie ceny :hihot:, a sezon krypto pokazał ile ludzie mogą dać za karty nawet za 3080 dawali po 10k xD

Edytowane przez z1k
Opublikowano (edytowane)
22 minuty temu, z1k napisał(a):

sezon krypto pokazał ile ludzie mogą dać za karty nawet za 3080 dawali po 10k

Tylko to zupelnie inna sytuacja, bo te 10k karta zarobila na siebie w pare miesiecy i ludzie to wiedzieli. Teraz przecietny gracz nie bedzie mial dochodu z GPU.

 

Uwazam, ze 5090 beda po 2-3 miesiacach lezaly w magazynach w tej cenie - po poczatkowym szale oczywiscie, kiedy beda wykupione na pniu. 

Korporacyjny rynek AI tez nie bedzie jakos super zainteresowany 5090, bo beda woleli dolozyc do dedykowanych rozwiazan dla supportu, zreszta wiaza ich kontrakty.

Jedyne co to jacys domorosli amatorzy moga te karty pod AI kupowac. 

Wiec to karta stricle do grania i wiekszosc je kupi z takim przeznaczeniem. Czy to duzy rynek? Na pewno wiekszy niz na pierwsze Titany po $1k, bo w stanach poczatkujacy programista zarabial wtedy $100k rocznie, teraz zarabia 300k+, wiec $2k jest komparatywnie mniejszym wydatkiem. Jednak nie na tyle duzy, by cechowal sie nieogrqniczonym popytem. 

 

Edytowane przez srekal34
Opublikowano
4 godziny temu, dawidoxx napisał(a):

Proste że tak :E

 

Żeby z 5090 nie nie było 

jak z 3090 ti albo podobnie i np

za pół roku wyjdzie jakiś 5090 Ti 🤣

 

A później jeszcze z dopiskiem Super tak przed samym pojawieniem się RTX60XX z DLSS 5 i generatorem fejkowych klatek x8 🤭

 

 

Opublikowano
11 godzin temu, Kadajo napisał(a):

Ale nikt nie neguje tego ze laik nie zobaczy różnicy, na boga jesteśmy PCMR tak jak Linus powiedział w tym filmie co dawałem link jak go Nvidia zapytała skąd wie, który obraz jest który "Jak to skąd widzę różnice, to MOJA PRACA, aby widzieć ta różnicę, tym się zajmuje".

Bo podjadłem świadomą decyzję ze lepsze są te artefakty niż 30 FPS, poza tym jest ta akurat tytuł relatywnie spokojny w obrazie i tam naprawdę to nie przeszkadza i malo kiedy widać problemy.

W takim CP2077 jest już zdecydowanie gorzej i jak sobie go odpale np. w 4K bez tych wszystkich "ulepszaczy" to widzę, jaka ja normalnie mam ciapę na ekranie z włączonymi tymi ulepszczaczami.

W CP2077 wystarczy wyłączyć PT, żeby już się cieszyć lepsza jakością renderu, jak wyłączymy DLSS to już jest w ogóle bajka.

Poza tym cały czas powtarzam ze prawdziwym zabójcą jakości obrazu nie jest FG tylko DLSS.

 

11 godzin temu, Kadajo napisał(a):

Pierwszą oznakę ze cos może być nie tak masz już w samym wyborze tego jak szybko ma działać MFG, po co to jest ?
Dlaczego nie ma tak jak przy FG ze tylko to włączasz albo nie ? Pisałem już to wiele razy, dlaczego ktoś by chciał, włączając MFG mieć mniej klatek, a nie więcej.

 

RTX jest z nami od 2018 rokum, czyli ma już ponad 7 lat.

Ja użyłem od tego czasu DLSS tylko w 2 tytułach (Wiedźmin 3 i CP2077) a FG w 3 (Wiedźmin, CP2077 i MFS), z czego w MFS używam TAA lub DLAA.

Dlaczego ? Bo mogę i mam lepsza jakość obrazu bez DLSS i FG.

Wyjątkiem jest tu ewentualnie Wiedźmin gdzie osobiście uważam ze lepiej wygląda z DLSS niż bez ale to moje osobie preferencje, bo uważam ze obraz w Wiedźminie 3 jest piekielnie ostry i bogaty w detale, DLSS to wszytko trochę tłumi (czyli defakto pogarsza jakość obrazu) i w moich oczach wygląda to lepiej. Ale nadal jest ten sam efekt, pogorszenie jakości.

Czekam aż zajdziemy z DLSS do 360p i zaczniemy z tego robić "4K*" w trybie "jakości" z marketingiem NVIDIA która przekona ludzi że to lepsze niż natywne 2160p 😉🤭

  • Thanks 1
  • Haha 1
  • Upvote 1
Opublikowano
13 minut temu, srekal34 napisał(a):

Korporacyjny rynek AI tez nie bedzie jakos super zainteresowany 5090, bo beda woleli dolozyc do dedykowanych rozwiazan dla supportu, zreszta wiaza ich kontrakty.

Jedyne co to jacys domorosli amatorzy moga te karty pod AI kupowac. 

Będzie będzie. 

 

32 GB VRAM w takiej cenie to wręcz okazja. A Foundersa to nawet nie trzeba rozkręcać, aby mu zmniejszyć gabaryty chłodzenia. 

9 minut temu, Brolly napisał(a):

Wiadomo już kiedy oficjalnie testy? 8:E 

W piątek o 15:00

  • Upvote 1
Opublikowano
4 minuty temu, azgan napisał(a):

Czekam aż zajdziemy z DLSS do 360p i zaczniemy z tego robić "4K*" w trybie "jakości" z marketingiem NVIDIA która przekona ludzi że to lepsze niż natywne 2160p 😉🤭

Technicznie już jest to możliwe.

 

image.png.abf9c7b55917af1fb1011eab66e0a15b.png

 

Wystarczy użyć DLSS Tweakera :E

image.png.9d303794b277c53748fcd31c35ded4cd.png

 

  • Thanks 1
Opublikowano (edytowane)

2017 rok, GTX1080Ti, granie w natywnym 4K i realnych 60k/s+ staje się faktem i podśmiechujki z konsolowych graczy że grają w oszukanym "4K*" na TV z sztucznymi upłynniaczami obrazu bo inaczej bez tego cinematic experience 😉

 

https://www.benchmark.pl/testy_i_recenzje/geforce-gtx1080ti-test/strona/27670.html

 

https://hdtvpolska.com/geforce-gtx-1080-ti-granie-ultra-hd-4k-staje-sie-jeszcze-latwiejsze/

 

https://www.cdaction.pl/testy/geforce-gtx-1080-ti-wyniki-testow-wydajnosci-w-14-grach-wideo

 

 

 

Jak mnie to dzisiaj bawi gdzie DLSS i generatory klatek w topowych GPU i PCMR przestawiło się że tak ma być bo im ta sama NVIDIA wmawia od lat że to przyszłość a że AI to płać więcej bo tak i już jest gitara a rozmydlacze i sieczkomaty obrazu są super jednak :E

 

Na Labie nie brakowało przecież komentarzy że DLSS jest lepsze niż natywna rozdzielczość 4K a nawet teraz na różnych stronkach można przeczytać wpisy ludzi którzy wierzą w to że FG "za darmo" dodaje więcej klateczek i nie widać różnicy 🤭.

Edytowane przez azgan
  • Like 1
  • Upvote 2
Opublikowano
16 godzin temu, SebastianFM napisał(a):

Do tej pory był używany tylko jeden model do generowania a przetwarzanie OFA było realizowane za pomocą obliczeń na shaderach.

To po co im był hardware akcelerator OFA skoro liczyli na shaderach :E i dlaczego "słabszy sprzętowy OFA" w Ampere był blokiem do FG, skoro sprzętowy nie był używany.

15 godzin temu, Kadajo napisał(a):

Nie mam problemu z DLSS czy FG, dopóki nie zabija faktycznej jakości i wydajności grafiki w grach.

 

Problem taki że zabija, na Adzie szczególnie. Aktywacja FG = -1/3 prawdziwych FPS. Im wyższa rozdzielczość tym spadek większy, przy 8K to praktycznie nie podnosi FPS co znaczy że realnych FPS zjada połowę, a tę połowę podwaja więc wychodzi na to samo co bez FG.

  • Upvote 1
Opublikowano
6 minut temu, cichy45 napisał(a):

Problem taki że zabija, na Adzie szczególnie. Aktywacja FG = -1/3 prawdziwych FPS. Im wyższa rozdzielczość tym spadek większy, przy 8K to praktycznie nie podnosi FPS co znaczy że realnych FPS zjada połowę, a tę połowę podwaja więc wychodzi na to samo co bez FG.

Nie chodziło w tym sensie, tylko że używają DLSS i FG do uzyskania 60 FPS ;)

Zaczyna się on pojawiać w wymaganiach i jest traktowany jako podstawa wydajności.


Robią dokładnie to samo co Nvidia. Reklamują jakość i wydajność za pomocą AI :)

  • Upvote 2
Opublikowano
Teraz, cichy45 napisał(a):

To po co im był hardware akcelerator OFA skoro liczyli na shaderach :E i dlaczego "słabszy sprzętowy OFA" w Ampere był blokiem do FG, skoro sprzętowy nie był używany.

Aktualnie za pomocą shaderów jest obliczane przetwarzanie wyniku OFA. W nowej wersji FG ma być używany do tego model AI. Czy teraz wszystko jasne?

Opublikowano
11 godzin temu, Kadajo napisał(a):

Pierwszą oznakę ze cos może być nie tak masz już w samym wyborze tego jak szybko ma działać MFG, po co to jest ?
Dlaczego nie ma tak jak przy FG ze tylko to włączasz albo nie ? Pisałem już to wiele razy, dlaczego ktoś by chciał, włączając MFG mieć mniej klatek, a nie więcej.

 

RTX jest z nami od 2018 rokum, czyli ma już ponad 7 lat.

Ja użyłem od tego czasu DLSS tylko w 2 tytułach (Wiedźmin 3 i CP2077) a FG w 3 (Wiedźmin, CP2077 i MFS), z czego w MFS używam TAA lub DLAA.

Dlaczego ? Bo mogę i mam lepsza jakość obrazu bez DLSS i FG.

Wyjątkiem jest tu ewentualnie Wiedźmin gdzie osobiście uważam ze lepiej wygląda z DLSS niż bez ale to moje osobie preferencje, bo uważam ze obraz w Wiedźminie 3 jest piekielnie ostry i bogaty w detale, DLSS to wszytko trochę tłumi (czyli defakto pogarsza jakość obrazu) i w moich oczach wygląda to lepiej. Ale nadal jest ten sam efekt, pogorszenie jakości.

W jakich rozdzielczościach to tłumienie detali występuje, a w jakich nie?

Opublikowano
37 minut temu, cichy45 napisał(a):

Problem taki że zabija, na Adzie szczególnie. Aktywacja FG = -1/3 prawdziwych FPS. Im wyższa rozdzielczość tym spadek większy, przy 8K to praktycznie nie podnosi FPS co znaczy że realnych FPS zjada połowę, a tę połowę podwaja więc wychodzi na to samo co bez FG.

Nie zabija a to o ile zmniejsza się ilość prawdziwych FPS zależy od rozdzielczości i od tego ile jest FPS bez włączonego FG. Ty podałeś ekstremalny przykład z tym 8K.

Na RTX 4090 generowanie klatki pośredniej w 4K zajmuje około 2,5 ms. Przy bazowych 100 FPS po włączeniu FG będzie około 160 FPS czyli 80 prawdziwych klatek i 80 generowanych na sekundę. W takim przypadku to jest -1/5 a nie -1/3.

  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...