Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
1 godzinę temu, Kadajo napisał(a):

Nikt kto zna się na rzeczy i używa natywnego renderu nie powie ze DLSS czy FG jest super.

Tak, działa to spoko, tak jest to jakieś rozwiązanie niskiej wydajności. Ale oparcie wszystkiego o te techniki prowadzi ostatecznie do degradacji jakości obrazu.

 

Najgorszą rzeczą nie jest to ze to istnieje tylko to, że wmawia się ludziom a ci to jeszcze popierają i sami tak piszą, że DLSS itd. jest lepszy od natywnego renderu.
To już tylko jeden zakręt od wmówienia swoim klientom czegokolwiek tak naprawdę.

Ja używam ficzerów naprawdę rzadko, Gaiden jest pierwszą grą od dawna w której włączyłem DLSS, i od razu widzę jakieś artefakty, smużenie itd., coś czego już dawno nie widziałem. Za chwilę 4-ta generacja ficzera, a Ci nie naprawili jeszcze tego, co nie działa od pierwszej wersji. 

Opublikowano
Godzinę temu, PiPoLiNiO napisał(a):

Ale Ty wiesz, że wczoraj były te wyniki i były zupełnie inne? 🤣🤣🤣🤣🤣🤣 26% było bodaj różnicy minimum. Tylko nie wiem czemu tam było 5090#1 #2 i #3. 

 

"RTX 5090 managing a minimum of 331,000 points and a maximum of around 360,000 points, compared to the RTX 4090's 262,000 - a sizeable 37% improvement at the highest end. " 

 

https://www.techpowerup.com/331241/nvidia-rtx-5090-geekbench-leak-opencl-and-vulkan-tests-reveal-true-performance-uplifts

 

4090 ma 26k ale spoko :D 37% różnicy. BARDZO BLISKO TWOICH 6% 🤣🤣🤣🤣🤣🤣🤣🤣

 

Tak jak @Kadajo chyba pisał, jeszcze ze 2 dni i 5090 będzie wolniejsze od 4090 ;)

No to patrz.... to odnośnie tych 6%i artykułu "NVIDIA GeForce RTX 5090 - jak karta graficzna wypada na tle GeForce RTX 4090? Czysty wzrost wydajności wydaje się skromny" widać nie spodobało sie :hihot:

5555.png.3f2cbfc64a20498a28cbc7104e15f672.png

 

Opublikowano
3 godziny temu, PiPoLiNiO napisał(a):

@bofff Głupotki piszesz. Był już film 2 dni temu z włączonym Cyberpunk i mikrofonem przy karcie i była cisza. Dlatego ludzie się zastanawiają jak oni to zrobili. 

:D :D :D to  nvidia, może magicznie teleportują kwanty  energii poza obudowę

niestety  ale to  się nie klei, też masz 4090 z komorą parową więc u  know the drill

przy 400W jak  nie chcesz gotować środka trzeba zrobić solidny ciąg dół-góra

a jak chcesz mieć ciszę podczas 2-3h grania to oversized LC

 

ale

 

będę im kibicował, może jakimś cudem zrewolucjonizują budowę wentylatorów a może wynaleźli  stop o przewodnictwie wyższym od miedzi i będzie powód na nowy  build

Opublikowano (edytowane)
23 minuty temu, maxmaster027 napisał(a):

No to patrz.... to odnośnie tych 6%i artykułu "NVIDIA GeForce RTX 5090 - jak karta graficzna wypada na tle GeForce RTX 4090? Czysty wzrost wydajności wydaje się skromny" widać nie spodobało sie :hihot:

5555.png.3f2cbfc64a20498a28cbc7104e15f672.png

 

Fanbojstwo zawsze minusowało i zawsze będzie minusować takie wypowiedzi. Świata nie zmienisz. 

Kurtas dopiero co im wmówił, że 5070 szybsze od 4090, a Ty chcesz żeby przyjęli info, że 5090 ledwo przegania 4090? 

Edytowane przez Element Wojny
  • Haha 1
Opublikowano
5 minut temu, Element Wojny napisał(a):

Fanbojstwo zawsze minusowało i zawsze będzie minusować takie wypowiedzi. Świata nie zmienisz. 

Kurtas dopiero co im wmówił, że 5070 szybsze od 4090, a Ty chcesz żeby przyjęli info, że 5090 ledwo przegania 4090? 

Właśnie nieświadome pocisnąłeś maxmaxterowi :hihot:

 

Przecież on od kilkudziesięciu stron twierdzi, że Blackwelle rozjadą Adę Lovelace w Ray Tracingu. 

  • Haha 1
Opublikowano (edytowane)

Jak młode? Ja jestem ciekaw waszych opinii o tym frame gen bo chyba nawet dlss na swoim turingu nie zdążyłem odpalić

1 godzinę temu, Roman_PCMR napisał(a):

Spokojnie, za rok bedzie narracja ze ghosting w grach to jest feature a nie bug. Powoli wszyscy beda lecieli na DLSS i przyzwyczaja sie do tego tak jak my sie przyzwyczailismy np do wersji cyfrowych gier czy koniecznosci laczenia z internetem zeby gre odpalic :E 

 

A mlode pokolenie rosnie nam wybitne :E :E :E

 

 

 

Edytowane przez areczek1987
Opublikowano
16 minut temu, Element Wojny napisał(a):

Fanbojstwo zawsze minusowało i zawsze będzie minusować takie wypowiedzi. Świata nie zmienisz. 

Kurtas dopiero co im wmówił, że 5070 szybsze od 4090, a Ty chcesz żeby przyjęli info, że 5090 ledwo przegania 4090? 

Benek2.jpg.d35c423e1cc81a74a2d53f1c6fbb25f8.jpg

  • Haha 5
Opublikowano
10 minut temu, areczek1987 napisał(a):

Jak młode? Ja jestem ciekaw waszych opinii o tym frame gen bo chyba nawet dlss na swoim turingu nie zdążyłem odpalić

FG odpaliłem tylko w Cyberze, i będąc szczerym działało to chyba w miarę sensownie - ilość klatek na tyle mi zwiększyło, że mogłem w miarę komfortowo grać z włączonym PT w 1440p. Tam nawet DLSS się sprawdzał, bo większych artefaktów czy smużenia nie doświadczyłem. Ta gra to chyba idealna platforma testowa pod takie ficzery. Ale teraz odpalam inną grę, tylko z DLSS na Quality, i mam takie smużenie że aż oczy bolą. Ten ficzer to pod jedną grę robiony, żeby na slajdach ładnie wyglądało? 

Opublikowano
4 minuty temu, Element Wojny napisał(a):

Fanbojstwo zawsze minusowało i zawsze będzie minusować takie wypowiedzi. Świata nie zmienisz. 

Kurtas dopiero co im wmówił, że 5070 szybsze od 4090, a Ty chcesz żeby przyjęli info, że 5090 ledwo przegania 4090? 

No tak jest. Ja licze po cichu nie na 5070 tylko 5070Ti. 5080 za 5200 z dobrym chlodzeniem ok sztos. Ale wiem jak to moze wygladac 6k+...
Natomiast taka 5070Ti przytulic za 3800-3900 to byloby fajnie. Zrobiłem testy jak to wyglada na 4070Ti w obrębie 100% power limitu zysk OC to od 7.5% do 10% ze stabilnymi umiarkowanymi warościami (nie absolutny max oc) 4070Ti normal boost to 2620 i 21Gbps, tak przetestowalem leci boost na 2800 cos. Podkreciłem o 220Mhz i pamiec na 24Gbps (tutaj da sie jeszcze wiecej) i spr jeszcze ze 115% PL, niestety te 15% wiecej energii przekłada sie na okolo 3% dodatkowy FPS. Ale na to na co mozna liczyc mniej wiecej z karta ktora bedzie miala 110% PL to +10% wydajnosci niekiedy wiecej. Jeżeli sie bedzie skalowało tak jak wczesniej to te 46% wiecej CUDA i RT wzgledem 5070 250W która ma miec wydajnosc 4070Ti albo prawie taka w koncu bedzie szybsza niz 4070S ktora ma 220W, moze byc miłe zaskoczenie. 

OC sporo daje


123123123123123123.thumb.jpg.3d39c42b6b981495e6428ea0e5755559.jpg

Opublikowano
1 minutę temu, maxmaster027 napisał(a):

Natomiast taka 5070Ti przytulic za 3800-3900 to byloby fajnie

Zapomnij, ceny tej karty będą szybować na poziom 5080FE, bo nie ma referenta. No chyba że celujesz w jakieś budżetowe modele, to wtedy znajdziesz coś za sensowną cenę. Jeśli celujesz w topkę, przykładowo Strixa, to zerknij na mój poranny post, gdzie w UK dziś cena 4070Ti Strixa przebiła już nadchodzącą cenę 5080FE. 

 

5070Ti tańszy nie będzie, oj nie będzie. 

Opublikowano
20 minut temu, PiPoLiNiO napisał(a):

Dlatego ja się ciągle zastanawiam co tam się wydarzyło, że to działa...

Serio nie wiesz?
Mikrofon wcale nie był blisko budy, szum wentyli było słychać.
Gościo non stop restartował grę i wychodził do menu co chłodziło GPU.

Nvidia na pewno przygotowała dobrze klimatyzowane pomieszczenie do testów.

Buda bez okna.

 

Czas w jakim robił test głośności to około jedna minuta, gpu jeszcze się nie zagrzało. Do tego na liczniku miał 313fps :E Czyli używał zapewne najmniej obciążającego DLSS ultra performance + MFG x 4. Co znacznie obniżyło pobory prądu przez GPU w trakcie tego niby testu.

 

Za jego plecami stał gostek od nvidii i każdy element testu był przez niego koordynowany tak, aby nie wyszła jakaś kicha :E

  • Upvote 7
Opublikowano
1 minutę temu, lukadd napisał(a):

Czas w jakim robił test głośności to około jedna minuta, gpu jeszcze się nie zagrzało. Do tego na liczniku miał 313fps :E Czyli używał zapewne najmniej obciążającego DLSS ultra performance + MFG x 4. Co znacznie obniżyło pobory prądu przez GPU w trakcie tego niby testu.

 

Za jego plecami stał gostek od nvidii i każdy element testu był przez niego koordynowany tak, aby nie wyszła jakaś kicha :E

To jest idealna wręcz definicja spreparowanego testu, żeby uzyskać oczekiwany wynik. 

Opublikowano
3 minuty temu, Element Wojny napisał(a):

Żeby nie było że jak wpadną recki 29-ego, to nagle kolejka chętnych po 5080 się rozejdzie. 

Po testach  zrezygnuje 30%, a dzień później kolejne 40 jak zobaczy VENTUSA w cenie 5799 XD

  • Haha 2
Opublikowano
59 minut temu, PiPoLiNiO napisał(a):

Tak naprawdę jest tylko Astral i nic więcej. Nic co zdaje się posiadać chłodzenie godne tych 575W....

Astral też dupa, jak chcesz chłodzenie porządne to musisz iść w wodę.

  • Upvote 1
Opublikowano
3 minuty temu, cichy45 napisał(a):

Astral też dupa, jak chcesz chłodzenie porządne to musisz iść w wodę.

Tak po prawdzie coraz bardziej mnie ten inno3d frostbite kusi 😀 wrzuciłbym 2 chłodnice, d5ke, distra do evo xl dostępne w kilku wariantach, no kurde coraz bardziej przekonującą perspektywa. 4090 frostbite bardzo dobre recki zbierało i temperatury na poziomie 45 stopni przy zwykłym setupie 👍

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Była fajna cena 1399zł niedawno, ale nie udało mi się kupić więc może jakąś używkę da radę.
    • Bardzo podchwytliwe. Myślę, że jest, chyba ze MSI skopało sam projekt PCB to Noctua sprawi tylko ze bedzie ciszej i chłodniej Ale powiem ci ze to nie głupie nawet, kupić tanio machnąć nowy shraud i bam Premium   Ja u siebie chciałem z czystej ciekawości tak zrobić, ale stwierdziłem ze karta jest zbyt cicha żeby w to inwestować. Ale jakbym miał wyjca to na pewno bym się pobawił.
    • No i jestem rozdarty nt. o którym wcześniej była wzmianka. (https://ithardware.pl/aktualnosci/geforce_rtx_50_noctua-42747.html) Tutaj pytanie do kompetentnego kolegi @Kadajo Czy Ventus Noctua jest premium czy nie?  @Smalec A Ty jak się na to zapatrujesz?
    • Pobawiłem się trochę NANOBANANA PRO w zakresie przerabiania rysunków na kolorowe obrazy w różnym stylu, poniżej pare przykładów   oraz moich wniosków na szybko (może sie komuś przyda): - czasami wychodzą głupoty w generowanym obrazie - zdarza sie ze wynik jaki otrzymamy to poprzednia nasza praca która sie zablokowała gdzieś w kolejce wczesniej a nie ta nowa na jaką czekalismy - ilosc styli jest na oko skromniejsza niz w MJ (na razie) - tematyka rysunku moze w pewnien sposób czasami wpływać na styl lub ograniczać paletę wyboru styli (np bardziej fantastyczne rysunku trudniej jest uzyskać jako realistyczne zdjęcia, bardziej je ciągnie w kierunku pseudo renderingu 3D) - efekt realistyczny powstały ze szkicu odstaje w większym stopniu od rysunku niż efekt malarski powstały ze szkicu. - jesli pracujemu w google gemini z nanobanana to w obrębie naszego czatu po przekroczeniu pewnej ilosci wpisów czat zaczyna byc niestabilny , np nie mozemy zapisać obrazka (pomaga wtedy otworzenie nowego czatu) - zdarza sie ze nanobanana nie rozumie prostych poleceń , a innym razem dla odmiany wykonuje bardzo złożone - ten sam prompt nie zawsze da ten sam wynik, czasami da inny niz na to wskazuje prompt. Ale i tak to jest duzy krok naprzód, biorąc pod uwagę fakt ze obecne modele AI kiepsko sobie radzą z wymyslaniem ciekawych złożonych artystycznych kompozycji scen (w przypadku generowaniu obrazów od zera tylko na podstawie polecenia), a nanobanana niezle całkiem interpretuje ludzkie rysunki mozna wyeliminować te słabosc silników AI umieszczając na początku workflow szkic wykonany przez człowieka.  
    • Ja raczej ją skończę, bo podoba mi się świat i nawet fabuła, ale raczej nie będę się męczył z każdym przeciwnikiem dla jakiejś nowej fryzury czy majtek.  Nie no, gra jest akurat ciekawa, ale walki to niemal jak w Dark Souls, trzeba nauczyć się kiedy należy zrobić unik lub blok, na szczęście jak coś nie pójdzie to zapis mamy niedaleko. W grze trafiłem już kilka razy na to, że w czasie walki, kamera ustawiła się za jedną z moich postaci, gdy atakowana była inna i nie widziałem chwili ataku i nie mogłem skutecznie zrobić manewrów  W grze powinna być możliwość podejrzenia statystyk wrogów, aby skuteczniej wykorzystywać punkty akcji i tą masę umiejętności, zwłaszcza jak walczymy kolejny raz z takimi samymi, więc już powinny być widoczne słabe i mocne strony.    
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...