Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
6 minut temu, TheMr. napisał(a):

Raczej plotki o szybkim 6000 się potwierdzają w 3nm.

3 nm i seria 6000 nie będzie takie szybkie. Druga połowa 2026 roku najprędzej.

7 minut temu, TheMr. napisał(a):

Nie sądzę żeby zrobili superki z większą ilością VRAM kiedy to wydajność siedzi… 

Osobiście nadal liczę na 5080 w wersji 24 GB, były takie plotki, że takowa może się pojawić, lecz w nieokreślonej przyszłości.

Opublikowano (edytowane)
6 minut temu, lukadd napisał(a):

@ODIN85 i jak nastawienie przed premierą? Rzucasz się na 5080?

Pada na procka i kabelek premium już mam ale czekam na testy:E

6 minut temu, Umpero napisał(a):

Czemu ?

Zainteresowanie z dnia na dzień co raz mniejsze...

Edytowane przez ODIN85
Opublikowano
5 minut temu, lukadd napisał(a):

Działa :E RTX 5090 nadchodzi:

W czasach Covida sam bawiłem się w te boty, ale nic z tego u nas poza Amazonem, Ebuyerem i ewentualnie Currysem nie działało - powprowadzali limity, chaptche, ręczne sprawdzanie zamówień itd, na którymś etapie zawsze się odpadało. 

Opublikowano
4 minuty temu, lukadd napisał(a):

9800x3d?

Działa :E RTX 5090 nadchodzi:


 

 

Co Ty. Jak zmienię to na Intela:lovin:

Teraz, Element Wojny napisał(a):

W czasach Covida sam bawiłem się w te boty, ale nic z tego u nas poza Amazonem, Ebuyerem i ewentualnie Currysem nie działało - powprowadzali limity, chaptche, ręczne sprawdzanie zamówień itd, na którymś etapie zawsze się odpadało. 

Mi wystarczyło siedzenie na forum;)

Opublikowano
1 godzinę temu, Reddzik napisał(a):

Wy macie fajnie, ale co mają powiedzieć co mają RTX 30? albo jeszcze gorzej? Kiepsko to widzę.

JAk to co? Zmieniać 3060 na 4060 dla +8% wydajności (czy to tam 3060ti vs 4060ti)

I teraz zmieniać 4060 na 5060 dla kolejnych aż 10%.

Po dziesięciu zmianach uzbiera się różnica w okolicach sensu robienia jednej. :E

 

i tu też link który ktoś wrzucał kilka podstron temu:

https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/3.html

 

I zauważcie. Kategoria: Benchmarking. Klikasz a tam "Benchmarkin LLM and AI performance"

W dziale architektura też "zmiany polepszające AI".

Ani w filmiku DF ani w tym artykule nie ma ANI LITERKI o rasterze. No chyba, że liczyć GDDR7 jako ulepszenie architektury :lol2:

 

Pisałem ponad 2 lata temu wątek na Reddicie gdzie zapraszałem do wróżenia i pisania oczekiwań. Nie mogę znaleźć, ale pisałem tam wtedy, dwa i pół roku temu, że możemy dostać jakieś ściemniane nowe generacje. Pisałem, że np. mogą przywrócić poprawne nazwy i np. 4070 przemalować na 5060Ti, dodając ciut szybszą pamięć, albo np. lekko obcięty 4070 nazwać 5060. Oczywiście z dodaniem nieistotnych pierdół, żeby nitk nie mógł zarzucić, że oszukują z tą "nową generacją" czyli nowe porty DP/HDMI, kodery video itp.

Ogólnie pisałem, że obawiam się braku nowej generacji aż do czasu 2nm. 

Dwa lata i miesiąc później mamy obraz sytuacji. Wykrakałem. To jest stara ADA + GDDR7 + ej aj ej aj, RT i jeszcze trochę ej aj. Nic dziwnego że takie śmieszne przyrosty w rasterze skoro NIC się nie zmieniło, tylko wyższy target dla poboru prądu czy  ciut mniej okrokojne wersje.

Jedyne co pozytywne, że 5090 w ogóle będzie mieć te +25% rastera. Bałem się, że zrobią MCMa, który będzie gorszy od 4090 w rasterze, ale wszyscy będą chwalić bo za to w RT i AI będzie super w grach idących w 30fps. Jedyny pesymizm odnośnie Nvidii, który się nie sprawdził. 

Przecież tak na serio to pseudo-nowa generacja, czyli refresh, mogła dać więcej niż ten Nvidia OhWell.

Pamiętacie 480 i 580 i jakie było marudzenie, że to refresh? Albo u AMD? Przecież tam było spokojnie +25% a nawet więcej. A tak narzekaliśmy wtedy mimo że cenowo dostawaliśmy więcej za każdą wydaną złotówkę w porównaniu nie tylko do MSRP ze startu poprzedniej generacji, ale i w porównaniu do cen na premierę nowej. Człowiek żył w raju i nawet nie zdawał sobie z tego sprawy :lol2:

Nie mogę tego mojego redditowego wątka znaleźć, a bym się chętnie teraz pochwalił, bo chyba jako jedyny brałem śmiesznie mały postęp w rasterze jako bardzo prawdopodobny scenariusz.

Może wywalili, bo po banie wyedytowałem i dodałem akapit z pomyjami wylanymi na moderację Reddita. Rok później się jeszcze nie skapnęli, ale może teraz już tak i usunęli :D

1 godzinę temu, Necronom napisał(a):

Prosta recepta, brakuje rzeczywiście mocy to rozważam zakup. Nie potrzebuję to nie wywalam kasy, ot cała filozofia

Ktoś grający na PC VR się zdenerwuje jak to przeczyta, bo dla VR to 5090 jest o 2x za wolna i przydałoby się coś lepszego, a gdzie tu mówić o kartach innych niż za pierdylion monet. ;)

Godzinę temu, SmogSmok napisał(a):

Poprawili to na WCCFTECH, jednak 5090 z 30% przyrostem, a nie 15%. 

 

d8027931b8c190e2a3a1083fd5d0a972d576cb44

Ale tu jest RT, a nie raster.

Swoją drogą to jestem w szoku. Byłem pewien, że JAKIEŚ ulepszenia w RT będą. Nawet przed CESem nie wykluczałem, że 5080 dorówna 4090. To ta przepustowość RAMu kompletnie nic nie daje? Aż tak mało? Nie interesuję się RT, ale rejtrejsfile z DF tyle razy powtarzają, że przepustowość pamięci, przepustowość pamięci i przepustowość pamięci. A tu taki zonk?

 

Ależ porażka, serio. A ludzie myśleli że 4060 vs. 3060 to szczyt bezczelności Nvidii :D

Jak nie dadzą +30% w 5060 w tej samej cenie to osoby robiące upgrade po 4 latach dostaną łącznie ile? Kilkanaście procent? Po DWÓCH generacjach, bo NV wymyśliła, żeby nazwać 50tkę 60tką.
Chyba, że szybko zrobią wersje z GDDR7 na kostkach 3GB i dadzą chociaż więcej RAMu. Ale to i tak nic nie pomoże osobom przesiadającym się z 3060 12GB po trzech latach.
W sumie to jako osoba nie zainteresowana kartami ala 4060, to mam nadzieję, że będzie jak najgorzej. Przynajmniej będą fajne memy i kupa dramy w internetach u testerów. Już recki 4060 na HU były całkiem zabawne i tylko czekałem czy Steve lub Tim pęknie i zacznie rzucać bluzgi :lol2:

Fajnie jakby "buuuuuuu!" było tak głośne, żeby doszło do uszu Kurteczki, który i tak się z tego pośmieje i przestawi linię GPU na produkcję chipów do AI... 

 

  • Upvote 1
Opublikowano

Ale czekajcie w sumie to jakby nie patrzeć Nvidia dokonała czegoś niesamowicie dziwnego.

Wprowadziła nowe karty na rynek i zadowoliła nie tylko przyszłych posiadaczy którzy przejdą na nowe GPU ale i 3 generacje wstecz udoskonalając ficzery.

 

Chyba czegoś takiego w historii GPU nie było.

 

W sumie to trochę łezka w oku u mnie, nigdy nie miałem Nv z "5" z przodu, ani FX 5xxx ani GTX 5xx, z RTX nie mialem 2xxx i teraz 5xxx. Wiedze tutaj jakąś prawidłowość :E

 

actor-zach-galifianakis-focusing-and-cal

"RTX"

 

 

@VRman

Czyli to wszytko twoja wina, jak mogłeś :E

Dzwon do kurteczki niech to odkręca wszystko :E

 

  • Haha 1
Opublikowano
1 minutę temu, ODIN85 napisał(a):

Mi wystarczyło siedzenie na forum;)

Ja wtedy siedziałem na forach i disco z kartami - tysiące ludzi, w jednym miejscu, żeby trafić na drop 20-30 kart na sklep raz na parę dni. Tam to padały rekordy, klikasz 2 sekundy po dropie kart brak ;D

Opublikowano
6 minut temu, galakty napisał(a):

5070Ti przy tych samych ustawieniach i FPS co 4070Ti zużyje mniej prądu prawda?

A 5080?

Ze względu na przejście na proces 3nm pewnie mniej ale z drugiej strony upchali tam sporo więcej bajerów więc może wyjść różnie ;)

  • Like 1
Opublikowano
1 minutę temu, Raider napisał(a):

przecieki mówiły że będzie taka karta pomiędzy 5090 a 5080 i faktycznie - będzie mobliny 5090 z 24GB

Jest i będzie 5090 laptopowy z 24 GB na 256-bit szynie. Tylko tym razem pisałem o możliwej desktopowej wersji 5080 z 24 GB.

A laptopowy 5090 czystą mocą to nawet nie stoi obok desktopowej 5080 8:E.

Opublikowano
1 minutę temu, bourne2008 napisał(a):

Ze względu na przejście na proces 3nm pewnie mniej ale z drugiej strony upchali tam sporo więcej bajerów więc może wyjść różnie ;)

Ale seria RTX 5000 nie korzysta z procesu 3nm tylko dalej 5nm

Opublikowano (edytowane)
7 minut temu, Kadajo napisał(a):

Ale czekajcie w sumie to jakby nie patrzeć Nvidia dokonała czegoś niesamowicie dziwnego.

Wprowadziła nowe karty na rynek i zadowoliła nie tylko przyszłych posiadaczy którzy przejdą na nowe GPU ale i 3 generacje wstecz udoskonalając ficzery.

 

Chyba czegoś takiego w historii GPU nie było.

 

W sumie to trochę łezka w oku u mnie, nigdy nie miałem Nv z "5" z przodu, ani FX 5xxx ani GTX 5xx, z RTX nie mialem 2xxx i teraz 5xxx. Wiedze tutaj jakąś prawidłowość :E

 

actor-zach-galifianakis-focusing-and-cal

"RTX"

 

Ty się tak nie ciesz na zapas, ponieważ jak na razie nie wiadomo jaki wpływ na wydajność będzie miało użycie nowego modelu Transformer. Najbardziej się martwię o Ray Reconstruction, ponieważ w tym przypadku jest wykonywanych najwięcej obliczeń na rdzeniach Tensor. NVIDIA podała, że nowy model wymaga 4 razy więcej obliczeń.

Edytowane przez SebastianFM

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Była fajna cena 1399zł niedawno, ale nie udało mi się kupić więc może jakąś używkę da radę.
    • Bardzo podchwytliwe. Myślę, że jest, chyba ze MSI skopało sam projekt PCB to Noctua sprawi tylko ze bedzie ciszej i chłodniej Ale powiem ci ze to nie głupie nawet, kupić tanio machnąć nowy shraud i bam Premium   Ja u siebie chciałem z czystej ciekawości tak zrobić, ale stwierdziłem ze karta jest zbyt cicha żeby w to inwestować. Ale jakbym miał wyjca to na pewno bym się pobawił.
    • No i jestem rozdarty nt. o którym wcześniej była wzmianka. (https://ithardware.pl/aktualnosci/geforce_rtx_50_noctua-42747.html) Tutaj pytanie do kompetentnego kolegi @Kadajo Czy Ventus Noctua jest premium czy nie?  @Smalec A Ty jak się na to zapatrujesz?
    • Pobawiłem się trochę NANOBANANA PRO w zakresie przerabiania rysunków na kolorowe obrazy w różnym stylu, poniżej pare przykładów   oraz moich wniosków na szybko (może sie komuś przyda): - czasami wychodzą głupoty w generowanym obrazie - zdarza sie ze wynik jaki otrzymamy to poprzednia nasza praca która sie zablokowała gdzieś w kolejce wczesniej a nie ta nowa na jaką czekalismy - ilosc styli jest na oko skromniejsza niz w MJ (na razie) - tematyka rysunku moze w pewnien sposób czasami wpływać na styl lub ograniczać paletę wyboru styli (np bardziej fantastyczne rysunku trudniej jest uzyskać jako realistyczne zdjęcia, bardziej je ciągnie w kierunku pseudo renderingu 3D) - efekt realistyczny powstały ze szkicu odstaje w większym stopniu od rysunku niż efekt malarski powstały ze szkicu. - jesli pracujemu w google gemini z nanobanana to w obrębie naszego czatu po przekroczeniu pewnej ilosci wpisów czat zaczyna byc niestabilny , np nie mozemy zapisać obrazka (pomaga wtedy otworzenie nowego czatu) - zdarza sie ze nanobanana nie rozumie prostych poleceń , a innym razem dla odmiany wykonuje bardzo złożone - ten sam prompt nie zawsze da ten sam wynik, czasami da inny niz na to wskazuje prompt. Ale i tak to jest duzy krok naprzód, biorąc pod uwagę fakt ze obecne modele AI kiepsko sobie radzą z wymyslaniem ciekawych złożonych artystycznych kompozycji scen (w przypadku generowaniu obrazów od zera tylko na podstawie polecenia), a nanobanana niezle całkiem interpretuje ludzkie rysunki mozna wyeliminować te słabosc silników AI umieszczając na początku workflow szkic wykonany przez człowieka.  
    • Ja raczej ją skończę, bo podoba mi się świat i nawet fabuła, ale raczej nie będę się męczył z każdym przeciwnikiem dla jakiejś nowej fryzury czy majtek.  Nie no, gra jest akurat ciekawa, ale walki to niemal jak w Dark Souls, trzeba nauczyć się kiedy należy zrobić unik lub blok, na szczęście jak coś nie pójdzie to zapis mamy niedaleko. W grze trafiłem już kilka razy na to, że w czasie walki, kamera ustawiła się za jedną z moich postaci, gdy atakowana była inna i nie widziałem chwili ataku i nie mogłem skutecznie zrobić manewrów  W grze powinna być możliwość podejrzenia statystyk wrogów, aby skuteczniej wykorzystywać punkty akcji i tą masę umiejętności, zwłaszcza jak walczymy kolejny raz z takimi samymi, więc już powinny być widoczne słabe i mocne strony.    
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...