Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
8 minut temu, ODIN85 napisał(a):

Nie. 3080 dawała lepszy stosunek wydajności do ceny.

No nie. Pamietam miałem w koszyku 3248zl za gigabyte 3080 10GB. Ale przeliczylem i mowie nie no za drogo. Ta co mam starczy. Po 2-3tygodniach cena wskoczyla na 10k zl. I taka tez byla przez wiekszosc czasu w zasadzie do premiery nowej serii 4000. 

4090 był już za okolo 7000zł. Różnice miedzy tymi kartami w 4k sa gigantyczne + FG. Także, jeżeli ktos kupił 4090 w okolicach 7000-7500zl to zdecydowanie byla to lepsza karta i bardziej oplacalna od 3080 10GB który tylko przez moment 2-3 tyg mial cene 3300zl.(i nawet w tej cenie jest mniej oplacalny od 4090, a sam 4090 powinien miec cene okolo 6000-6500zl) Niestety była to karta najszybsza na rynku nie majac naturalnie konkurencji wiec niestety za tyle mozna bylo tylko kupic uzywane karty i to tez przez 3-4miesiace. Potem cena wskoczyla na wyzszy pułap (na taki z ktorego wystartowala na premiere)

Opublikowano
Godzinę temu, Joloxx9 napisał(a):

5070Ti jest lepszym wyborem niż nawet 4090 bo ma ta sama wydajność i kosztuje połowę mniej.

Co za bzdury wypisujesz. Jakie 5070ti takie samo szybkie jak 4090?

 

 

 

 

5070, a nie 5070ti, nieuku jeden.

16 minut temu, Phoenix. napisał(a):

 

A tymczasem na YT masz filmiki o problemie z tego typu programami. Gość zmienił z Intela na AMD i miał potężny stutter, wszyskie pomiary 0,1% i 1% lows wypadały tragicznie. W filmiku gość zauważa, że poradę, aby wywalić Afterburnera znalazł w wątku na jakimś forum... sprzed 5 lat.

Wspominał też, że problem nie występuje na każdym procu. 

Ciekawe czy to jest to, co tu poprawili, ale tak czy siak - pomyślałem, że warto o tym tu napisać, żeby się ludzie mieli na baczności.

11 minut temu, Fenrir_14 napisał(a):

Rtx 4090 to najlepsza karta jaką dostaliśmy od czasu debiutu 1080ti.

Nadchodząca premiera tylko to potwierdza 😀

Ja od początku mówiłem, że jest świetna poza ceną. Teraz uwaga, będzie niepopularna opinia: Mi się nawet 5090tka podoba. Jeśli w  VR daje 30% więcej to już jest powód, żeby się cieszyć, że taka karta istnieje. A jest szansa, że nawet 40%. To już w ogóle byłaby całkiem fajna nowa generacja, jeśli patrzeć tylko i wyłącznie na wydajność gen-to-gen. 

Ciekawe czy 7080tka za 4 lata, w 2nm GAA, wyrówna wydajność 5090tki na szynie 384bit, czy nie doskoczy, a może prześcignie. Wyrównanie rastera 5090tki  z poborem 90% pobodu 4090tki to byłaby cud karta i oczywisty wybór dla większości fanów VR, o ile tylko cena nie przekroczy 1500$

 

 

PS. Informacja dla milicjantów: Tam na początku posta jest żart i parafraza "to se kup, grubasie jeden" z Kabaretu Olgi Lipińskiej. Jest to też odpowiedź na oczywisty żart.

  • Upvote 2
Opublikowano
38 minut temu, galakty napisał(a):

Ehhh...

 

Porównaj wydajność 3090 vs 4090, a potem 4090 vs 5090 i zrozumiesz. Mam nadzieję :E 

 

I nie czytaj postów ludzi którzy pojęcia nie mają co mówią, typu RTX4090 itp, polecam ignora :E 

Ależ jandokladnie wiem jaka była różnica, co premiere mamy to samo, rant, że mogłoby być lepiej etc. To skoro 5090 i 5080 to złom, to jak inaczej podejsc do słabszych kart? 5080 zastępuje w tych samych widełkach cenowych 4080S od którego powiedzmy będzie to 10% szybszy, słaby progress ale to ten sam koszyk więc mimo wszystko jest na plus, karty jak 4090-5090  kupują tylko ludzie, którym potrzeba takiej wydajności albo zwyczajnie mają parcie i nie szkoda im kasy.

1 minutę temu, VRman napisał(a):

Co za bzdury wypisujesz. Jakie 5070ti takie samo szybkie jak 4090?

 

5070, a nie 5070ti, nieuku jeden.

Przepraszam, masz rację, 5070Ti jest już mocniejsze przecież!

  • Like 1
  • Upvote 1
Opublikowano
48 minut temu, Totek napisał(a):

To może wasze UV jednak jest na styk, weszło nowe DLSS które mocniej dociska inny typ jednostek obliczeniowych i profil UV klęka. Do poprawki :D

Na 4090 tylko 10mV do przodu niezależnie czy wybieram stary czy nowy DLSS.

Opublikowano
5 minut temu, Fenrir_14 napisał(a):

Zgadzam się co do tego - wydajności do ceny msrp. Ale biorąc pod uwagę całokształt i cenę msrp za 4090, jej kulturę pracy, temperatury, perf po UV i wydajność w stosunku do nadchodzących kart uważam nadal że to najlepszy produkt jaki dostaliśmy od czasów 1080ti 😀

Ta cena MSRP do wydajności była mega. Ale jeszcze 10GB po 2 latach zaczęło być już na styk. A Ada odleciała mega z wydajnością vs 3080 jak również vs 3090.

Obecnie 5090 oczywiście jest najwydajniejszym GPU do grania, ale skok vs 4090 każdy widzi jaki jest i czym jest to wszystko okupione.

  • Upvote 3
Opublikowano

Moje profile UV wydają się być stabilne, na parę godzin co tam pojeździłem.

 

Ale gdy zablokowałem klatki w Riva Tuner i mimo, że pobory spadły :E To zaczęło wywalać grę, kilka razy pod rząd :E Ale ja mam jeszcze tą wersję 7.3.5.

Opublikowano (edytowane)
14 minut temu, VRman napisał(a):

Gość zmienił z Intela na AMD i miał potężny stutter, wszyskie pomiary 0,1% i 1% lows wypadały tragicznie.

Tak tak wiemy, kazdy uzywa i nie ma stuteru ale jakies randomy z neta maja i kreca  o tym filmy dla klikow albo zakladaja tu nowe konta ;) Jak wychodzil 7800X3D to tez krecili te same film, praktycznie co premiere to samo :lol2:

Edytowane przez Phoenix.
Opublikowano

@Phoenix.

Nie on pierwszy o czymś podobnym pisał. Problemy z programami w tle, szczególnie tymi pomiarowymi jak Riva Tuner i Afterburner to nie są imaginacje.

Gość stawiał wszystko na nowo dwa razy, żeby zweryfikować, porównał przekładając kartę do kompa na Intelu. 

W końcu znalazł przyczynę i problem zniknął. Nie ma potrzeby niedowierzać.

Sam zobacz:

https://www.youtube.com/results?search_query=9800x3d+stutter

 

Dodam, że sam od lat widuję wątki z podobnym info. Najwyraźniej wymagana jest konkretna, "pechowa" konfiguracja sprzętu.

Opublikowano (edytowane)
21 minut temu, maxmaster027 napisał(a):

Pamietam miałem w koszyku 3248zl za gigabyte 3080 10GB. Ale przeliczylem i mowie nie no za drogo. Ta co mam starczy. Po 2-3tygodniach cena wskoczyla na 10k zl. I taka tez byla przez wiekszosc czasu w zasadzie do premiery nowej serii 4000. 

Miec, a kupic i dostac to byly dwie rozne sprawy.

 

Byly jeszcze przez miesiac przynajmniej sporadyczne tanie rzuty 3080.

Np tak wyrwalem 3080 Suprim x za 3999 z @x-kom Swietna karta na swoje czasy i mega dobre wykonanie. Cala linia suprim do dzisiaj taka jest. A Liquid to wisienka na torcie :)

Edytowane przez Zachy
Opublikowano
54 minuty temu, tgolik napisał(a):

@zozolek

 

Ktoś już tu pisał: jak najszybciej zarchiwizować te developerskie stery, najlepiej wypalić na winylu:hihot: bo jak pojawią się nowe 30 stycznia, to okaże się, że te transformery to jednak miał być ficzer tylko dla RTX 50xx.

 

Zapisałem, jakieś niedopatrzenie bo tych shaderów nie powinno w teorii dla nas być ..

  • Upvote 1
Opublikowano (edytowane)
15 minut temu, Phoenix. napisał(a):

Tak jak pisalem, co premiere amd sa filmy nt stuteru, tylko intel go nie ma, a pozniej kupuje sprzet amd i go nie ma, a jakims magicznym cudem poza yt malo kto o tym pisze takze daruj sobie prosze bo meczacy jestes gosciu ;) 

Taki stutter jak na filmie poniżej mam (miałem) też na Ryzenie 7900 także to nie jest kwestia tylko 9800X3D. U mnie pomogła dopiero najnowsza AGESA 1.2.0.3 + najnowsze stery do chipsetu.

 

 

 

Edytowane przez bourne2008
Opublikowano
41 minut temu, skypan napisał(a):

Przecież ceny w tamtym czasie były chore. To był najgorszy czas na zakup kart. Dzięki tamtym "wspaniałym" czasom mamy takie ceny jakie mamy.

Mówię o Ventusie za 3299.

35 minut temu, maxmaster027 napisał(a):

No nie. Pamietam miałem w koszyku 3248zl za gigabyte 3080 10GB. Ale przeliczylem i mowie nie no za drogo. Ta co mam starczy. Po 2-3tygodniach cena wskoczyla na 10k zl. I taka tez byla przez wiekszosc czasu w zasadzie do premiery nowej serii 4000. 

4090 był już za okolo 7000zł. Różnice miedzy tymi kartami w 4k sa gigantyczne + FG. Także, jeżeli ktos kupił 4090 w okolicach 7000-7500zl to zdecydowanie byla to lepsza karta i bardziej oplacalna od 3080 10GB który tylko przez moment 2-3 tyg mial cene 3300zl.(i nawet w tej cenie jest mniej oplacalny od 4090, a sam 4090 powinien miec cene okolo 6000-6500zl) Niestety była to karta najszybsza na rynku nie majac naturalnie konkurencji wiec niestety za tyle mozna bylo tylko kupic uzywane karty i to tez przez 3-4miesiace. Potem cena wskoczyla na wyzszy pułap (na taki z ktorego wystartowala na premiere)

Na premierę nie była za 7000.

Opublikowano
11 minut temu, Zachy napisał(a):

Miec, a kupic i dostac to byly dwie rozne sprawy.

 

Byly jeszcze przez miesiac przynajmniej sporadyczne tanie rzuty 3080.

Np tak wyrwalem 3080 Suprim x za 3999 z @x-kom Swietna karta na swoje czasy i mega dobre wykonanie. Cala linia suprim do dzisiaj taka jest. A Liquid to wisienka na torcie :)

No to udało Ci sie ;) 

Bardziej chodzi o to co sie opłaca wzgledem $$. 3080 10gb VS 4070tI BEZ uzywania FG, potrafi byc 60% szybsza w takim fortnite.

Nowe testy techpowerup z 9800X3D pokazały 65% przewage 4090 nad 4070Ti.

Różnica pomiedzy 4070Ti a 3080 jest bardzo duża. Średnio 20% szybsza w 4k i 2k. A pamietaj, że jest jeszcze frame generation... 
33333333333.thumb.png.8bcadfdeaa999576492050da3d352bf1.png444444444.thumb.png.1d974bd3d71dbdea47a1fc682ac1121d.png66666666.thumb.png.8f158c6787308219c126ce032ebf7d5d.png55555555.thumb.png.710bc151502189c19f6b5f0007e1b5ab.png

 

Opublikowano (edytowane)
10 minut temu, bourne2008 napisał(a):

Taki stutter jak na filmie poniżej mam (miałem) też na Ryzenie 7900 także to nie jest kwestia tylko 9800X3D. U mnie pomogła dopiero najnowsza AGESA 1.2.0.3 + najnowsze stery do chipsetu

A ja nie mialem i co ?? NIC. Ludzie nie potrafia kompa konfigurowac, a pozniej wrzucaja takie rzeczy ;) A na stuter potrafi wplynac tak duzo rzeczy, ze naprawde ciezko czasem cos zdiagnowzowac ale najlatwiej zwalic wine na cos cokomu pasuje. Takich filmow to nawet nie ogladam, jakies randomowe kanaly z kilkoma komentami, a o konfiguracji nic nie wiadomo.

10 minut temu, bourne2008 napisał(a):

U mnie pomogła dopiero najnowsza AGESA 1.2.0.3 + najnowsze stery do chipsetu.

Wystarczy ze wrzucisz profil expo i nowy bios wytrenuje innaczej pamieci i juz moga sie pojawic klopoty, ale to tak jak pisalem kwestia ustawien sprzetu i nieumiejetnosc uzytkownika. Malo kiedy winny jest sprzet sam w sobie.

Ale wnikac w to nie mam zamiaru bo nie o tym jest ten watek ;)

Edytowane przez Phoenix.
Opublikowano (edytowane)
18 minut temu, bourne2008 napisał(a):

Taki stutter jak na filmie poniżej mam (miałem) też na Ryzenie 7900 także to nie jest kwestia tylko 9800X3D. U mnie pomogła dopiero najnowsza AGESA 1.2.0.3 + najnowsze stery do chipsetu.

 

Panie, ale pokaz slajdów :E. Na 9800x3d nawet na agesie 1.2.0.2 tak nie miałem. Tylko, że ja nie ufam expo/xmp, mam ręcznie ustawiony ram, a jak nawet wczytałem expo na 2x32 to napięcia imc ustawiłem ręcznie swoje, bo to co profil ustawiał to trochę śmiech na sali był. Mam też filmik właśnie z gta 5 na tamtej agesie jeszcze. 

Edytowane przez NoviAMG
Opublikowano
23 minuty temu, ODIN85 napisał(a):

Mówię o Ventusie za 3299.

W dniu premiery RTX z serii 3000, żadna karta nie miała dobrego przelicznika ceny do wydajności. Wtedy jak i dzisiaj Nvidia na swoich stronach przedstawiała ceny jako placeholder-y. Patrząc na te fikołki Nvidii to wychodzi mi, że w ostatnich czasach najlepiej wycenione na dzień premiery były RTX 4000 gdzie cena końcowa była zbliżona do tej podawanej przez Nvidię.

Opublikowano
1 godzinę temu, Joloxx9 napisał(a):

Czytając ten watek:

5090 - zlom

5080 - złom

Za to nagle mamy zachwyt 4090, ktora to była określana jako złom gdy wyszła że względu na różnice w cenie i wydajności w stosunku do 4080.

 

To chyba jedynie pozostaje zostać na integrze, bo to też złom ale chociaż za darmo jest

No sorki, ale od zawsze pisałem, że 4090 to jedyna "uczciwa" karta tej generacji (ceny nie podnieśli, wydajność poszybowała) to 4080 i niższe były strasznymi kastratami.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • Nie no jasne że nie mam bo przecież nie gram w gry Multi a komputer mam od wczoraj 😂 A na 7800xd grając w warzone na limicie cpu to mi się tylko wydawało ☺️    Dziekuje ze możemy sie od ciebie czegoś nauczyć bo przecież tu ludzie tacy niedoświadczeni  🙏 Odrób lekcje, napraw komputer a problemu mieć nie będziesz   Testerzy na całym świecie testując co premierę cpu pewnie też pojęcia nie mają i testować nie potrafią skoro nie widzą tego problemu 😅 Tylko jedyny sylwesterek odkrył Amerykę 😅 Bardzo ładny wynik jak jest blisko avg fps 👌
    • No to zamykajcie w czym widzisz problem?.  A przypomnij w jakim jesteśmy dziale?:          
    • Żaden problem, 60fps czy 100fps to będzie śmiech. Cały czas piszesz jakby to było z jakiegoś powodu całkowicie niemożliwe przekroczyć barierę 30fps, w rzeczywistości to będzie najmniejszy problem bo do szybszych gier będą po prostu mniejsze i szybsze modele tak jak i dzisiaj mamy mniejsze i szybsze modele tekstowe. Topki graficzne na PC nie chodzą w 500fps, ludzie odpalają PT i ratują się generatorami, to samo będzie z największymi modelami AI.   Tak samo ta reszta gier którą wypisałeś, to jest już najmniejszy i końcowy problem którym nikt sobie nie zawraca głowy bo rzeczywisty problem tkwi gdzie indziej - spójność i zachowanie kontekstu, tu jest potrzebny postęp w najbliższych latach a nie w wydaniu mniejszego modelu żeby generował więcej fps.. Firmy dzisiaj bardzo dobrze skalują modele w dół.   Ta bariera padnie dokładnie tak samo jak za każdym razem w przeszłości gdy nowe technologie drastycznie obniżały wydajność. To porównanie zupełnie bez sensu, tu zmieniasz "silnik gry" a nie całkowicie inny sposób grania palcem na małym ekranie.   To dzisiejsze sposoby mają gigantyczne kompromisy, generyczne gry, całkowity brak fizyki a w dodatku sufit już widoczny, on nas nie zaskoczy. Można stworzyć kolejną wielką grę w dekadę z budżetem 1mld, tysiącami ludźmi, potem może coś lepszego za 2mld... To nie ma już żadnego sensu, żadnego przełomu już w ten sposób nie zobaczymy, po GTA6 znowu będziemy przez 10 lat oglądać jak każda nowa gra nie potrafi zrobić fizyki na poziomie GTA.   A jakby brało, to co? Miałbyś te same słabe gry, trochę szybciej i wydajniej, koniec.   No i to jest ciekawostka, takie tech demo są w stanie udostępnić najpewniej na jakichś minimalnych zasobach. Przyszłość na pewno będzie ciekawa
    • Coś tam podłubałem przy okazji szukania efektywnie energetycznie karty po UV i trafiłem na temat Vram, cache, rdzenia i "pudłowania" przy obsłudze cyklu. Valve może usprawnić parę rzeczy programowo, aby nic nie psuło tych zależności, stąd na Linux może być lepiej..., szczególnie gdy optymalizują pod konkretny sprzęt. RDNA 3 było dość słabe, przez "chiplety" oraz "pudłowanie" / wolne tempo współpracy Vram z cache dla rdzenia, co Nvidia robiła dużo lepiej w architekturze Ada, nawet przy mniejszym cache. RDNA 4 jest dużo lepsze, ponieważ RDNA 3 było po prostu złe we wersji opartej na chipletach.  Nic dziwnego, że wybrali "rx7600", ponieważ poza ceną był jedynym monolitem na RDNA 3, a RDNA 4 było trochę za późno przy czym FSR 4.0 nie jest open source. Ich prawdziwe wejście na rynek chyba przypadnie na "RDNA 5" lub zbudują podstawę na którą wejdą inni producenci, a Steam Machine będzie mógł być naprawdę tani, gdy ceny wrócą do normalności, a skala produkcji rozpędzi się...   Oczywiście mogłem samemu spudłować informacjami, bo w części opieram się na AI, dla szybszego przeszukaniu tematu. Już mi wcześniej halucynowało, twierdząc że rx7700xt to też monolit, w innym wyszukiwaniu mówiąc że absolutnie nie jest monolitem. Następne generacje kart graficznych będą ciekawe... Szkoda tylko, że pamięci dla AI rozwaliły rynek.  Edit. Z mniej istotnych ciekawostek / spekulacji... Możliwe że mała różnica w opóźnieniu między gddr6x oraz gddr6 została kompletnie zniwelowana przez większy cache... Dlatego Ampere z małym cache niewiele zyskiwał na gddr6x, które i tak było w pierwszej rewizji? Może AMD wróciło na gddr6, bo słabiej ogarnia zarządzanie gddr6x i nie chodziło tylko o cenę?  OH, jednak praktycznie nigdy nie użyli gddr6x, które jest bardziej skomplikowane w implementacji.  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...