Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
Godzinę temu, leven napisał(a):

Hej :) Nie, nie miał wiedziane :hihot: ale zobaczę co to jest.

 

EDIT: uruchomiłem te narzędzie i coś wykryło, zgodziłem się  dwa razy, jak by bios miało zaktualizować i po restarcie jest dalej obraz  :hahaha: Kurde., nie zapisałem wcześniejszego numerka biosu i teraz nie wiem, czy faktycznie bios został wgrany najnowszy :hmm:

Czyli wszystko gra, update się udał. Możesz po prostu odpalić drugi raz dla pewności i nie powinien już wyświetlać info że trzeba zrobić update. 

37 minut temu, Lameismyname napisał(a):

Jak to jest z tymi 5060ti w końcu.... część modeli na rynku ma PCI-E 5.0 x16, a część PCI-E 5.0 x8?

Niski segment ma poszatkowane pcie od Ady ;)  XX70 maja juz 16x. 

Opublikowano (edytowane)
14 minut temu, leven napisał(a):

Moja 5060ti 16GB  ma x8 5.0. Nie ma 5060ti x16 5.0.

Wczoraj konfigurowałem kompa z 5060ti 8GB to też pokazywało PCI-E 5.0 x8 (ASUS DUAL OC). Na B650 EAGLE AX z jakimś starszym biosem chodziła na x8 4.0
Na stronie NVIDII nie ma tej informacji, a wszędzie indziej wolna amerykanka i każdy pisze jak chce.
Na x-kom np.:
XKOM.png.d7871fa0d6879a5657a37dc762b0559b.png

@x-kom Prosimy o sprostowanie.

PS. Skoro 5060/5060ti(8GB)/5060ti(16GB) są na PCI-E 5.0 x8, to jakim cudem Hardware Unboxed w dzisiejszym teście, który wrzucał kolega @Phoenix. mają wszędzie PCI-E 3.0/4.0/5.0 x16? 

 

4 minuty temu, Phoenix. napisał(a):

Niski segment ma poszatkowane pcie od Ady ;)  XX70 maja juz 16x. 

Też mi się tak cały czas wydaje, tylko trochę zamęt w internetach jest.
Dlatego m.in. pisałem wcześniej, że największy sens odpalenia PCI-E 5.0 może być na 5060/5060ti ze względu na PCI-E x8

Edytowane przez Lameismyname
Opublikowano (edytowane)

5060ti mają elektrycznie (krawędź PCI-E) x8. Połowa ścieżek jest względem x16. Tak samo ma 4060ti.

Długość krawędzi/slotu taka sama, jak przy x16, ale elektrycznie jest x8.

 

3.jpg

Edytowane przez leven
Opublikowano

@leven Widziałem wersje z krótką krawędzią i długą. Jesteś w stanie sprawdzić jaką różnicę masz w FPS między PCI-E 4.0 x8, a PCI-E 5.0 x8?
Bo w tym kompie o którym wspomniałem będzie docelowo 5060ti 16GB (pomyłka sklepu z 8GB) i nie wiem czy nie zainstalować najnowszego biosu i próbować wymusić PCI-E 5.0 x8, bo dodatkowy zachód i w niektórych scenariuszach ludzie 5.0 zgłaszają jako niestabilne...

Opublikowano
4 godziny temu, ju-rek napisał(a):

Mam chyba też dobrze w grach. Nawet z MFG x4 :)

 

Zrzutekranu(17).thumb.png.7866703ca1f2e9832e1fd42919452a5b.png

 

Zrzutekranu(18).thumb.png.a93767316c31bef7adf99eb53c799732.png

Tak niskich to ja nigdy nie widziałem u nikogo, zazdro. Nawet po świeżutkiej instalacji W10 czy 11, podstawowych sterownikach i jakieś tylko EXPO/XMP w BIOSie przy kilku platformach.
Nawet teraz u mnie w zestawie z miniaturki ciągle 50-130us tylko na pulpicie a u Ciebie 8us przy CP2077..  Najwidoczniej nie znam tajników niezasranego systemu i stabilnej platformy :E 

Btw z której platformy to jest screen, 9950X3D + X670E + 5080 na Windows 10?

Opublikowano
9 minut temu, Lameismyname napisał(a):

@leven Widziałem wersje z krótką krawędzią i długą. Jesteś w stanie sprawdzić jaką różnicę masz w FPS między PCI-E 4.0 x8, a PCI-E 5.0 x8?
Bo w tym kompie o którym wspomniałem będzie docelowo 5060ti 16GB (pomyłka sklepu z 8GB) i nie wiem czy nie zainstalować najnowszego biosu i próbować wymusić PCI-E 5.0 x8, bo dodatkowy zachód i w niektórych scenariuszach ludzie 5.0 zgłaszają jako niestabilne...

Zaraz zobaczę w biosie, czy znajdę taka opcję :P ale sam jestem ciekawy.

Opublikowano
Teraz, maxmaster027 napisał(a):

Są różnice pomiedzy PCIe i to dosc zauwazalne. Byc moze na 5060Ti nie aż tak, ale to tez moze zalezec od gry i mocy GPU. W cyberpunku, sprawdzałem x16 i x8 po oc, to x16 było jakies 7% szybsze na benchmarku w 4k 

Dla karty z PCI-E x8 prędkość x16 nie ma nic do gadania. Elektrycznie pozbawione złącze x8 nie może mieć wpływu na x16, bo nie obsługuje połowy ścieżek sygnałowych.

Opublikowano
4 godziny temu, JeRRyF3D napisał(a):

Wszystko dla 50xx. Czyli 40xx (?) mogą się odsikać od jakiegoś już czasu na wszelkie aktu.
Bo ja z reguły instaluję każde nowe stery "dla zasady", ale przy tych cyrkach od czasów 50xx, to chyba czas się z tego "wyleczyć".

 

Ja z lenistwa od dłuższego czasu aktualizuję przez apkę i żadnych problemów ;) Wiem, to niemożliwe :E A jednak 

Opublikowano (edytowane)
15 minut temu, leven napisał(a):

Dla karty z PCI-E x8 prędkość x16 nie ma nic do gadania. Elektrycznie pozbawione złącze x8 nie może mieć wpływu na x16, bo nie obsługuje połowy ścieżek sygnałowych.

No jeżeli chodzi o x8 i x16 nie :) 

"
Są różnice pomiedzy PCIe i to dosc zauwazalne. Byc moze na 5060Ti nie aż tak, ale to tez moze zalezec od gry i mocy GPU. W cyberpunku, sprawdzałem x16 i x8 po oc, to x16 było jakies 7% szybsze na benchmarku w 4k "

Czytałem wasze posty poprzednie, i wiem ze nie ma x16. Natomiast pomiedzy PCIe 3.0 4.0 5.0 w 4k przy duzej przepustowosci moga byc roznice. Natomiast ja po prostu sprawdzilem x8 i x16 i x16 jest szybsze tyle ze to na innej karcie oczywiscie.

Edytowane przez maxmaster027
  • Upvote 1
Opublikowano
58 minut temu, Spychcio napisał(a):

Ja tam chcę zobaczyć walkę RTX6080 vs RTX4090.

Czy nareszcie jakaś xx80 wygra ten pojedynek:hihot:

Ale tutaj juz nawet udowodnili ze 5080 jest szybsze w niektorych grach od 4090, a w wielu przypadkach uzytkownicy 4090 jakby nasiłe probuja ustawiac benchmarki podkreslajace lepsza wydajnosc 4090 czyli cos co jest najczesniej zupełnie niegrywalne. Jakies DLAA 1440p pełny PT co daje 30-50Fps w zaleznosci od gry. 

Nie wiem ja sobie nie wyobrazam teraz 450W GPU ktore w porywach na specjalnych ustawieniach gry ma 5-10% lepsza wydajnosc. Jak przy 260-270W na 5080 to juz sie ciepło robi w pokoju, a trzymanie 4090 na 0.86 0.87V zeby miec okolice 300W wiąże sie z zegarem 2.4Ghz wiec tez nie bedzie to wydajnosc wyzsza niz 5080. W dodatku nie masz MFG wiec napewno nawiazujesz po prostu do rasteryzacji albo wydajnosci bez ulepszen. 

Ceny 4090 6.5-8tys no wedlug mnie to troche za duzo. Karta fajna bo wydajna, A 6080 to powinna byc na poziomie 5090, jezeli nie bedzie, albo nie bedzie blisko to duze rozczarowanie.

  • Haha 1
Opublikowano
15 minut temu, maxmaster027 napisał(a):

ktore w porywach na specjalnych ustawieniach gry ma 5-10% lepsza wydajnosc

Coś się zmieniło od premiery? Jakieś nowe sterowniki czy jak?

Bo z tego co pamiętam było 15-20% na korzyść 4090 przy "normalnych" ustawieniach.

Opublikowano (edytowane)
43 minuty temu, lukadd napisał(a):

5080 to w niektórych grach ledwo sobie z 4080 radzi :E 

https://ithardware.pl/testyirecenzje/doom_the_dark_ages_test_kart_graficznych-41653.html

 

 

nXzbDmw.png

Masz 4090 zdaje sie, ja mam UV u siebie na 0.87V wiec dla mnie tyle wystarczy az nadto, ale jak checsz zobaczyc trochę lepszą wydajnosc 5080 zagadaj tutaj do Jurka. Wklejanie jakichkolwiek wykresow nic nie da bo sam mialem 4070Ti i robielm sobie benchmarki wiec wiem jaka miala wydajnosc. 5080 po OC jest wydajniejsze w jakis grach typu GTA V o 56% względem niekreconej 4070Ti, lub ponad 106% w takim benchmarku cybperpunka bez RT. Poza tym, wiem jaki FPS ma 4090 w poszczegolnych benchmarkach bo sobie sprawdzilem i jak gdzies jest 5% szybsze to jest to naprawde duzo. Dla przykładu 100% TAA 4k w Cyberpunku 4090 robi 78FPS, a 5080 po OC juz 82.5FPS. Wiec to wszystko zalezy od ustawien. Taki RT overdrive z FG x2  w 4k jest mało bo tylko 115-116FPS ale jednoczesnie jest to o blisko 58% szybciej niz 4070Ti.  Wiec oczywiscie ja rozumiem ekscytacje wykresami, ale jak ktos sobie sprawdzil i porownał to wyglada to zupełnie inaczej. Juz pomiajac fakt ze DOOm the dark Ages, konsumuje bardzo mało energii na 5080, na moim UV pogralem 20min zeby wyciagnać srednią podczas gry to 220W( ultra nightmare na arenie 100% TAA 1440p). FPS około 100 na arenie, poza nią 110-140. Wiec jak na UV jest bardzo dobrze. Z tym, że tutaj takie OC na 3100-3150mhz dało by wiecej FPS zapewne okolo 110 
11111.thumb.png.b071b98a7c0a2d1996ca197412787326.png
 

50 minut temu, krukkpl napisał(a):

Coś się zmieniło od premiery? Jakieś nowe sterowniki czy jak?

Bo z tego co pamiętam było 15-20% na korzyść 4090 przy "normalnych" ustawieniach.

Nie wiem, skad 20% default wersja FE vs default FE w wybranych grach i ustawieniach. Czy w realnym swiecie tak rzeczywiscie jest to juz musiałbys jakies benchmarki powklejac zebysmy porownali. 

benchmarki z gier oczywiscie na daily setupie

Edytowane przez maxmaster027

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
    • Nie, ale już z chyba trwają jakieś prace na serwerach przygotowujące do wydania wersji 0.6 więc to już blisko
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...