Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)

Tu jest jakiś wczesny test RTX5060 8GB w FHD, niestety nie pełny ale dający  jakis obraz karty. Wyłaczając wyniki z MFG, bo te są mało ważne to w porównaniu do RTX3060 karta w 1080p z RT i DLLS Q jest od 50 do 80% bardziej wydajna w zależności od gry. Oczywiście brakuje testów w czystej rasteryzacji i w porównaniu do RTX4060.  Preview exclusive : j'ai joué avec la RTX 5060 avant tout le monde et elle risque fort de faire parler d'elle ! - jeuxvideo.com

Edytowane przez xtn
Opublikowano
2 minuty temu, galakty napisał(a):

Ale rakowisko z tym MFGx4 i porównaniem do RTX 2060 xD 

Porównanie do RTX 2060 jest ok, bo sporo ludzi siedzi na 2060 i 3060 i się zastanawia czy jest sens zmieniać ale MFGx4 to parodia testu. 

  • Upvote 1
Opublikowano
12 minut temu, xtn napisał(a):

Porównanie do RTX 2060 jest ok, bo sporo ludzi siedzi na 2060 i 3060 i się zastanawia czy jest sens zmieniać ale MFGx4 to parodia testu. 

Dlatego test do kosza, sorry ale jak widzę jakiś dziwny portal i to po francusku gdzie na jednym wykresie jest RTX 2060 i MFGx4 to tylko się uśmiecham :E 

Opublikowano (edytowane)

Te testy na TPU mające być dowodem, że 8GB to nie problem to tak.. no.. ;)

 

BTW. Karta RX 480 8GB wydana bez miesiąca 9 lat temu, za 230$, oferująca wtedy półkę zajmowaną dziś przez 5070ti:

image.png.ad1e989fbe4f66ed314fedc0b0ab21c8.png

 

Nvidia mogła to zrobić inaczej. Ograniczyć sprzedaż GPU 5060 do tych producentów, którzy stworzą osobną dedykowaną markę dla kart.

 

image.png.385d789a3cdc915a27f90bca71df30c1.png

 

image.png.2e9b0b6f07965716115d953832f61df3.png

 

O, taką markę wymyśliłem (AI zrobilo obrazek) W ostatnim AI pokręciło nazwę, ale w końcu zrobiło napis o wspieranej technologii poprawnie. ;)

 

 

 

 

 

I niech kupują ci lubiący jak ich...

Edytowane przez VRman
  • Haha 1
Opublikowano

Nvidia ma w dupie karty dla graczy, już wszyscy o tym głośno mówią. Steve z HU, Steve z GN ale tak jak Steve "cytował" tego typka co go nazwał swoim mentorem, niestety on już nie żyje.

"Narzekacie, wyzywacie a i tak potem idziecie i kupujecie ich karty".

 

Tak ze, nie ma ratunku dla tej branży.

  • Like 1
Opublikowano

@galakty

Nie mam pod ręką, nie notowałem.
Spróbuję notować, pewnie w nadchodzącym teście 5060 się coś pojawi to Ci wtedy podlinkuję, OK?
Póki co mam pod ręką to, bo właśnie obejrzałem test z 1080p medium w różnych grach. Oblivion remaster. 

image.png.23f1b4d46ecfe09a0d9d92f641fb5728.png

 

Całkiem spora kupa w 1% lows. 

W tym teście ze screenshota w innych nie ma problemu na medium 1080p. Ale na HU i gdzieś jeszcze widziałem problemy w 1440p medium lub 1080p z jeden czy dwoma levelami niżej od Ultra. 

Problem w tym, że słupki nie pokazują wszystkiego:

- po pierwsze lows. Niektórzy w ogóle tego nie testują. Jak widzę brak lows to nawet nie marnuję czasu na takie testy

- czasem problemy pojawiają się później, nie po 2 minutach a po np. 10, gdy RAM się zatka

- czasem słupek wygląda spoko, ale jest problem z gorszą jakością tekstur. To jeszcze spoko, ale czasem jest to nie tyle gorsza jakość, co kaszanka wyglądająca jak jakiś gltch, migotanie, dziki pop-in itp

 

Nie interesuje mnie temat aż tak bardzo, żebym zapamiętał więcej, więc wybacz, że nie podam konkretnych linków/timestampów. Przecież jakbym zmieniał kartę to na bank nie na coś z 8GB. Szczerze, to uważam, że 4070ti super/5070ti to minimum.

Ale może faktycznie czas zacząć notować, szczególnie testy kart 12GB, to się przyda za rok czy kiedyś na forum ;)

Opublikowano (edytowane)

A bez Lumena też takie różnice są? Bo 41 czy 58 FPS to i tak jedna wielka kupa... 

 

EDIT: Dobra znalazłem, w większości gier w 1080p nie odstaje, ale dowalenie RT/Lumena/1440p powoduje że 8GB dostaje czkawki, choć na 16GB i tak za mało FPS żebym to nazwał komfortowym graniem. Tak czy siak karta śmietnik do grania w Counter Strike albo Medium 1080p

Edytowane przez galakty

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...