Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
14 minut temu, Element Wojny napisał(a):

Dałem za niego równe 4000zł, dostając jednocześnie 2620zł za mojego starego FE. 1380zł dopłaty za extra 36% w rasterze i 42% w RT, do tego znacznie lepszy model, kultura pracy i temperatury + kod do Stalkera 2. Przy okazji możliwość darmowego upgrade'u do 5070Ti, o ile będzie dostępny w sprzedaży w ciągu kolejnych 2 miesięcy. 

maximum-over.gif

  • Haha 3
  • Upvote 1
Opublikowano (edytowane)

Czy już ktoś gra na RTX 50xx?

Bo ja odpalam kolejne gry z DLSS4 na RTX 4090 i papa sama mi się uśmiecha, jak fajnie to wszystko chodzi na DLSS wydajność z FG (gdzie trzeba lub można).

Na razie AC Mirage, CP2077, Horizon Forbidden West, Wiedźmin 3.

Niestety Ghosts of Tschuszima wywala się bo nie pasują jej sterowniki.

Edytowane przez tgolik
Opublikowano
35 minut temu, Element Wojny napisał(a):

Czyli w jednym miejscu testowym wygrywa, a w innym przegrywa. Czy to nie brzmi absurdalnie, biorąc pod uwagę że mówimy o kartach z dwóch różnych generacji, z tego samego tier'u? 

Powiem tak - po prostu remisuje. Bo 1-2 FPS straty to nie jest żadna wielka przegrana, tak samo 6% do przodu w innym miejscu jest różnicą nie do zauważania. 5080 jest za bardzo pocięty względem 5090 jak na xx80 i to jest fakt.

  • Upvote 1
Opublikowano
9 minut temu, tgolik napisał(a):

Czy już ktoś gra na RTX 50xx?

Bo ja odpalam kolejne gry z DLSS4 i papa sama mi się uśmiecha, jak fajnie to wszystko chodzi na DLSS wydajność z FG (gdzie trzeba lub można).

A widzisz, i do czego Ci nowa karta, skoro najlepszy ficzer dostałeś w gratisie ? :) 

Teraz, tomcug napisał(a):

Powiem tak - po prostu remisuje. Bo 1-2 FPS straty to nie jest żadna wielka przegrana, tak samo 6% do przodu w innym miejscu jest różnicą nie do zauważania. 5080 jest za bardzo pocięty względem 5090 jak na xx80 i to jest fakt.

Większość recenzentów uważa, że 5080 to tak naprawdę 5070Ti. 

  • Haha 1
Opublikowano (edytowane)

@Element Wojny

Sam się zastanawiam, po co mi nowa karta jak RTX 4090 dostała takiego boosta softwarowego. Na DLSS 3 nawet ustawienia Balans nie odpalałem, celowałem w DLAA i DLSSQ.

A na DLSS4 w trybie wydajność z FG wczoraj zaprosiłem syna, żeby znalazł mi jakieś artefakty czy źle wyświetlane cienkie elementy (w CP2077 4k@120, Dogtown z pathtracing). I nie znalazł praktycznie niczego. A input lag od FG w trybie DLSS4 wydajność niezauważalny.

Edytowane przez tgolik
  • Upvote 1
Opublikowano
7 minut temu, Element Wojny napisał(a):

Większość recenzentów uważa, że 5080 to tak naprawdę 5070Ti. 

Gdyby nie gotowanie żaby to by uważali, że to 5060.

 

No bo na dobrą sprawę jak spojrzymy na trochę jednak lat wstecz, to tak by to wyglądało.

Opublikowano
Teraz, wrobel_krk napisał(a):

5090 nie widzę pewnie 5080 samo sobie kupili;) Foundersow nie było. Pewnie tak mało ich zrobiła NVIDIA że wyslala tylko do ich "kolegów"

5090 Foundersa nie dostaliśmy, 5080 Founders był.

  • Upvote 2
Opublikowano
33 minuty temu, Element Wojny napisał(a):

Dałem za niego równe 4000zł, dostając jednocześnie 2620zł za mojego starego FE. 1380zł dopłaty za extra 36% w rasterze i 42% w RT, do tego znacznie lepszy model, kultura pracy i temperatury + kod do Stalkera 2. Przy okazji możliwość darmowego upgrade'u do 5070Ti, o ile będzie dostępny w sprzedaży w ciągu kolejnych 2 miesięcy. 

Już nie trzymaj się kurczowo tych procentów co Ci ktoś tu podał ;) bo różnie z tym jest ;) 
 

 

ale ok, 4k to dobra cena, tzn niska jak na aktualne ceny XD

Opublikowano
2 minuty temu, MJRegul napisał(a):

Już nie trzymaj się kurczowo tych procentów co Ci ktoś tu podał ;) bo różnie z tym jest ;) 

To była średnia z wyników testów 25 gier w 1440p. Oczywiście w jednej to może być +10fps, w innej +30 fps - ale zawsze na plus.

10 minut temu, tgolik napisał(a):

@Element Wojny

Sam się zastanawiam, po co mi nowa karta jak RTX 4090 dostała takiego boosta softwarowego. Na DLSS 3 nawet ustawienia Balans nie odpalałem, celowałem w DLAA i DLSSQ.

A na DLSS4 w trybie wydajność z FG wczoraj zaprosiłem syna, żeby znalazł mi jakieś artefakty czy źle wyświetlane cienkie elementy (w CP2077 4k@120, Dogtown z pathtracing). I nie znalazł praktycznie niczego. A input lag od FG w trybie DLSS4 wydajność niezauważalny.

No i pytanie brzmi, czy potrzebujesz MFG - bo moim zdaniem DLSS 4 Transformer + FG x2 w zupełności do wszystkiego wystarczy. 

  • Like 1
  • Upvote 1
Opublikowano (edytowane)
52 minuty temu, Tester Wrażeń napisał(a):

W PL mieszkasz? Jak tak to jak wyglada zabawa z kupnem i wysylka?

I tu i tu ale przy zakupach w większości sklepów w Skandynawii trzeba mieć lokalny adres do wysyłki. Ja do PL nigdy nie zamawiałem z proshopa. 

Z pl strony napewno nie będzie problemu ale na dk/se/no podejrzewam że nie zarestrujesz konta bez lokalnego adresu. 

Edytowane przez Fenrir_14
  • Upvote 1
Opublikowano

Śmieszne jest to, że Transformer zamknął usta wielu z nas, którzy psioczyli na to, że gry wymagają DLSS do płynnego działania a nie gramy w natywce itd. a teraz właśnie nagle spuszczamy się nad tym jak dobrze wszystko działa i wygląda mimo, że to DLSS a nie natywka. NV wydupcyła nas graczy przepotężnie a my się z tego cieszymy 8:E 

  • Like 1
  • Haha 3
Opublikowano

Oglądałem ten materiał Blacka na temat GIGABYTE GeForce RTX 5080 Gaming OC i tez wychodzi na to ze karta bardzo spoko z fajnymi możliwościami OC, do tego cewki ponoć nie piszczą, tylko zastanawiam sie czy brak termopadow a zamiast tego pasta to jakiś duży minus? 

Opublikowano

A taka prawda że jak nie masz 60fps bazowych to te generatory o dupę rozbić czyli musisz mieć 4090/5090 w 4k.

 

Działa marketing zielonych. Dali to samo do serii 4xxx i nagle wszyscy skaczą z radości. To że to może jest użyteczna w 2 grach na krzyż z najmocniejszymi kartami to fani piszczą z radości i sikają w majtki ze szczęścia że łaskawie nowe fejkpwe klatki dali

Opublikowano
10 godzin temu, lukadd napisał(a):

 

Weź zapuść z ciekawości coś mocnego jakieś metro exodus czy coś innego z RT bez dlls, nawet Quake 2 RTX w 4k i zobacz jak idzie pobór czy wali w Power limit.

 

Ile masz na suwaku MSI % dla podbicia PL? na tym Palicie.

Wieczorem quake odpale.

PL nie mogę zmienić, mam 2 biosy do karty 360 quiet i 400 performance, standardowo karta ma przełącznik na perf ustawiony. Nie miałem dzisiaj czasu na mega długie testy, ale +550 na rdzeniu i +400 na pamięciach lata spoko. 600 na rdzeniu się wysypał.

 

Przy +550 rdzen leci równo na 3150Mhz a temp nie widziałem więcej niż 64stopnie

  • Thanks 1
Opublikowano
26 minut temu, tgolik napisał(a):

@Element Wojny

Sam się zastanawiam, po co mi nowa karta jak RTX 4090 dostała takiego boosta softwarowego. Na DLSS 3 nawet ustawienia Balans nie odpalałem, celowałem w DLAA i DLSSQ.

A na DLSS4 w trybie wydajność z FG wczoraj zaprosiłem syna, żeby znalazł mi jakieś artefakty czy źle wyświetlane cienkie elementy (w CP2077 4k@120, Dogtown z pathtracing). I nie znalazł praktycznie niczego. A input lag od FG w trybie DLSS4 wydajność niezauważalny.

Tryb wydajnosc jest mniej wiecej jak wczesniejszy ballance lub ciut lepiej. Za to tryb nowy tryb balance (zoptymalizowany) jest lepszy niz wczesniejszy quality zdecydowanie. W 4k wyglada bardzo dobrze. 

  • Like 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
    • Nie, ale już z chyba trwają jakieś prace na serwerach przygotowujące do wydania wersji 0.6 więc to już blisko
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...