Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
3 minuty temu, michaelius33 napisał(a):

A przyłącze masz odpowiednie z elektrowni ? :E

Oczywiście, inaczej bym nie zakładał.

 

@PiPoLiNiO Tak oglądam to, co wrzuciłeś i nie widzę zachwytu, nawet daje się wyczuć zażenowanie... Normalnie premiera 5xxx to chyba premiera dekady :E

Opublikowano (edytowane)
28 minut temu, ODIN85 napisał(a):

:pozdro:

main_domowe_ch_odzenie.jpg

To dalej jest gorsze rozwiązanie niż to które @lukadd  zaproponował :E tutaj zimne powietrze z klimy wchodzi do skrzynki ale nadal moc jest wywalana ze skrzynki do pokoju co z tego że bebechy będą chłodne jak w pomieszczeniu sauna ;) Wyciąg ciepła z budy okapem kuchennym z odprowadzeniem na zewnątrz budynku rurą lepszy xD 

Edytowane przez Send1N
  • Upvote 2
Opublikowano (edytowane)

@PiPoLiNiO Odniosłem takie wrażenie. Mowa ciała, chęć "niepodpadnięcia" producentowi, delikatnie tylko podkreślone minusy. Taki dupochron bym powiedział. No ale co ma powiedzieć, skoro jaka 5090 jest - każdy widzi...

 

Recenzje przy 4090 były o 180 stopni inne, dało się wyczuć "zadowolenie" z produktu, a tutaj...

Edytowane przez CryptTM
Opublikowano
2 minuty temu, KaszaWspraju napisał(a):

Kurede upatrzyłem sobie PSU 1000W ATX 3.1 od Seasonic, a tu widzę trzeba 1200W min od innych kart niż Nvidia?

Nie przesadzaj dobre 1000W styknie idealnie. Te GPU bedziesz uzywał po OC zapewne 87% power limit OC 250Mhz co da zauważalnie lepsza wydajnosc od factory default i ponizej 500W. 

Opublikowano

 

Wydajność- wydajnością, bo to w końcu ani ta sama generacja, ani ta sama półka cenowa.
Natomiast różnica w jakości obrazu pomiędzy DLLS4 a FSR3 to jest już po prostu przepaść.
AMD może być będzie ciężko rywalizować w jakimkolwiek segmencie jeżeli nie poprawi skokowo swojego upscalera.

Opublikowano

Zrobiłem kolejny test z podmianką bibliotek DLSS na 4 tym razem w Forzie Horizon 5 - gra sama w sobie jest mega zoptymalizowana moim zdaniem, ale tutaj mam wrażenie, że tak na prawdę poza poprawą jakości obrazu jest też lekki boost do wydajności i to na leciwym 2060 :D

I tutaj pierwsza rzecz jaka mi się rzuciła w oczy, to przy tych samych ustawieniach, nie dostaję już komunikatu o braku pamięci Vram, gdzie wcześniej to było pierwsze co pojawiało się po wejściu do gry. Wcześniej zapchane było praktycznie 99% teraz zużycie oscyluje w granicach 92-93.
Gram w rozdziałce 1440p z DLSS Quality, wszystko na Ultra, jedynie RayTracing ustawiony na Wysoki. (Poza miastem trzyma solidne 70fps - w mieście gdzie wczesniej częściej bywało 40fps +-5, tak teraz częściej widac na liczniku wynik bliżej 55 fps! )
Mega :D Chociaż i tak kartę zmieniam w tym roku, no ale i tak jestem w szoku co ona jeszcze wyczynia ;) 

  • Upvote 3
Opublikowano
13 minut temu, CryptTM napisał(a):

Recenzje przy 4090 były o 180 stopni inne, dało się wyczuć "zadowolenie" z produktu, a tutaj...

Bo tam było vs 3090 +70% w rastrze i jeszcze więcej w RT. Był kop solidny.

 

A tu dostajesz wszystkiego po 30%, wraz z poborem prundu i ilością wydzielanego ciepła :E Wiec bida.

  • Upvote 2
Opublikowano
6 minut temu, soundvibez napisał(a):

Zrobiłem kolejny test z podmianką bibliotek DLSS na 4 tym razem w Forzie Horizon 5 - gra sama w sobie jest mega zoptymalizowana moim zdaniem, ale tutaj mam wrażenie, że tak na prawdę poza poprawą jakości obrazu jest też lekki boost do wydajności i to na leciwym 2060 :D

I tutaj pierwsza rzecz jaka mi się rzuciła w oczy, to przy tych samych ustawieniach, nie dostaję już komunikatu o braku pamięci Vram, gdzie wcześniej to było pierwsze co pojawiało się po wejściu do gry. Wcześniej zapchane było praktycznie 99% teraz zużycie oscyluje w granicach 92-93.
Gram w rozdziałce 1440p z DLSS Quality, wszystko na Ultra, jedynie RayTracing ustawiony na Wysoki. (Poza miastem trzyma solidne 70fps - w mieście gdzie wczesniej częściej bywało 40fps +-5, tak teraz częściej widac na liczniku wynik bliżej 55 fps! )
Mega :D Chociaż i tak kartę zmieniam w tym roku, no ale i tak jestem w szoku co ona jeszcze wyczynia ;) 

A da sie podmienic w Alan Waku? Na Transformer model? Bo mi sie podoba jakosc tego DLSS 4

 

Opublikowano (edytowane)
28 minut temu, KaszaWspraju napisał(a):

Kurede upatrzyłem sobie PSU 1000W ATX 3.1 od Seasonic, a tu widzę trzeba 1200W min do innych kart niż Nvidia?

Seasonic prime TX-1600 Noctua Edition 1600w atx 3.1.

Taki 5090Ti jakby dzisiaj wyszedł z dwoma wtykami wciągałby sam z ~800W i skoki pod 1200W, do tego reszta budy i 8:E

 

Ale z chęcią zobaczyłbym następce Corsair AX1600i, być może w tym roku się pojawi :E

Edytowane przez lukadd
Opublikowano
31 minut temu, KaszaWspraju napisał(a):

Kurede upatrzyłem sobie PSU 1000W ATX 3.1 od Seasonic, a tu widzę trzeba 1200W min do innych kart niż Nvidia?

Testy robili na 1000w z 9800 albo 14900k i nikt problemów nie zgłaszał.

Opublikowano (edytowane)
2 minuty temu, ODIN85 napisał(a):

Testy robili na 1000w z 9800 albo 14900k i nikt problemów nie zgłaszał.

Do tych zasilaczy 1kW to już chyba trzeba uprawnienia SEP do montażu? 

Edytowane przez P.Wiśnia
  • Haha 2

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Demo już od dawna było dostępne.
    • Ja musiałem wczytać save bo założyłem wielką złotą wazę na plecy i też nie mogłem zdjąć
    • Niby parodia Johna Wicka a praktycznie jak John Wick    
    • @Keleris U mnie również występuje rozbieżność napięć procesora względem ustawień w BIOSie, ale jest ona przeważnie niższa i wynosi około 38mV, czyli jak ustawię w BIOSie 1.3875V to z poziomu Windows'a otrzymuję 1.35V. Dodatkowo przy mocniejszym podkręceniu (4.2GHz+) miałem aktywny Loadline Calibration, aby nie musieć właśnie ładować wysokiego napięcia na procka   Te moduły GEIL'a robią tRFC 35 z lekkim zapasem bezpieczeństwa/stabilności, bo są one zdolne do zejścia w okolice tRFC 32, nadal przy prędkości DDR2-900 i CL4:     Nie ma to już większego wpływu na wydajność, a ewentualna różnica mieści się w granicach błędu pomiarowego.   Im niższe tRFC chcemy osiągnąć, tym wyższe napięcie zasilające moduły będzie potrzebne do ich ustabilizowania, a to z kolei wymusi konieczność lepszego ich chłodzenia, aby tę stabilność zachować   tRFC 31 również zadziałało, ale wymagało już podniesienia napięcia do 2.3V, gdzie powyższe tRFC 32 zadowoliło się napięciem 2.2V.   ...   Polecam Ci również ustawiać pamięci za pomocą MemSet'a z poziomu Windows'a   Ja ostatnio robię tak, że w BIOSie ustawiam FSB Strap na 400MHz (o ile mam taką opcję i wyłącznie przy okolicach 400-500MHz faktycznego FSB), wybieram dzielnik pamięci (prędkość modułów) na 1:1, ich napięcie, cztery pierwsze timingi (te podstawowe) i ewentualnie tRFC.   Później jedynie szukam dodatkowych opcji dotyczących zwiększania wydajności podsystemu pamięci. W tym modelu ASUS'a na X38 nazywają się one: DRAM Static Read Control -> daję na Enabled, Ai Clock Twister -> przestawiam na Strong, Transaction Booster pozostawiam na Auto, jeżeli używam opcji DRAM Static Read Control. DRAM Static Read Control oraz Transaction Booster używa się zamiennie. Obie opcje aktywowane jednocześnie nie zadziałają - platforma nie uruchomi się.   Dopiero na koniec, z poziomu Windows'a, dopieszczam resztę, czyli ustawiam lub sprawdzam niższe tRFC, Performance Level i całą resztę, a tREF ustawiam na maksymalną wartość (aby pamięci spędzały jak najmniej czasu na odświeżaniu tabeli komórek).   W najgorszym przypadku platforma się zawiesi (zrobi tzw. freez'a) i trzeba będzie ją ręcznie wyresetować przyciskiem Reset   .........   Przetestowałem przy okazji ten egzemplarz GTS'a 250 w wersji OC od Gigabyte'a, chcąc sprawdzić jego potencjał:         Karta mega zaskoczyła mnie jeżeli chodzi pamięci GDDR3  Pozwoliła na dodatkowe +15GB/s przepustowości przy prędkości 1333MHz, co mocno sprzyja starszym benchmarkom. Jednakże rdzeń oraz shadery okazały się przeciętne, kończąc się szybciej niż na wcześniejszym egzemplarzu Gigabyte'a w wersji bez dopisku OC:  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...