Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano

Uchyliłem okno aby ciecz wychłodzić  bo to już był jedyny sposób na podbicie wyniku. Niestey karta w wersji Waterforce Xtreme a PL lipny i tylko 2x 8pin. Także szybko klepie karta o PL i zegarów już nie ruszy. Można tylko tempy dać dobre dla tych 1935-1950Mhz.

 

Ogólnie dziwna ta 3090. Na 0,85V i tak bierze 300W a PL 105% 365W

  • Upvote 1
Opublikowano (edytowane)

Ja lubię ciepło, teraz w pokoju i w czasie benchmarkowania było 23 stopnie. Nie pomyślałem wcześniej, aby dać wentyle na karcie na sztywno w trybie odkurzacz. Nawet na zdegradowanej paście udało się zdjąć 8-9 stopni, co dało dodatkowy 1 fps (to już koniec zarzynania sprzętu) Przy CPU nic nie grzebałem, dziwne, że wynik w Time Spy podskoczył:

Superposition 1080 extreme 93.10.jpg

Superposition 4K 126.64.jpg

timespy v2.jpg

Edytowane przez wamak
  • Like 1
  • Upvote 1
Opublikowano (edytowane)

no nie zrobię tu furrory moim Superposition, czego on uparcie twierdzi, że mam 6900 XT? screen z GPU-Z

 

JHbYOeI.png

 

tlvG5ud.png

 

Ale na szczęście jest jeszcze Time Spy :D:D rdzenia bardzie się nie da, musiał bym coś w niego wlutować. Pamięci niby mógł bym jeszcze inaczej skonfigurować ale nie rozumiem jak to działa 8:E 

 

https://www.3dmark.com/spy/51793508

 

V0ZnwZz.jpg

 

 

Edytowane przez ernorator
  • Like 3
Opublikowano
8 godzin temu, MarcoSimone napisał(a):

Ogólnie dziwna ta 3090. Na 0,85V i tak bierze 300W 

To raczej normalne było przy max utylizacji do poboru typu 260-270 musiałbyś zejść poniżej 0.8v ;) 

Godzinę temu, ernorator napisał(a):

no nie zrobię tu furrory moim Superposition, czego on uparcie twierdzi, że mam 6900 XT? screen z GPU-Z

Tak samo jak uparcie pokazuje że ktoś ma (w tym ja) windows 10 zamiast 11 ale wersję build w nawiasie już odczytuje poprawnie :E 

  • Upvote 1
Opublikowano
14 godzin temu, Mar_s napisał(a):

Chyba krążył po sieci jakiś bios który miał 1000W limitu, ale co to było i skąd...strach to na kartę ładować.  :E 

 

Miałem ten BIOS 1000W na mojej 3090 i on nic nie daje. On jest dla 3 x 8pin i pokazuje fałszywe odczyty mocy. GPU-Z pokazywał pobór typu 600 watów, a z gniazdka ani wata więcej niż na standardowym biosie bo sprawdzałem watomierzem. 

Ten bios działa poprawnie tylko na 3x 8pin kartach.

  • Upvote 1
Opublikowano (edytowane)
42 minuty temu, Mar_s napisał(a):

No tak, czyli fake jak większość cudów znajdowanych w sieci  ;) 

Nie całkiem fake, bo on faktycznie podnosi limit do 1000 W ale tylko poprawnie robi to na kartach 3x 8 pin. Ale i tak, puszczanie takiej mocy na powietrzy nie ma sensu bo żadne chłodzenie tego nie dźwignie a ten bios wyłącza wszelkie zabezpieczenia termiczne. Jak nie upilnujesz hot spot to sobie można zjarać rdzeń. 

 

Można go używać "bezpiecznie" na dobrym LC tam gdzie wiadomo że HS nigdy nie osiągnie krytycznej temperatury.

Edytowane przez cichy45
  • Upvote 1
Opublikowano

Nie fake tylko fizyka. Mam to samo w swojej 6800xt, obojętnie czym jej zwiększę limit mocy, max co pociągnie to 430W bo 2x8pin. Teoretycznie max dla 2x8 to 150+150+75 ze slotu = 375W. Ale dla 8 pin z zasilacza 8 pin w kartę w zależności od AWG przewodu z zasilacza, układów we wtyczkach, jakości zasilacza i najlepsze, sytuacji w najlepszej kombinacji jedno 8 pin może podać do 220W (tyle widziałem w testach). Gdzie 3x8 pin daje 525W na wyjściu teoretycznie a może ponad 700W. Do tego dochodzi układ na pcb karty, który ogranicza (czasem) to co może karta przyjąć ergo shunt mod. 

Opublikowano

Pamiętaj że rdna2 raportuje w softach pobór samego gpu a nie całej karty jak np rdna3 ;) spójrz na watomierz, odlicz pobór przez cpu + tam jakieś 20-25w z reszty bzdet typu mobo,ram, wentylatory,dysk + stratę na zasilaczu to wyjdzie prawda ile ten 6800xt bierze (ja już się przekonałem jakie są realnia na 6950xt) :E 

Opublikowano

Wiem jakie są realia, nie patrzę na odczyt z softu. 

 

26 minut temu, Send1N napisał(a):

(ja już się przekonałem jakie są realnia na 6950xt) :E 

Te realia sprawiają, że seria AMD 6xxx jest najlepszą do zabawy serią GPU jaka kiedykolwiek wyszła, brakuje tu tylko odblokowywania BIOSem 6800 do 6800xt itp. ale niestety cięcia wszystko popsuły ;(

  • Upvote 1
Opublikowano (edytowane)
Godzinę temu, Mar_s napisał(a):

@maxmaster027 Ładnie ładnie, okolice pierwszej 10, ale 3090 trzymają się mocno, no nakopałeś chociaż @Send1N więc to zawsze jakiś plus  ;D 

Żona w robocie przy sobocie, a ja zamiast gołe panny oglądać to wykręciłem ten żałosny wynik, starość.

Ale lepszy niż ostatnio więc...  :E 

Superposition-Benchmark-v1-1-11328-17335

On ma 6950 i zdaje sie wyższy 4k :) aczkolwiek te wyniki to na PL 100%, wiec tam jakis potencjał w karcie drzemie :)

Edytowane przez maxmaster027

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Wymagania wystrzeliły, ale zaczęło się to już na pierwszym verdańsku, na początku miałem 160-180FPSów a na Calderze miałem poniżej 100.  Grałem w to od początku, część ludzi może nie pamięta jakie tam były problemy techniczne, serwery wywalało czasami co mecz, a ilość bugów i ta wyblakła grafika też męczyła oko. Pograłeam jeszcze kilkaset godzin na Al-mazrach, Mnie najbardziej wkurzał zbyt mocny Aimassist, K+M praktycznie bez szans z padami. Jednych wkurzało SBK ale było coś jeszcze, dużo latało tego po reddicie coś w rodzaju większego Hp dla słabszych graczy...
    • Twoje sugestie o stronniczość stają się niesmaczne. Przyhamuj, bo to nie moja wina, że Intel potrzebuje 250 watów, żeby dorównać AMD z poborem 80 watów (vide 14900K vs 7800X3D). Poza tym każdy zainteresowany może sobie pokazać wyniki Intela z wyższym PL jednym kliknięciem myszy.
    • No to jakby zejść z dyskiem do 1TB to masz dużo wydajniejsze GPU:   https://www.mediaexpert.pl/carts/sharing/01676c4f
    • Uhm. Tak samo jak poszli opierdzielić Nvidię i AMD za cyrki z boomem na kopanie itp, co zaduszało rynek PC przecież bardzo. Nvidia swoich partnerów traktuje jak gówno a tym myślisz, że producenci RAMu, którzy z własnej woli CHCĄ niedoborów, bo już powiedzili, że nie zamierzają rozbudowywać produkcji w najbliższym roku, to się przejmą? ojojoj! Rynek pc padnie i stracimy przez to 0,1% zarobków jakie teraz doimy na AI, ojojooooooooojj. och nieee.    Niestety nikt się nie przejmuje konsekwencjami. Branża gier niszczy zainteresowanie grami z głupich powodów. Branżę VR już udusili głupimi decyzjami i nikt się nie patrzył na to, że tracą intratny i duży rynek jaki mógłby powstać po kilku latch normalności. AMD i Intel nie miały problemu gdy płyty pod nowe platformy kosztowały kupę kasy udupiając zainteresowanie nowymi prockami.    Jedyna interwencja Nvidii i rozmowy z partnerami i kanałami sprzedaży to była przed premierą serii 40xx i polegała na działaniach mających podbić ceny przez wstrzymywanie staroci w magazynach i niedopuszczenie do obniżki nadal przepompowanych cen.   Jak kolega wyżej pisze - niech ten cały PC gaming już udupią, bo serce boli jak się widzi jak go szatkują minigunem od 2021r. PC gaming w formie steam machines o mocy kartfola, w formie klonó steam decka za góry hajsu, w formie gówna na ARM z emulacją, w formie miniPC i laptopów za 3x tyle ile skrzynka, z Windowsem pełnym bugów i szpiegowania, z grami na Unreal Engine, z grami pod RT bez wersji bez RT, z DRMami oddającymi władzę nad własnym kompem chińskim korporacjom, z grami na 2/10 - niech to zdechnie już bo ciężko patrzeć na tą agonię.   PS. Kolejna przewaga grania retro.    Jak ja do mojego ulubionego kompa chcę więcej pamięci to ZA DARMO sobie dodaję, o tak:   wysarczy przesunąć suwaczek. Łyso wam teraz, pececiarze?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...