Skocz do zawartości

lukadd

Użytkownik
  • Postów

    3 365
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    4

Treść opublikowana przez lukadd

  1. Wiem, podałem jako ciekawostkę. Ktoś inny może na innym zasilaczu sprawdzić do ilu schodzi itd. Możesz sobie jeszcze raz przerzucić zasilacze dla pewności. Ale. Odczyt jest programowy, ogólnie powinien być w miarę dokładny, ale dopóki nie sprawdzi ktoś z grubym sprzętem to i tak nie masz pewności czy tam nie ma i na ile % nie są wyświetlane babole pomiędzy jednym, a drugim zasilaczem w odczycie.
  2. Może czyta to forum i sam już wie co zwalił
  3. @Tester Wrażeń Jak obsłuchałeś zasilacz to może być, już spotkałem się po netach, że ludzie narzekali na cykanie zasilaczy właśnie w idle lub przy niskich obciążeniach w pewnych zakresach tego obciążenia.
  4. Ja mam Titanium 1000W od Bequiet i mi przy 1.1V soc schodzi do ~20.5W, a przy 1.25 jak sprawdzałem do ~24.5W na pulpicie w idle.
  5. A ile masz w idle na pulpicie i przy jakim napięciu SOC? Rozumiem, że masz na myśli odczyt z HWinfo CPU package Power
  6. Musiałbyś to sprawdzić sprzętowo te pobory. Odczyty programowe w zależności od zasilacza mogą być błędne na kilka %. Nigdzie na necie i od tych co pro testują zasilacze nic takiego nie słyszałem Ogólnie lepsza sprawność zasilacza to mniejszy pobór, ale z gniazdka.
  7. Jednych i drugich jak kot napłakał w sklepach dla tego takie ceny Nvidia skończyła produkcję Ady w tamtym roku i nie kwapiła się z rozkręceniem klepania Blackwelli To wszytko co się obecnie dzieje to jest w 100% zasługa Nvidii. Oni kontrolują rynek GPU dla desktop i graczy w 90%.
  8. lukadd

    9800X3D z PBO - jakie AIO

    Jest temat o płytach i to dość rozbudowany tam wszystkiego się dowiesz jak poczytasz.
  9. Powiedz, że się zastanawiasz nad zmianą i jesteś ciekawy ile teraz kosztuję taka podmianka GPU. Przecież chodzi o cenę po znajomości. Znają ciebie to dopytaj jeszcze ile by kosztowało nie po znajomości
  10. Każdy jeden model tej generacji to wydajnościowo dno, albo słabizna bo nawet 5090 to zaledwie średnio 30-35% skok wydajności względem 4090 i jeszcze okupione większym poborem prundu. Gdzie w poprzedniej generacji 4090 nad 3090 robiło ~70% do przodu Ceny z kosmosu są utrzymywane tylko z tego powodu, że nvidia rzuca tak drastycznie małe ilości nowych układów na rynek, a karciochy poprzednich generacji się praktycznie wyprzedały w sklepach
  11. lukadd

    9800X3D z PBO - jakie AIO

    Nie bawiłem się tymi starszymi prockami AMD, ale słyszałem, że tempy i peak bywały spore. Na 9800X3d stock zegary 5225mhz z CO -15 mam ~60-62stopni w wymagających grach od strony CPU po wygrzaniu budy. Na ALF 3 za 300zeta. Peak przy jakiejś kompilacji shaderów czy jakiejś turbo miejscówce ~70stopni. A te tempy i tak byłyby niższe bo u mnie AIO siedzi na topie i jakieś 80% ciepła wydzielanego przez RTX 4090 podczas grania wychodzi przez chłodnicę CPU na topie podgrzewając w nim ciecz co powoduję z automatu wyższe tempy na CPU Nie mam zbyt dobrego rozeznania w temp cpu od AMD ale z tego co zahaczyłem po netach i na moje oko jak patrzę na układ mojego konfigu, gdzie rpm wentyli też nie lecą wysoko to dla mnie jest gicior
  12. Czyli 100pln za zmianę GPU z 3080 na 4080 w 2022 roku to już było z zniżką dla stałego klienta? Weź z ciekawości tak zadzwoń do nich i zapytaj ile by chcieli teraz jakbyś zmieniał 4080 na Astrala 5090 za usługę? i daj znać.
  13. Trzeba po przepinać wentyle po prostu. Sam sobie z tym poradzisz jak trochę pooglądasz i poczytasz. Easy mode. W ogóle nie mam pojęcia jak typ to zrobił, że ci podpiął jeden wentyl od AIO pod kontroler CPU, a dwa kolejne do innego złącza, razem z wentylami od budy Przecież w AIO w standardzie jest przewód który łączy wszystkie 3 wentyle i wpina się to razem pod CPU_Fan. Pompa najlepiej jak jest podpięta oddzielnie, żeby nią oddzielnie sterować i jest złącze AIO pump connector na mobo do tego. Oczywiście można podłączyć pompę i wentyle razem do cpu_fan, nawet niektóre AIO mają odpowiednie kabelki do tego, ale to metoda bez sensu. Pompką lepiej sterować z oddzielnej krzywej i złącza.
  14. Kiedy to było? Przecież sam pisałeś, że za samą zmianę GPU cię kasowali 100pln jak zmieniałeś na 4080 z 3080tki. A w całości kompa składałeś kiedy? Z 4 lata temu gdy zmieniałeś na 11900k. Przez ten czas to sama inflacja ~50% do przodu , koszta pracownika, prowadzenia firmy, ceny energii itd. poszły w kosmos.
  15. Sam jakbym miał składać to za mniej niż 500zeta bym nie ruszył tyłka Ale poinformowałbym wcześniej klienta. Ten twój to nawet składać nie potrafi jak wentyle odwrotnie zamontował Ale mi się nie chce składać, bardzo okazjonalnie znajomym coś złożę, ale to wiadomo za flaszkę. A składali ci kiedyś od podstaw kompa z Astralem 5090 Gdzie koszt części kompletu to ~25k?
  16. Jak się świat nie zawali To w ciągu kilku tygodni te najtańsze modele 9070XT powinny być i w Polsce za ~3k normalnie do kupienia. W Piątek jeszcze w DE sadzili dropami po ~MSRP kilka sklepów ~10 dropów było w cenach 689euro czyli ~2900pln.
  17. Za dużo tego i mieszają ludziom w głowach Na forum trafiali się ludzie co na UW 3440x1440 mówili, że grają w 4k bo przecież 3440 to prawie tyle co ma w poziomie 4k 16:9 czyli 3840
  18. W zasadzie w przypadku monitorów to najlepiej w ogóle byłoby nie używać określenia 2k i nie było by problemu A jeśli ktoś używa 2k powinien mieć świadomość, że to jest właśnie najbliżej 1080p, a nie 1440p. Po prostu FullHD 1080p WQHD 1440p Tak jak samsung ma np. w tabelce wyboru rozdzielczości
  19. Ale ja to wiem. Producenci, nawet redakcje popełniają tego babola i od tego się zaczęło, że i niektórzy ludzie zaczęli tak pisać.
  20. No i czytaj dalej "The resolution 1920 × 1080 has also been referred to as a 2K resolution by other standards organizations like NHK Science & Technology Research Laboratories and ITU Radiocommunication Sector (which were involved in the standardization of 1080p HDTV and 4K UHDTV)" 3 raz ci już to wklejam 1440p nigdy nie zostało nazwane 2k. A 1080p zostało pod 2k podciągnięte. Więc jeśli pisać o 2k to w tym przypadku mowa jedynie o 1080p. 1440p to 2.5k. A nazywanie go 2k to po prostu błąd o którym niektórzy nie wiedzą i tak piszą
  21. 1080p zostało, nawet ci już napisałem wcześniej w poście. "The resolution 1920 × 1080 has also been referred to as a 2K resolution by other standards organizations like NHK Science & Technology Research Laboratories and ITU Radiocommunication Sector (which were involved in the standardization of 1080p HDTV and 4K UHDTV)" 2560x1440, 2560 pixeli to 2.5k.
  22. Jak ktoś pisze 2k w przypadku monitora to pierwsze co przychodzi do głowy to 1080p bo temu jest najbliższe. Jak ktoś dalej dziś niepoprawnie mówi/pisze 2k na 1440p to po prostu trzeba edukować
  23. 2k to tak naprawdę jest 2048 × 1080 Ale 1920 x 1080 też tak jest określane bo jest bardzo blisko 2k. "However, the term 2K itself is generic, was not coined by DCI, and does not refer specifically to the DCI 2K standard. Usage of the term 2K predates the publication of the DCI standard. The resolution 1920 × 1080 has also been referred to as a 2K resolution by other standards organizations like NHK Science & Technology Research Laboratories and ITU Radiocommunication Sector (which were involved in the standardization of 1080p HDTV and 4K UHDTV). In consumer products, 2560 × 1440 (1440p) is sometimes referred to as 2K, but it and similar formats are more traditionally categorized as 2.5K resolutions." 1440p mimo, że niektórzy też nazywają 2k, jest złym określeniem bo mu po prostu najbliżej do 2.5k
  24. Na 4k możesz dać DSR 8k, czy skalowanie z gry jeśli gra umożliwia i ma suwaczki do tego. Jak masz zapas mocy np. w starszych gierkach się tak robi i daje renderowanie w 8k, a później jest to skalowane do 4k natywnego. Poprawia to wygląd obrazu, aliasing jest mniejszy.
  25. Przyłóż ucho do GPU i posłuchaj, następnie ściągnij panel boczny od budy i to samo zrób z PSU i się dowiesz co klika.
×
×
  • Dodaj nową pozycję...