Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano
5 minut temu, Send1N napisał(a):

6800xt stock bierze realnie przy full load jakieś 330w (bo jak wiadomo rdna2 raportuje pobór samego gpu zamiast karty) więc wcale nie trzeba kupować karty z wyższym poborem od tego aby dostać solidnego kopa ;) taka 4080S nawet na stock zeżre mniej, nie mówiąc o poprawie wydajności na wat po UV ;) 

Ja wiem, ale chcę jeszcze coś bardziej wyczesanego mocowo. No i dobre wersje 4080s, to jest już spory $$. Wolę jednak okolice 4 kafli, a jeśli by to miało 5k, no to zdecydowanie nie za moc jaką daje 4080s :). Póki co nic takiego nie ma i nie wiadomo nawet czy będzie w bliskiej perspektywie. 

Opublikowano
5 minut temu, Radio Tirana napisał(a):

Czyli celujesz w używanego RTX 4090 z długą gwarancją skoro orientacyjny budżet to 5 tysięcy 😎

Nie. Będę czekał na cud z solidną specką 5070ti (czarno to widzę), ewentualną superką albo do rdna5. Pamiętasz tę akcję, to zapolowałem na tego mojego tufa z morele za 3150. W tamtym momencie to była lux cena:E. W życiu bym wtedy nie pomyślał, że to może się skończyć tak, że na tym gpu będę może i ponad 3 lata siedział :P. Póki co już jest lekko ponad 2 lata.

Opublikowano

@Kelam Tylko zasadnicze pytanie jaka wydajność miałby mieć taki rtx 5070ti bo z przecieków wynika że ten pocięty 5080 16gb będzie +- na poziomie 4090. W takim razie jak kiedyś wydadzą tego 5070ti to pewnie będzie niewiele lepszy od 4080s.

Opublikowano

@razeksZobaczymy, ale były też o wiele gorsze plotki, że 5080 będzie wyraźnie poniżej 4090 w rasterze. Wtedy z teoretycznego 5070ti może być taki kapiszon, że tylko pozostanie:

facepalm-dismay.gif

Opublikowano

No wiem, szczerze by mnie to nie zdziwiło bo planowana specyfikacja 5080 delikatnie mówiąc nie powala...

Opublikowano
W dniu 18.11.2024 o 08:08, galakty napisał(a):

Pytanie jaki pobór przy wydajności 7900XT/XTX, pewnie poniżej 300W nie ma opcji zejść, po UV może 260W by się ukręciło. Teraz mam 200W po UV i już latem mi doskwiera, więc też średnio :E 

 

Ale coś czuję że generacja do pominięcia, albo RDNA5, albo Super 5000 chociaż w kościach czuję że dopiero 6000 coś zmieni. 

Głównie od rozdzielczości zależy. Na 1440p 260-280W nie jest problemem. Przy 4k natywnym 300-320W to najczęstszy wynik oczywiście z capem na jakieś 2.5GHz. Gry na UE5 ciągną prąd jak głupie i dopiero tak w okolicach 2.2 GHz da się zejść poniżej 300W w 4k. 

Znowu latem i tak będziesz siedział w gaciach bo będzie się otwierał portal do piekła z każdym GPU co ma 200W+. 

  • Upvote 2
Opublikowano

Dlatego ja sobie ustaliłem limit latem na 200W, 4070Ti po UV w większości gier nie dobija do nich, jedynie SD potrafi przebić ale tam zawsze idzie 100% mocy ile byś nie dołożył do pieca.

 

Nie wyobrażam sobie mieć 280-300W w małym pokoju latem gdzie i bez PC jest 26 stopni :E 

  • Upvote 1
Opublikowano
41 minut temu, galakty napisał(a):

Dlatego ja sobie ustaliłem limit latem na 200W, 4070Ti po UV w większości gier nie dobija do nich, jedynie SD potrafi przebić ale tam zawsze idzie 100% mocy ile byś nie dołożył do pieca.

 

Nie wyobrażam sobie mieć 280-300W w małym pokoju latem gdzie i bez PC jest 26 stopni :E 

Powiem tak kompa mam w pokoju 20m2 i 400W z GPU robi sajgon. XTX capowałem na 220w w 4k ale w HFW trochę słabo się grało w 45 fps. 

Opublikowano

Współczuję bo u mnie z 320W z GPU nie ma żadnego problemu z temperatura w pokoju. No może przez 2-3 tygodnie w roku byłby problem ale wtedy i tak nie gram w gry tylko siedzę na dworze.

Opublikowano

Dla mnie trochę bez sensu ograniczać wydajność z takiego powodu, w zgodzie z tą logiką lepiej było w sumie kupić 7700 XT bo on ma chyba 240-250W TDP  ;) 

Albo po prostu wziąć 4080/4080S, one chyba lepiej pod tym względem się skalują.  ;) 

Opublikowano (edytowane)

Takie są fakty. Sam mam kompa w pokoju na poddaszu od południa i z oknem również od południa. W lipiec - sierpień, tj. jakiś koszmar. Ogólnie nie ma grania wtedy. Ceny cenami, to raz, a dwa - te wzrosty poboru energii również nie są fajne. Na rachunkach za prąd nie ma wielkich różnic, ale te dodatkowe waty energii oddawane następnie w postaci ciepła do otoczenia już nie są przyjemne. To jest też powodem, że ogólnie nie obchodzą mnie karty powyżej średniego segmentu. Ceny to raz, są chore i nie zamierzam zmieniać zdania. 8 lat temu za ok. 3000 zł można było złożyć i5 + GTX 1060, które do wszystkiego wystarczało. A dzisiaj wielkie g... złożysz nie komputer w tej kwocie. Plus dwa, właśnie ten rosnący pobór energii. To są dwie kwestie, które mi szalenie nie odpowiadają przez ostatnie lata i się zastanawiam czy ten "balonik" w końcu pęknie.

 

Wracając do tematu, że ta generacja ma być po prostu takim usprawnieniem i odpuszczają wyższy segment, to w cale nie taki głupi pomysł. Przypominam tylko jaką genialną generacją była HD 4xxx, która nie miała odpowiednika dla GTX-a 280, ale poniżej ładnie utemperowała wtedy wycenę NV. To były dobre karty. Dzisiaj to marzenie ściętej głowy, ale kto zabroni?

Edytowane przez Pawelek6
Opublikowano
5 godzin temu, Mar_s napisał(a):

Dla mnie trochę bez sensu ograniczać wydajność z takiego powodu, w zgodzie z tą logiką lepiej było w sumie kupić 7700 XT bo on ma chyba 240-250W TDP  ;) 

Albo po prostu wziąć 4080/4080S, one chyba lepiej pod tym względem się skalują.  ;) 

Większe chipy mniej tracą, ale i tak lepiej wziąć NV, dać DLSS + FG i elo :E 

Opublikowano

DLSS 4.0 i FG będzie tylko dla RTX 5000 tak samo jak DLSS 3.0 dla RTX 4000 jest pewne jak podatki i śmierć. 

Pęd za coraz większymi watami u Nvidii musi się skończyć chyba że będziecie lubić, nie wiem 750 Wat w RTX 6090.

Dla mnie musi się coś zmienić bo takie gorąco może spalić dom albo spowodować inną tragedie.

Może być tak jak z elektrykami które płoną i z nowszymi generacjami będzie tak samo.600 Wat to potwornie gorąco 

nie zanosi się ,na to by miało być mniej. Nvidia jest tak fanatycznie zapatrzona by być najwydajniejsza, najlepsza, najdroższa

będzie robiła, coraz to większe rdzenie graficzne aż jakaś rodzina nie spali się żywcem w domu.

 

 

Opublikowano
3 godziny temu, Pawelek6 napisał(a):

Ceny to raz, są chore i nie zamierzam zmieniać zdania ...  i się zastanawiam czy ten "balonik" w końcu pęknie.

Jedyne co by zbiło ceny to dogonienie TSMC przez Chińską firmę + usamodzielnienie się Chin od ASML.

Za tym by szły monstrualne inwestycje w bazę produkcyjną.

W innym wypadku będzie tylko coraz drożej.

Opublikowano

TSMC nie może dawać coraz większych cen, szkoda że USA nie może pogrozić im by nie kozakowali że będą mieć tajemnicę, najnowszych procesów przed. Amerykanami jak Chiny zaatakują to nic im po tajemnicach, wezmą  ich za zakładników. Albo powiedzą albo zabiją ich rodziny, Amerykanie ich nie ochronią. Dla mnie TMSC za bardzo Kozaczy nie ma dość wojska i myśliwców by, podskakiwać Chinom i reszcie świata.

  • Like 1
Opublikowano
10 godzin temu, razeks napisał(a):

Współczuję bo u mnie z 320W z GPU nie ma żadnego problemu z temperatura w pokoju. No może przez 2-3 tygodnie w roku byłby problem ale wtedy i tak nie gram w gry tylko siedzę na dworze.

Spoko wkładam TWS włączam ANC i uruchamiam klimatyzator. Ja mam pokój od południowego wschodu i do tego to pół poddasze jest ciepło nawet bez kompa ;) 

Opublikowano (edytowane)

Navi48 z przecieków to 240-250mm2 256bit układ mający tylko 64CU ( tyle same co pełny układ w PS5 PRO, który jest obcięty do 60CU) oraz używa 18/20Gb/s GDDR6. To będzie raczej średnio niska pólka. 

Navi44 to jeszcze śmieszniejsze GPU, 130mm2~ 128bit 

 

 

Edytowane przez SmogSmok

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


×
×
  • Dodaj nową pozycję...