Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano (edytowane)
3 minuty temu, Pawelek6 napisał(a):

Dlaczego? Te karty są ok: KLIK. Na RX 7600 powinno być podobnie. Dwa wentylatory i dwa zajęte sloty w zupełności wystarcza. Nie potrzeba do każdej karty chłodzenia wielkości cegły i nie każdy chce ledy.

RDNA3 ma wieksze TDP. A do tego to co pokazales wyzej to 70st i 1500rpm czyli chlodzenie szrot.

 

Sorry ale w kazdej najtanszej marce chlodzenia to nic specjalnego, tobie moze to pasowac ale mi np nie i nie jest to tez dobre chlodzenie, zwyczajnie poprawne jak ktos nie wymaga dobrej kultury i niskich temp oraz lubi po taniosci.

Edytowane przez Phoenix.
Opublikowano
17 minut temu, Phoenix. napisał(a):

7W w idle po wlaczeniu ASPM.

Kurde, czyli coś włączyć trzeba jak przytoczony ASPM, żeby mieć pobór prądu na idle taki jak na kartach AMD i NV :E.

Opublikowano
1 minutę temu, Spl97 napisał(a):

Kurde, czyli coś włączyć trzeba jak przytoczony ASPM, żeby mieć pobór prądu na idle taki jak na kartach AMD i NV :E.

Tak ale u liptona zjechalo tylko 5W na platformie AMD, moze na intelu zejdzie lepiej. Kij wie od czego to zalezy bo to moze byc nawet roznica w obrebie roznych modeli mobo jak bios steruje.

  • Like 1
Opublikowano

To tak nie działa to jest zależne od konstrukcji danego producenta.

W skrócie karty, które nie reagują na włączenie ASPM(brak spadku poboru mocy) nie potrzebują ASPM do niskiego poboru w idle.

Popatrz sobie na wyniki Techpowerup te które mają zawyżony pobór mocy względem innych na tym samym modelu wymagają włączenia ASPM by pobór mocy spadł w idle.

 

Opublikowano
9 minut temu, Phoenix. napisał(a):

Tak ale u liptona zjechalo tylko 5W na platformie AMD, moze na intelu zejdzie lepiej. Kij wie od czego to zalezy bo to moze byc nawet roznica w obrebie roznych modeli mobo jak bios steruje.

Dlatego chcialbym sie u siebie zaskoczyc na intelu, ale to moze byc tez zalezne od samego biosu/chipsetu/generacji moze. U mnie biostar olal update BIOS od 2021, wiec jesli problem byl na A750 to ten sam pewnie bedzie na czymkolwiek B…

Opublikowano

Ich "DLSS" w 1.3 jest TOPa ma byc kolejna iteracja, FG ma byc sprzetowe na jednostkach wiec napewno bedzie lwpsze od AMD :cool:

32 minuty temu, sideband napisał(a):

To tak nie działa to jest zależne od konstrukcji danego producenta.

W skrócie karty, które nie reagują na włączenie ASPM(brak spadku poboru mocy) nie potrzebują ASPM do niskiego poboru w idle.

Popatrz sobie na wyniki Techpowerup te które mają zawyżony pobór mocy względem innych na tym samym modelu wymagają włączenia ASPM by pobór mocy spadł w idle.

 

Czyli w skrocie zalezne to bedzie od producenta karty jak np Sparkle czy Asrock?? No i jk pobor nie spada to zostaje wszystko w rekach intela czy ogarna sterami?? Dobrze rozumiem czy zle? Bo mi osobisci nie chce sie bawic w ASPM i jego konfigurowanie, ma to dzialac jak na nvidia.

Opublikowano
38 minut temu, sideband napisał(a):

To tak nie działa to jest zależne od konstrukcji danego producenta.

W skrócie karty, które nie reagują na włączenie ASPM(brak spadku poboru mocy) nie potrzebują ASPM do niskiego poboru w idle.

Popatrz sobie na wyniki Techpowerup te które mają zawyżony pobór mocy względem innych na tym samym modelu wymagają włączenia ASPM by pobór mocy spadł w idle.

 

Ja miałem jeszcze inny przypadek z 3060Ti karta nie dość że nie reagowała na aspm to jeszcze pobierała 2x tyle w idle co 3060Ti u innych i nic nie mogłem z tym zrobić pamiętam ;) 

3 godziny temu, wallec napisał(a):

Jak oprogramowanie od karty graficznej może wyglądać w ten sposób?

 

Co człowiek to opinia  częściej czytałem posty tego typu że nvidia ma soft za czasów PRL'u a jakoś amd potrafi :E tak samo jak ludzie płaczą o szatę graficzną w biosie.... w bios czy sterowniki się nie gra, ustawiasz tam coś i zamykasz.

  • Like 1
Opublikowano
31 minut temu, Phoenix. napisał(a):

Ich "DLSS" w 1.3 jest TOPa ma byc kolejna iteracja, FG ma byc sprzetowe na jednostkach wiec napewno bedzie lwpsze od AMD :cool:

Czyli w skrocie zalezne to bedzie od producenta karty jak np Sparkle czy Asrock?? No i jk pobor nie spada to zostaje wszystko w rekach intela czy ogarna sterami?? Dobrze rozumiem czy zle? Bo mi osobisci nie chce sie bawic w ASPM i jego konfigurowanie, ma to dzialac jak na nvidia.

W przypadku kart od NV tak jest w przypadku Intela to nie wiem czy tak będzie. Intel tak czy inaczej nadal nie ogarnął problemu z wydajnością bez RB i oszczędzania energii(nie mam na myśli ASPM) jak takie pierdki mają o wiele za duży pobór mocy przy pracy na kilku monitorach czy YT etc.

23 minuty temu, Send1N napisał(a):

Ja miałem jeszcze inny przypadek z 3060Ti karta nie dość że nie reagowała na aspm to jeszcze pobierała 2x tyle w idle co 3060Ti u innych i nic nie mogłem z tym zrobić pamiętam ;) 

Co człowiek to opinia  częściej czytałem posty tego typu że nvidia ma soft za czasów PRL'u a jakoś amd potrafi :E tak samo jak ludzie płaczą o szatę graficzną w biosie.... w bios czy sterowniki się nie gra, ustawiasz tam coś i zamykasz.

Czasem trzeba ręcznie wklepać ustawienia w biosie bo inaczej ASPM nie działa.

Opublikowano (edytowane)
38 minut temu, leven napisał(a):

Karta intela wygląda pięknie. No ale jak najwyższy model ledwo konkuruje z 4060, to lipa, a szkoda.

5060 ma mieć 8gG Vram ?  Śmiech na sali.

Nie martw się, za pół roku będzie pewnie wersja Super z 12GB i kośćmi po 3GB, aby ci nieliczni kupujący mogli sobie pluć w brodę :E 

Edytowane przez musichunter1x
Opublikowano

Chyba jeszcze w między czasie coś pite jest bo ciężko rozszyfrować ten post ;D

11 minut temu, sideband napisał(a):

Czasem trzeba ręcznie wklepać ustawienia w biosie bo inaczej ASPM nie działa.

Ja wtedy olałem już temat bo dłuższym grzebaniu, próbowałem wszystkiego co się dało, inni mieli 10w w idle ja miałem 20 i tak już zostało ;) 

Opublikowano

Tak sobie z ciekawości sprawdziłem

B580 wielkość chipu 272 mm^2, prawie 20M tranzystorów, TDP 190W

 

RTX 4060 - wielkość chipu 159 mm^2 , 19M tranzystorów, TDP 115W

Czyli w zasadzie u Intela bez zmian - premiera spóźniona o jakieś 18-24 miesięcy i karta która powinna  być  gdzieś pomiędzy 4060 ti a 4070 non s walczy z produktami konkurencji poprzedniej generacji. Znowu będą oferować produkt który powinien być wyżej pozycjonowany w cenie totalnego mainstreamu.

 

Plus oczywiście sterowniki - jak patrzę na wyniki w Wukongu (skromne 20+ milionów kopii w 2024) to lekka beka.

 

W zasadzie jedyne co ją broni to Nvidia i AMD lecące w kulki z cenami 4060 i 7600

 

 

 

Opublikowano
Godzinę temu, leven napisał(a):

Karta intela wygląda pięknie. No ale jak najwyższy model ledwo konkuruje z 4060, to lipa, a szkoda.

5060 ma mieć 8gG Vram ?  Śmiech na sali.

B580 to raczej seria niższa. Wyższa to B7XX i może się doczekamy. Wątpię by zmienili nomenklaturę gdy w poprzedniej generacji było A5XX i A7XX. 

  • Like 1
Opublikowano
1 godzinę temu, leven napisał(a):

Karta intela wygląda pięknie. No ale jak najwyższy model ledwo konkuruje z 4060, to lipa, a szkoda.

5060 ma mieć 8gG Vram ?  Śmiech na sali.

Przeciez to nie jest najwyzszy model. Co prawda oficjalnie celuja w niski i max srednio pulap, ale nie nie znaczy, ze B5xx to wszystko. Wedlug mnie prawie na pewno beda B7xx. Watpliwosci mozna miec jedynie co do B9xx, to predzej w 3 gen

Opublikowano
6 minut temu, Wu70 napisał(a):

E nawet nieźle to wygląda (jak na kartę trzeciego producenta), pewnie szybciutko potanieje i w okolicach 1k może się rozgościć 

No strzelam, ze B580 na poczatku roku bedzie za okolo 1000 moze 900-1000. Wtedy bedzie naprawde ciekawie

Opublikowano (edytowane)

Jeśli sterowniki z czasem dadzą powtarzalne rezultaty i cena będzie w okolicy 1000 zł to zrobi się ciekawie... Ale nie mam zaufania do Intela w kwestii starszych gier. 
Na razie taki rtx3070 często odskakuje , choć czasem B580 potrafi przegonić... Ich skalowanie ponoć daje mniejszą wydajność, więc do starszych gier w 4k z modowanym DLSS nadal rtx3070 będzie lepszy.
Teraz tylko niech im silikon nie degraduje się, jak w procesorach 12 i 13 generacji :E 

Niestety zwiastuje to cenę rtx5060 na poziomie pewnie 500 zł większą, choć mogą strzelić sobie w stopę z tym 8gb Vram. Ludzie tak panikują z tym Vramem, że rtx3060 12GB czasem był cenowo na poziomie bliskim rtx3070... A wystarcza nie odpalać RT lub  tekstur na ślepo w prawo ponad 1080p.

Edit, gdyby to tak zawsze wyglądało...:
RTXy chociaż mogą zmodować jeszcze DLSS do najnowszej wersji.

image.thumb.png.3cced17259cb7befa6852a0092b57a7f.png

Edytowane przez musichunter1x
  • Like 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...