Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano (edytowane)
3 minuty temu, Pawelek6 napisał(a):

Dlaczego? Te karty są ok: KLIK. Na RX 7600 powinno być podobnie. Dwa wentylatory i dwa zajęte sloty w zupełności wystarcza. Nie potrzeba do każdej karty chłodzenia wielkości cegły i nie każdy chce ledy.

RDNA3 ma wieksze TDP. A do tego to co pokazales wyzej to 70st i 1500rpm czyli chlodzenie szrot.

 

Sorry ale w kazdej najtanszej marce chlodzenia to nic specjalnego, tobie moze to pasowac ale mi np nie i nie jest to tez dobre chlodzenie, zwyczajnie poprawne jak ktos nie wymaga dobrej kultury i niskich temp oraz lubi po taniosci.

Edytowane przez Phoenix.
Opublikowano
1 minutę temu, Spl97 napisał(a):

Kurde, czyli coś włączyć trzeba jak przytoczony ASPM, żeby mieć pobór prądu na idle taki jak na kartach AMD i NV :E.

Tak ale u liptona zjechalo tylko 5W na platformie AMD, moze na intelu zejdzie lepiej. Kij wie od czego to zalezy bo to moze byc nawet roznica w obrebie roznych modeli mobo jak bios steruje.

  • Like 1
Opublikowano

To tak nie działa to jest zależne od konstrukcji danego producenta.

W skrócie karty, które nie reagują na włączenie ASPM(brak spadku poboru mocy) nie potrzebują ASPM do niskiego poboru w idle.

Popatrz sobie na wyniki Techpowerup te które mają zawyżony pobór mocy względem innych na tym samym modelu wymagają włączenia ASPM by pobór mocy spadł w idle.

 

Opublikowano
9 minut temu, Phoenix. napisał(a):

Tak ale u liptona zjechalo tylko 5W na platformie AMD, moze na intelu zejdzie lepiej. Kij wie od czego to zalezy bo to moze byc nawet roznica w obrebie roznych modeli mobo jak bios steruje.

Dlatego chcialbym sie u siebie zaskoczyc na intelu, ale to moze byc tez zalezne od samego biosu/chipsetu/generacji moze. U mnie biostar olal update BIOS od 2021, wiec jesli problem byl na A750 to ten sam pewnie bedzie na czymkolwiek B…

Opublikowano

Ich "DLSS" w 1.3 jest TOPa ma byc kolejna iteracja, FG ma byc sprzetowe na jednostkach wiec napewno bedzie lwpsze od AMD :cool:

32 minuty temu, sideband napisał(a):

To tak nie działa to jest zależne od konstrukcji danego producenta.

W skrócie karty, które nie reagują na włączenie ASPM(brak spadku poboru mocy) nie potrzebują ASPM do niskiego poboru w idle.

Popatrz sobie na wyniki Techpowerup te które mają zawyżony pobór mocy względem innych na tym samym modelu wymagają włączenia ASPM by pobór mocy spadł w idle.

 

Czyli w skrocie zalezne to bedzie od producenta karty jak np Sparkle czy Asrock?? No i jk pobor nie spada to zostaje wszystko w rekach intela czy ogarna sterami?? Dobrze rozumiem czy zle? Bo mi osobisci nie chce sie bawic w ASPM i jego konfigurowanie, ma to dzialac jak na nvidia.

Opublikowano
38 minut temu, sideband napisał(a):

To tak nie działa to jest zależne od konstrukcji danego producenta.

W skrócie karty, które nie reagują na włączenie ASPM(brak spadku poboru mocy) nie potrzebują ASPM do niskiego poboru w idle.

Popatrz sobie na wyniki Techpowerup te które mają zawyżony pobór mocy względem innych na tym samym modelu wymagają włączenia ASPM by pobór mocy spadł w idle.

 

Ja miałem jeszcze inny przypadek z 3060Ti karta nie dość że nie reagowała na aspm to jeszcze pobierała 2x tyle w idle co 3060Ti u innych i nic nie mogłem z tym zrobić pamiętam ;) 

3 godziny temu, wallec napisał(a):

Jak oprogramowanie od karty graficznej może wyglądać w ten sposób?

 

Co człowiek to opinia  częściej czytałem posty tego typu że nvidia ma soft za czasów PRL'u a jakoś amd potrafi :E tak samo jak ludzie płaczą o szatę graficzną w biosie.... w bios czy sterowniki się nie gra, ustawiasz tam coś i zamykasz.

  • Like 1
Opublikowano
31 minut temu, Phoenix. napisał(a):

Ich "DLSS" w 1.3 jest TOPa ma byc kolejna iteracja, FG ma byc sprzetowe na jednostkach wiec napewno bedzie lwpsze od AMD :cool:

Czyli w skrocie zalezne to bedzie od producenta karty jak np Sparkle czy Asrock?? No i jk pobor nie spada to zostaje wszystko w rekach intela czy ogarna sterami?? Dobrze rozumiem czy zle? Bo mi osobisci nie chce sie bawic w ASPM i jego konfigurowanie, ma to dzialac jak na nvidia.

W przypadku kart od NV tak jest w przypadku Intela to nie wiem czy tak będzie. Intel tak czy inaczej nadal nie ogarnął problemu z wydajnością bez RB i oszczędzania energii(nie mam na myśli ASPM) jak takie pierdki mają o wiele za duży pobór mocy przy pracy na kilku monitorach czy YT etc.

23 minuty temu, Send1N napisał(a):

Ja miałem jeszcze inny przypadek z 3060Ti karta nie dość że nie reagowała na aspm to jeszcze pobierała 2x tyle w idle co 3060Ti u innych i nic nie mogłem z tym zrobić pamiętam ;) 

Co człowiek to opinia  częściej czytałem posty tego typu że nvidia ma soft za czasów PRL'u a jakoś amd potrafi :E tak samo jak ludzie płaczą o szatę graficzną w biosie.... w bios czy sterowniki się nie gra, ustawiasz tam coś i zamykasz.

Czasem trzeba ręcznie wklepać ustawienia w biosie bo inaczej ASPM nie działa.

Opublikowano (edytowane)
38 minut temu, leven napisał(a):

Karta intela wygląda pięknie. No ale jak najwyższy model ledwo konkuruje z 4060, to lipa, a szkoda.

5060 ma mieć 8gG Vram ?  Śmiech na sali.

Nie martw się, za pół roku będzie pewnie wersja Super z 12GB i kośćmi po 3GB, aby ci nieliczni kupujący mogli sobie pluć w brodę :E 

Edytowane przez musichunter1x
Opublikowano

Chyba jeszcze w między czasie coś pite jest bo ciężko rozszyfrować ten post ;D

11 minut temu, sideband napisał(a):

Czasem trzeba ręcznie wklepać ustawienia w biosie bo inaczej ASPM nie działa.

Ja wtedy olałem już temat bo dłuższym grzebaniu, próbowałem wszystkiego co się dało, inni mieli 10w w idle ja miałem 20 i tak już zostało ;) 

Opublikowano

Tak sobie z ciekawości sprawdziłem

B580 wielkość chipu 272 mm^2, prawie 20M tranzystorów, TDP 190W

 

RTX 4060 - wielkość chipu 159 mm^2 , 19M tranzystorów, TDP 115W

Czyli w zasadzie u Intela bez zmian - premiera spóźniona o jakieś 18-24 miesięcy i karta która powinna  być  gdzieś pomiędzy 4060 ti a 4070 non s walczy z produktami konkurencji poprzedniej generacji. Znowu będą oferować produkt który powinien być wyżej pozycjonowany w cenie totalnego mainstreamu.

 

Plus oczywiście sterowniki - jak patrzę na wyniki w Wukongu (skromne 20+ milionów kopii w 2024) to lekka beka.

 

W zasadzie jedyne co ją broni to Nvidia i AMD lecące w kulki z cenami 4060 i 7600

 

 

 

Opublikowano
Godzinę temu, leven napisał(a):

Karta intela wygląda pięknie. No ale jak najwyższy model ledwo konkuruje z 4060, to lipa, a szkoda.

5060 ma mieć 8gG Vram ?  Śmiech na sali.

B580 to raczej seria niższa. Wyższa to B7XX i może się doczekamy. Wątpię by zmienili nomenklaturę gdy w poprzedniej generacji było A5XX i A7XX. 

  • Like 1
Opublikowano
1 godzinę temu, leven napisał(a):

Karta intela wygląda pięknie. No ale jak najwyższy model ledwo konkuruje z 4060, to lipa, a szkoda.

5060 ma mieć 8gG Vram ?  Śmiech na sali.

Przeciez to nie jest najwyzszy model. Co prawda oficjalnie celuja w niski i max srednio pulap, ale nie nie znaczy, ze B5xx to wszystko. Wedlug mnie prawie na pewno beda B7xx. Watpliwosci mozna miec jedynie co do B9xx, to predzej w 3 gen

Opublikowano
6 minut temu, Wu70 napisał(a):

E nawet nieźle to wygląda (jak na kartę trzeciego producenta), pewnie szybciutko potanieje i w okolicach 1k może się rozgościć 

No strzelam, ze B580 na poczatku roku bedzie za okolo 1000 moze 900-1000. Wtedy bedzie naprawde ciekawie

Opublikowano (edytowane)

Jeśli sterowniki z czasem dadzą powtarzalne rezultaty i cena będzie w okolicy 1000 zł to zrobi się ciekawie... Ale nie mam zaufania do Intela w kwestii starszych gier. 
Na razie taki rtx3070 często odskakuje , choć czasem B580 potrafi przegonić... Ich skalowanie ponoć daje mniejszą wydajność, więc do starszych gier w 4k z modowanym DLSS nadal rtx3070 będzie lepszy.
Teraz tylko niech im silikon nie degraduje się, jak w procesorach 12 i 13 generacji :E 

Niestety zwiastuje to cenę rtx5060 na poziomie pewnie 500 zł większą, choć mogą strzelić sobie w stopę z tym 8gb Vram. Ludzie tak panikują z tym Vramem, że rtx3060 12GB czasem był cenowo na poziomie bliskim rtx3070... A wystarcza nie odpalać RT lub  tekstur na ślepo w prawo ponad 1080p.

Edit, gdyby to tak zawsze wyglądało...:
RTXy chociaż mogą zmodować jeszcze DLSS do najnowszej wersji.

image.thumb.png.3cced17259cb7befa6852a0092b57a7f.png

Edytowane przez musichunter1x
  • Like 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   1 użytkownik


  • Popularne tematy

  • Najnowsze posty

    • To jest doczytywanie obiektów a nie textur a idTech nie radzi sobie z roślinnością o czym zresztą już pisałem wcześniej. Nawet na oficjalnym gameplay widać jak był ten etap w łodzi pokazywany na co zresztą zwrócił uwagę Mastre 10 miesięcy przed premierą i jak widać nie poprawili tego i nie poprawią bo to silnik do zamkniętych pomieszczeń typu Doom a nie do pół sandboxów    
    • Najlepiej brać od razu 2x32 przecież to nie jest taka różnica w kasie przy cenie calej platformy, nawet sobie raty 0% można wsiąść. Nawet 2x48 jak ktoś się spodziewa że będzie dużo ramu potrzebować, ale do gier 64gb będzie zapas na lata.
    • Jak chcecie, żeby Wam zamknąć w pisdoo ten temat, to dalej tak piszcie o (jakby nie było) osobach publicznych. Swoją opinię można wyrazić z klasą.
    • Jeśli 5070 Ti będzie wydajniejsza od 4080S, to u mnie spełni kryterium co najmniej dwukrotności wzrostu wydajności względem mojej 3070, 4080 oraz 4080 o tą dwukrotność tylko się ocierają. Wtedy ta karta może być warta rozpatrzenia przeze mnie, jeśli nie wypuszczą 5080 24 GB. Zresztą, jak przesiadałem na 3070 z GTX-a 970, to po krótkim rzuceniu okiem na testy, różnica pomiędzy nimi wręcz ocierała się o trzykrotność (3070 była niemal trzykrotnie wydajniejsza względem 970). Jeszcze nie, lecz nie spodziewam się ceny przekraczającej 1000$. 4080 startowała od 7 kafli, tyle, że cena była wówczas tak wysoka, że się nie sprzedawała, tym bardziej, że niżej miałeś 4070 Ti za 4 kafle, który znacząco nie odstawał od 4080. Dopiero po roku NV poszła po rozum do głowy przyznając się do błędu, że cenę 4080 ustawiła zbyt wysoko, obniżyła o 200$ cenę, po drodze wydając 4080 Super, co przełożyło się na 5 kafli zł, tylko fakt, że w ciągu roku kurs USD/PLN całkiem znacząco się obniżył, że można było w naszym kraju zaobserwować obniżkę o 2 kafle na 4080/4080S. Tak namiesza, że wyjdzie Amerykanom bokiem jego fikołki . To jest tak powiązane ze sobą, że jak Europejczykom dowali, to tak samo dowali to Amerykanom, przyczyniając również do wzrostów cen w USA, posłuchałem kilka osób i na to co chce zrobić Trump nie tylko na towary z Europy, ale też z Kanady, Meksyku itd. z zamiarem odtworzenia produkcji wielu towarów w USA mówią jedno, to tylko się przyczyni do wzrostów cen w USA, a co za tym pójdzie do wzrostu inflacji oraz pogorszenia standardu życia. Przecież nie tak dawno Amerykanie wybrali Trumpa ze względu na koszty życia, inflacje itd. Zwykła 5070 z 16 GB Vram? Nadal nic nie słychać, ale jeżeli takowa będzie, to nic, tylko się cieszyć, bo to będzie taka 70-tka, jaka powinna być. Ale nie liczę na to, nadal będzie 5070 na 12 GB Vram na szynie 192-bit. Zresztą, żeby była 5070 16 GB, to musiałby być zastosowany odpowiednio pocięty rdzeń GB203 zamiast planowanego GB205, ponadto dając nadzieję, że 60 oraz 60 Ti będą miały szyny 192-bit na GB205 zamiast kastrata 128-bit i PCIe x8 GB206/207.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...