Skocz do zawartości

Radeon 9070 (XT) - na jakich pamięciach jest Twoja karta - Hynix/Samsung?


Rekomendowane odpowiedzi

Opublikowano
3 minuty temu, Krzysiak napisał(a):

@Alai_de_Loinjeszcze do stosunkowo niedawna tak u mnie było...buda to było coś co miało trzymać graty, boków nigdy nie zakładałem, liczył się każdy % wydajności w górę. Nagle coś przeskoczyło i przestało to mieć takie znaczenie, zaczął się liczyć wygląd. Teraz zamiast kupić przykładowo 9800x3d na Asusa którego miałem kupiłem Gigabyte bo jest biały, nie zyskując tym nic w kwestii wydajności 😆

 

Mam pierdolniętą papugę która wygryzła by każdy kondensator z każdej karty w obudowie gdybym nie zamknął, do tej pory mam testbench z x99 z wygryzionymi kabelkami.

Nad białymi elementami kiedyś się zastanawiałem ale u mnie jest w cholerę kurzu i musiałbym co drugi dzień  to czyścic, na czarnym nie widać.

Kurz z papuzich skrzydeł, w życiu nie myślałem ze tego jest aż tyle.

  • Haha 1
Opublikowano (edytowane)
43 minuty temu, Krzysiak napisał(a):

@Alai_de_Loinjeszcze do stosunkowo niedawna tak u mnie było...buda to było coś co miało trzymać graty, boków nigdy nie zakładałem, liczył się każdy % wydajności w górę. Nagle coś przeskoczyło i przestało to mieć takie znaczenie, zaczął się liczyć wygląd. Teraz zamiast kupić przykładowo 9800x3d na Asusa którego miałem kupiłem Gigabyte bo jest biały, czy białego 9070xt w miejsce czarnego nie zyskując tym nic w kwestii wydajności😆

@radzio_zmam ustawione ręcznie wszystkie rzędy timingów... nigdy zapodałem aidy :rotfl2:

I czy ktoś się z Ciebie tutaj nabija, że zacząłeś odpicowywać kompa pod kątem wyglądu? Nie rozumiem zatem tego hahaha z puszczania Aidy. No jasne że nie puszczałeś, bo niezależnie od wskazań Aidy, Twój komp był tak samo biały, a dla kogoś kto szuka totalnego maksa ze swojego RAM-u ma to znaczenie.

 

I nie wiem, co Ty się lepszy czujesz, dojrzalszy że przeszło Ci z pkt w benchmarkach na wygląd?

 

To powiedzmy, że ja jestem z tych, że komp może wyglądać jak wygląda bez specjalnego spuszczania się nad tym, ale żeby zrobić maksa w Cinebench 24 na swoim 5800X 3D, to zrobiłem "winter OC", otwierając w zimę okno robiąc tym w pokoju około 0 stopni, otwierając obudowę i ustawiając wentylator pokojowy który dmuchał tym lodowatym powietrzem do wnętrza obudowy - dzięki temu pod chłodzeniem jakie mam, nie wpadał on w throtling i zrobiłem te swoje 914 pkt :)

Edytowane przez radzio_z
  • Upvote 2
Opublikowano
2 godziny temu, radzio_z napisał(a):

I całkiem przypadkiem lepiej boost-owały te z Hynix-ami, tak :hihot:?

Przecież te zegary są podane, więc można sprawdzić. Biorąc Twój przykład Alan Wake 2, ale na stocku, bez OC, bo nie mam zamiaru wnikać, czy w teście potencjał Samsungów został należycie wykorzystany, bo one się kręcą kapkę wyżej niż Hynixy:

s1.thumb.png.fd6cd8661defbfb95e3c9dd30752de2d.png

I teraz bierzemy najbliższą taktowaniem parę na różnych rodzajach kostek.

s2.thumb.png.c395913be0d60ed897e4e8773a5601f9.png

Różnica wydajności 2%.

2 godziny temu, radzio_z napisał(a):

Akurat widziałem test, z którego wynikało, że przy 9070, w QHD, nieważne czy masz 5800X 3D czy 9800X 3D, to już nie ma żadnej różnicy.

Zależy, w co grasz. Są takie gry, gdzie nie będzie różnicy, a są takie, gdzie będzie znaczna. Żaden test mieszany CPU/GPU nie odda tych zawiłości, które jako gracz odczujesz w praktyce.

  • Upvote 1
Opublikowano
55 minut temu, tomcug napisał(a):

Zależy, w co grasz. Są takie gry, gdzie nie będzie różnicy, a są takie, gdzie będzie znaczna. Żaden test mieszany CPU/GPU nie odda tych zawiłości, które jako gracz odczujesz w praktyce.

Praktycznie we wszystko: 

 

Opublikowano

Nawet patrząc tylko na ten test, to w Space Marine 2 różnica jest. A Hardware Unboxed nie umie dobierać miejsc procesorowych do tego typu porównań, więc w praktyce różnice są większe. To, o czym pisałem wcześniej.

Godzinę temu, tomcug napisał(a):

Żaden test mieszany CPU/GPU nie odda tych zawiłości, które jako gracz odczujesz w praktyce.

Dlatego testy mieszane są dobre głównie do wciskania kitu, że nie ma różnicy.

Opublikowano (edytowane)
19 minut temu, tomcug napisał(a):

A Hardware Unboxed nie umie dobierać miejsc procesorowych

przede wszystkim powinnen sie wstydzić ze publikuje power pointy na youtybe.

Co to za standardy w 2025?

Takie ktore sie znajduje na fejk kałach,tyle ze tam jest dobra muza :hahaha:

pclab w 2014 juz publikował prawilne na youtube

 

Edytowane przez janek25
Opublikowano (edytowane)

@radzio_z nie czuję się lepszy/dojrzalszy...to Ty od początku tego wątku próbujesz nam wmówić, że zadowolony posiadacz samsunga to debil godzący się na ustępstwa, a jeśli nie to, to na pewno nie entuzjasta. Ja swoim przykładem próbuję przekazać, że entuzjastą może być ten któremu zwisa i powiewa te 2% różnicy wydajności, bo może liczyć się coś innego ;) 

 

Mówisz że godzimy się na przepłacanie za samsunga względem hynixa...co jest gówno prawdą patrząc na to jak prezentowały się ceny na przestrzeni miesięcy. Na fakturze za mojego reapera na hynix widniało 3500zł (dałem mniej, kto tutaj mnie "zna" wie jak było), na fakturze za dużo lepszego w kwestii temp/kultury pracy pure na samsungu widnieje 2800 z groszami ;) Ot w czasach hynixa akurat było drożej, teraz w czasach samsunga jest taniej...więc nawet ten argument nie istnieje bo nie istnieje coś takiego jak przepłacanie za to (oczywiście nie sugeruję tu, że magicznie samsung zbił cenę kart) ;) 

 

 

Ja rozumiem ludzi goniących za każdym punktem w cine czy smarku, bo sam tak miałem...ale też rozumiem tych którym to zwisa i wolą chłodniejsze pamięci bo tak! ;) 

Edytowane przez Krzysiak
  • Upvote 2
Opublikowano
7 godzin temu, jankooo napisał(a):

Od kiedy to 3% lepiej traktuje się z pogardą?

Z informacji w sieci  wynika, że karty z pamięciami Samsunga dostępne sa od ponad pół roku a więc sprzedawano je równolegle w jednym czasie. Różnica zauważalna bo albo gorąco albo wolniej.

Dlaczego Samsungów nie ustawiono na podobną wydajność skoro ich temperatura wynika z wykonania w niższym procesie. To ma być swoista rekompensata aby nikt nie czuł sie pokrzywdzony? Niezły bałagan

 

Panie od n-lat występują różnicę w wydajności oraz oc w zależności od zastosowanych kostek. Biosy już z automatu mają wsparcie dla różnych kości oraz różne profile. To nie producent karty ustala timingi tylko producent pamięci.

To samo tyczy się taktowania i napięcia dlatego już nie uświadczysz kart jak lata temu z podkręconymi pamięciami.

Niestety mam wrażenie, że ludziom w głowach się p...... :hihot:

Ba takie rzeczy występowały na drogich modelach stricte do kręcenia w zależności od sztuki był inny producent pamięci. Ten gorszy nie tylko na dzień dobry miał niższą wydajność, ale zarazem gorsze oc tylko to nadal są niewielkie różnice.

Ja tutaj nie widzę kręcenia na suchym lodzie lub azocie i bicia rekordów w markach gdzie każdy pkt ma znaczenie.

A jak komuś brakuje wydajności to nie brakuje 2,3 czy 5% tylko trzeba przeskoczyć na te min 30% do przodu by miał jakikolwiek sens, a ewentualne kwestie opłacalności pominę.

Czasy kręcenia i zyskiwania grubego boosta za friko już dawno przeminęły.

  • Upvote 5
Opublikowano
14 godzin temu, radzio_z napisał(a):

Akurat widziałem test, z którego wynikało, że przy 9070, w QHD, nieważne czy masz 5800X 3D czy 9800X 3D, to już nie ma żadnej różnicy.

Gdyby tak było to fajnie ale tak do końca nie jest ;) są tytuły gdzie walka między cpu bez żadnych fejkowych klatek i upscalingu zamyka się poniżej 3 cyfrowej wartości fps ;) przykładowo taki stalker 2 różnice między wymienionymi prockami przez ciebie wyjdą w czystym rasterze nawet z 9070 na pokładzie.

Opublikowano

@Krzysiak ten temat pierwotnie miał służyć zebraniu informacji, czy w sprzedaży mamy karty na obu typach pamięci i klient nigdy nie wie co wylosuje, czy może cała bieżąca oferta jest już na Samsungach. Szło dobrze do momentu pojawienia się w tym wątku @sideband który zaczął swoją obecność tutaj od stwierdzenie "jesteś odklejony...", aby przejść do szydzenia z tych dla których te procenty wydajności są istotne, bo "on już dorósł i jest ponad to" - i to wtedy dopiero zaczął się spór o wyższości Świąt Wielkiejnocy nad Świętami Bożego Narodzenia.

 

Dla mnie akurat temat jest istotny, bo ja po dziś dzień lubię w benchmarki, a jeśli dla kogoś nie jest....to po co w ogóle tu wchodzi i wtranżala się ze swoimi myślami i wywyższeniami "bo on to woli kompa używać, a nie testować". Śmiesznie to brzmi ze strony @sideband któremu szkoda życia na benchmarki, ale nie szkoda mu na siedzenie godzinami na tym forum i pisaniu o kompach zamiast coś konkretnego na nim porobić :D.

 

Powiedz mi, czy ja się wpierdzielam na tematy poświęcone upiększaniu kompów i zaczynam ludziom udowadniać, że kompy nie są od wyglądania, tylko od maksymalnej wydajności? No nie znajdziesz u mnie takich wypowiedzi.

 

Nie zmienię zdania, że zmiana specyfikacji produktu, która powoduje pogorszenie wydajności wykraczającą poza błąd pomiarowy i nie informowanie klientów o tym, że nie mają co liczyć na parametry które widzą w testach premierowych, bo teraz mamy rewizję 2.0, jest zwyczajnym oszustwem. Przypomina mi to pierwszą tego typu głośną aferę z SSD Kingston V300, który podmienił pamięci z synchronicznych na asynchroniczne i też uważał że nie ma powodu informować o tym klientów.

 

1 godzinę temu, Send1N napisał(a):

Gdyby tak było to fajnie ale tak do końca nie jest ;) są tytuły gdzie walka między cpu bez żadnych fejkowych klatek i upscalingu zamyka się poniżej 3 cyfrowej wartości fps ;) przykładowo taki stalker 2 różnice między wymienionymi prockami przez ciebie wyjdą w czystym rasterze nawet z 9070 na pokładzie.

Możliwe. Różnice jednak nie będą powalające. 5800X 3D w grach to nadal przyzwoicie wydajny CPU i w QHD w maksymalnych detalach w większości przypadków daje radę wysycić Radeona 9070. Zresztą ja teraz pykam w Assassin's Creed Valhalla i fps latający pomiędzy 120 a 170 klatek mnie w pełni satysfakcjonuje.

 

A jeśli chodzi o zabawę w benchmarki, to doskonale zdaję sobie sprawę że nie mam najwydajniejszego kompa na świecie, a nawet że nie mam najwydajniejszego kompa z Radeonem 9070. W tych swoich zabawach porównuję się w swojej "kategorii wagowej", czyli 5800X 3D + 9070. I cóż, gdybym miał egzemplarz na Samsungach którego z miejsca można skreślić ze wszystkich rankingów, bo nigdy nie przegoni on egzemplarzy z Hynix, to zwyczajnie czułbym się z tym źle.

Opublikowano
1 minutę temu, radzio_z napisał(a):

5800X 3D w grach to nadal przyzwoicie wydajny CPU

Owszem ;) dlatego nadal na nim siedzę i dopiero jak zabraknie mi mocy to zmienię platformę, dobrze że ceny pamięci skoczyły o 100% to ręka nie swędzi aby grzebać przy czymś co dobrze działa :E 

  • Like 1
Opublikowano (edytowane)

@radzio_zja tylko mówię, iż to Ty wielokrotnie sugerowałeś, że co z nas za entuzjaści bo trafia się Samsung i nic z tego nie robimy, do tego dopłacamy za mniejszą wydajność ;) Jak widać w tym temacie żadnemu posiadaczowi karty na Samsungu to nie przeszkadza...poza posiadaczem karty na hynix 😁

 

 

Powinieneś się cieszyć że ludziom Samsung pasuje...nie pobiją Twoich wyników 😆

Edytowane przez Krzysiak
Opublikowano
4 minuty temu, Krzysiak napisał(a):

@radzio_zja tylko mówię, iż to Ty wielokrotnie sugerowałeś, że co z nas za entuzjaści bo trafia się Samsung i nic z tego nie robimy, do tego dopłacamy za mniejszą wydajność ;) Jak widać w tym temacie żadnemu posiadaczowi karty na Samsungu to nie przeszkadza...poza posiadaczem karty na hynix 😁

Za to posiadacze Samsungów mają tendencje do wywyższania się i nabijania z tych, dla których te 2-3....a może i 5% jest istotne, bo "oni to już dorośli i im szkoda życia na takie śrubowanie każdego punkcika" ;).

Opublikowano
1 godzinę temu, radzio_z napisał(a):

Za to posiadacze Samsungów mają tendencje do wywyższania się i nabijania z tych, dla których te 2-3....a może i 5% jest istotne, bo "oni to już dorośli i im szkoda życia na takie śrubowanie każdego punkcika" ;).

Masz przecież wyżej pokazane, że nawet w tym Alanie Wake'u 2 różnica z samych pamięci to tylko 2%. Po co drążyć temat?

Opublikowano
3 godziny temu, radzio_z napisał(a):

I cóż, gdybym miał egzemplarz na Samsungach którego z miejsca można skreślić ze wszystkich rankingów, bo nigdy nie przegoni on egzemplarzy z Hynix, to zwyczajnie czułbym się z tym źle.

@radzio_z, zrozumiałe - czyli patrzysz z perspektywy wydajności. W tym wypadku akurat nikt nie robi afery bo z dwojga złego sporo ludzi woli chłodniejsze Samsungi. Głupio by było psioczyć na producentów, kiedy dostaje się coś subiektywnie lepszego (ale gorszego wydajnościowo). 

 

Ty chcesz aby producent opisywał na pudełku jakie użył pamięci, a ja bym np chciał aby producent opisywał ile rpm i dB osiąga karta w stresie i czy piszczą cewki. Niestety mnie też mają w *pie i tego nie robią.

 

  • Upvote 1
Opublikowano (edytowane)

U mnie pamięci Samsunga. Nie wiem czy to dobrze czy nie. Dla mnie bez różnicy :E

Zapomniałem dodać: karta kupiona pod koniec lipca tego roku.

 

Screenshot 2025-11-12 161203.png

Edytowane przez bluebart
  • Like 1
Opublikowano

Pamietam, ze kilka miesiecy temu pisalem z jednym z forumowiczow na temat pamieci na tej karcie. On ma chlodniejsze, ja mam cieplejsze. Wtedy nie bylem zadowolony, ale szbko mi przeszlo bo zapomnialem. Od niedawna wiem jednak ze Hynixy sa lepsze bo szybsze i na zime w domu mamy cieplej. Mam tez uraz do Samsunga (Kupilem nowy piekarnik, ktory notorycznie sie chrzanil i do tego nie wskazywal prawidlowej temperatury. Gnoje nie chcieli wymienic na nowy po chyba 4 naprawach wiec juz mialem zawiezc go i pieprznac na glebe przed wejsciem do siedziby srajsunga. Nie zrobilem tego jeszcze, piekarnik nadal dziala, ale temperatury nie pokazuje prawidlowej. Mam tez monitor srajsunga, ktory przy odswiezaniu 144 na pulpicie psuje sie znieksztalcajac wyswietlany obraz tak ze nic nie widac. W grach jest ok, ale migocze...   Tv srajsunga tez sie zaczal chrzanic. Posta pisze na srajsungu, ktorego sobie chwale, ale wiecej produktow srajsunga nie kupie.) 

 

Lepiej mi teraz.

 

  • Haha 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Monitory przedwczoraj przyszły także miałem możliwość porównania ich bezpośrednio jak z również z moim obecnym Dellem. Tutaj nie sposób nie wspomnieć o tym, że nawet Samsung Odyssey G7 S32DG70 mimo, że to również panel IPS miażdży jakościowo staruszka, nawet zostawiając te same 60Hz. Kolory były zaskakująco dobre i nawet czerń wydawała mi się idealna, a przynajmniej do czasu jak obok postawiłem OLEDa Odyssey G8 . Chyba nie będę jedyny, który stwierdzi że OLED ma efekt WOW, po włączeniu gry (Clair obscur expedition 33) obraz był po prostu magiczny - oczywiście komfort gry był tragiczny bo fpsy spadły z 60 do ledwo 30-40 (od 3060 Ti cudów nie można wymagać), niemniej jednak, stojąc na łące obok świecących drzewach czułem jakbym przeskoczył o generację do przodu w kwestii grafiki  no poezja. Także w grach nie mam nic do zarzucenia. Następnego dnia wziąłem się za testy w pracy, tutaj musiałem ograniczyć jasność do 0 i kontrast z domyślnych 50 na jakieś 20 bo inaczej czułem że biel wypala mi oczy. Następnie musiałem zmienić tryb na ciemny wszędzie gdzie się dało.. Po zmianie było już spoko, jakość tekstu perfekcyjna, nie byłem w stanie zauważyć żadnych problemów z ich wyświetlaniem nawet jak wsadziłem nos w monitor w ich poszukiwaniu. Generalnie po kilku godzinach nie czułem też jakiegoś większego zmęczenia oczu czy coś także raczej nie miałbym problemów z pracą na takim monitorze.   Wracając jeszcze do Samsunga Odyssey G7, tutaj czując że to właśnie powinien być mój wybór biorąc pod uwagę przewagę pracy biurowej nad grami naprawdę byłem skłonny go wybrać... ale niestety skreśliła go nie jakość panelu, bo moim zdaniem jest super i tak, tylko tragiczny interface.. co za oszołom wymyślił takie menu wraz z niewidocznymi małym przyciskami to nie wiem ale lepiej by robotę zmienił.. wisienką na torcie jest tryb gaming który zawsze włączał mi się domyślnie po uruchomieniu monitora, ignorując moje poprzednie ustawienia, co kończyło się wypalaniem oczu.    Tutaj byłem już skłonny zaryzykować i wziąć tego OLEDa do czasu jak doczytałem, że Samsung nie oferuje 3 letniej gwarancji na wypalenia, ba! oferuje jedynie 12 miesięcy gwarancji ogólnej. Takiego ryzyka nie chcę i odsyłam oba modele. Będę szukał innego IPSa (może tego LG 32GR93U-B) bo obecna ich jakość jest naprawdę dobra, albo zamówię innego OLEDa w tym rozmiarze, który będzie płaski i z pivotem i pojawi się w sensownej cenie, ale chociaż da to małe zabezpieczenie na wypalenie.    Moja konkluzja jest taka, że nie jest tak łatwo o uniwersalny monitor w obecnych czasach   
    • Ktoś pozjadał wszystkie rozumy i zapomniał spalić te kalorie.  
    • Skoro kupiłeś WOLED to wiedziałeś na co się piszesz 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...