Skocz do zawartości

RAMU ZABRAKNIE!!! - temat panika kolejnego nadmuchanego problemu pierwszego świata sztucznie wykreowanego przez korporacyjnych dyrektorów. (Wątek zbiorczy)


Rekomendowane odpowiedzi

  • Odpowiedzi 2,1 tys.
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Opublikowano (edytowane)

Tak, normalnie korzystam z takich adapterów (DDR 5).

Samsungowy moduł 4800 zrobił 5200 CL36 (36-36-36).

Również Samsung, ale 5600, to te 5600 przy 34-36-36, system odpala nawet na 6200 CL40, ale TestMem wyrzuca pojedyncze błędy. Nie walczyłem z ustabilizowaniem tego.

Oba wyniki na 1.15V, moduły po 16GB, płyta ITX, proc monolit.

 

 

Edytowane przez rzymo
  • Thanks 1
  • Upvote 1
Opublikowano (edytowane)

Czyli nie jest możliwe zasilenie tych SO-DIMMów np. 1.35V?

 

Jak przy 1.15v to nic dziwnego że taka kupa z osiągami.

Wszystkie sensowne desktopowe RAMy DDR5 idą na 1.3-1.4V

Edytowane przez VRman
Opublikowano
51 minut temu, rzymo napisał(a):

Tak, normalnie korzystam z takich adapterów (DDR 5).

Samsungowy moduł 4800 zrobił 5200 CL36 (36-36-36).

Również Samsung, ale 5600, to te 5600 przy 34-36-36, system odpala nawet na 6200 CL40, ale TestMem wyrzuca pojedyncze błędy. Nie walczyłem z ustabilizowaniem tego.

Oba wyniki na 1.15V, moduły po 16GB, płyta ITX, proc monolit.

 

 

Wal wszystko max na 1.35V. 1.15V to laptopowe/low-endowe napięcia. Nawet bez radiatora 1.35V jest na serio chłodne i demonizują ludzie te radiatory..... bez problemu 1.35V i atakuj herce.

Opublikowano (edytowane)

@Adamiakadam00 nie do końca z tym napięciem - kości pamięci są zaraz jedna koło drugiej na PCB, samo PCB też jest przecież sporo mniejsze, do tego brak radiatorów i u mnie jeszcze brak przewiewu w małej obudowie ITX. Nawet na 1.15V są gorące w testach.

Jak zwiększę napięcie np. do 1.25V to już TestMem nie da rady na obecnych nastawach, wywali się od temperatury ;) (musiałbym luzować np. tRFC / tREFI).

 

Rozwiązanie z adapterami i laptopowymi modułami mi pasuje, nawet 5200 36-36-36 jest w zupełności wystarczające. W grach i tak zawsze zlimituje mnie wolna k. graficzna (5060 z obniżonym PL/UV). Wsadzenie tu zwykłych 6000 CL30 i tak by nie dało żadnych przyrostów.

Co innego jakbym miał np. 9070XT, 4070Ti, czy wyżej...

 

Edytowane przez rzymo
Opublikowano (edytowane)
13 godzin temu, Mpro napisał(a):

ceny ramów się ustabilizowały już ?

 

 

Trochę poetycko uformowałeś, a to się nie może kończyć inaczej niż odpaleniem notatnika, napisaniem tekstu i nakarmienie tym Suno AI z krótkim promptem odnośnie stylu.

Trochę spartoliło tu i tam, ale już trudno. I tak wyszło nieźle. :cool:

 

A tu druga wersja, w której początek spartoliło śpiewając... prompta :lol2:

Ale za to od 1:01 jest dobrze, a do tego w końcówce drugiej zwrotki naprawdę zajebiście dało czadu :metal:

https://twitter.com/i/status/2020252236010377429

Edytowane przez VRman
  • Like 2
  • Upvote 1
Opublikowano
W dniu 6.02.2026 o 09:04, allas napisał(a):

Teraz tylko znaleźć dobry zrzut spd pod kości hynix A -die H5CG48AGBD X018

Jakiego programu obecnie można użyć aby zapisać spd do pliku? Pamiętam że dało się to robić w płatnej wersji thaiphoon burner (pro) ale widzę że nie da się go już kupić :E z oficjalnej strony można już tylko pobrać darmową która nie ma takiej funkcji, nigdzie nie znalazłem jakiegoś linku czy przekierowania do zakupu tak jak jeszcze 2 lata temu było to możliwe ;) 

Opublikowano (edytowane)
9 godzin temu, Send1N napisał(a):

Jakiego programu obecnie można użyć aby zapisać spd do pliku? Pamiętam że dało się to robić w płatnej wersji thaiphoon burner (pro) ale widzę że nie da się go już kupić :E z oficjalnej strony można już tylko pobrać darmową która nie ma takiej funkcji, nigdzie nie znalazłem jakiegoś linku czy przekierowania do zakupu tak jak jeszcze 2 lata temu było to możliwe ;) 

Sam chciałbym wiedzieć czy da się to zrobić z poziomu programu , bez programatora. Udało mi się znaleźć wsad pod HYNIX tylko X014 czyli wolniejsza pamięć a ja mam X018 , o ile dobrze rozumiem . Takie same kości są  w : https://www.techpowerup.com/review/g-skill-trident-z5-ddr5-7200-cl34-2x-16-gb/3.html  

png1.png

Edit : Ale się zrobiłem w ciula , pamięci testowane na śmieciowej płycie Asrock H610 +I3 12100 , maksymalne taktowanie ram tylko 4800Mhz. Ale lipa :boink:

Edytowane przez allas
  • Like 1
Opublikowano (edytowane)
23 godziny temu, Zdzisiu napisał(a):

Sytuacja wygląda tak że OpenAi pozamawiało kości pamięci które nie zostały jeszcze wyprodukowane za pieniądze których jeszcze nie posiada.

No ale tak jak piszesz, nVidia wycofała się z większości inwestycji, pytanie ,czy znajdą kogoś innego.

Co do uwag, ze do serwerów i układów zielonych też potrzebny jest RAM... No jest, oczywiście, ale jednak nie aż tyle. 

Zamówienie może oczywiście przejąć MS czy inny Amazon... zobaczymy, jak się to dalej rozwinie. 

A papierowe straty Spotify, a nawet Tesli, rocznie były chyba jednak mniejsze. Do tego - paradoksalnie - nie było raczej aż tylu inwestorów liczących na zysk w takiej skali jak przy AI (na pewno w przypadku Spotify nie było takiego hajpu). A to nie jest bez znaczenia IMHO.

Edytowane przez Zas
Opublikowano
3 minuty temu, Zas napisał(a):

I już ich raczej nie dostanie, bo vVidia wycofała się z finansowania, więc wiadomo, że za ten zamówiony RAM nie będą mieli czym zapłacić. :) Chyba, że znajdzie się inny inwestor...

O czym ty piszesz ;)
Inwestycja nV miała polegać na przekazaniu akceleratorów za 100mld$, nie żadnych pieniędzy na RAM. A akceleratorów na tą chwilę OpenAi i tak nie brakuje, brakuje im infrastruktury. Mają tysiące nieużywanych jeszcze bo dopiero budują centra danych dla nich, dodatkowo jest problem z ich zasileniem (gigantyczne zapotrzebowanie na energię) i do tego wszystkiego akceleratory nie działają same- potrzebne są serwery (a do nich pamięć RAM). Finansuje to z SoftBankiem i Oracle, ma na to pójść 400mld$ i nVidia nie ma z tym nic wspólnego.

Opublikowano (edytowane)
8 godzin temu, Zas napisał(a):

No ale tak jak piszesz, nVidia wycofała się z większości inwestycji, pytanie ,czy znajdą kogoś innego.

Co do uwag, ze do serwerów i układów zielonych też potrzebny jest RAM... No jest, oczywiście, ale jednak nie aż tyle. 

Zamówienie może oczywiście przejąć MS czy inny Amazon... zobaczymy, jak się to dalej rozwinie. 

A papierowe straty Spotify, a nawet Tesli, rocznie były chyba jednak mniejsze. Do tego - paradoksalnie - nie było raczej aż tylu inwestorów liczących na zysk w takiej skali jak przy AI (na pewno w przypadku Spotify nie było takiego hajpu). A to nie jest bez znaczenia IMHO.

OK zedytowałeś i usunąłeś całą poprzednią wypowiedź, więc jakby co to została w poprzednim cytacie.

 

Widzę, że jest potrzeba sporo tu wytłmaczyć.

Wyżej pisałem głównie o infrastrukturze potrzebnej akceleratorom w procesie treningu modeli AI, bo to jest najbardziej "akceleratorochłonne". Ale to jest tylko połowa biznesu, ta mniej "RAMochłonna".

Jest druga strona- ta z której korzystają użytkownicy tego AI. Czyli na tą chwilę ponad 800mln jeśli chodzi o OpenAI. Wszystkie te zapytania, rozmowy z chatemGPT itd potrzebują więcej typowych serwerów, "zwykłej" mocy serwerowej (czyli procków + dużo RAM) jak w każdym innym przypadku ruchu internetowego.

Tutaj moje przypuszczenia: najprawdopodobniej wszystkie akceleratory będą spięte w klastry które będzie można dowolnie delegować do różnych zadań, np w nocy jest mniejsze natężenie użytkowników więc 85% mocy akceleratorów idzie na trening, 15% na obsługę zapytań, w dzień 70% trening a 30% na użytkowników. Ale do tego jest cały czas stała liczba klasycznych serwerów internetowych do obsługi tych użytkowników setek milionów użytkowników.

 

chatgpt.com to w tej chwili 5 najczęściej odwiedzana strona internetowa na świecie, z ponad 5 miliardami wizyt miesięcznie. ChatGPT to najpopularniejsza apka zarówno w iOS store jak i Google PLAY. Do samego dźwignięcia tego ruchu potrzeba gigantycznej infrastruktury i potężnych serwerowni. A ten ruch cały czas dynamicznie rośnie...

 

Do tego dochodzą inni: Google, Anthropic, xAi, Meta, DeepSeek, Alibaba... A w zasadzie to tylko segment LLM, dalej są jeszcze usługi generowania grafiki/video (Midjourney, Stable Diffusion, Veo, Sora), muzyki (Suno).

I to tylko kilka najbardziej znanych. To wszystko się rozwija, potrzebuje coraz więcej mocy do: A treningu, B obsługi zapytań, C obsługi użytkowników. Czyli zarówno mocy akceleratorów i pamięci HBM jak i serwerów i ich RAMu.

 

Mówisz, że jest hype na AI. No jest, ale przez to właśnie łatwiej o kasę od inwestorów, a nie trudniej. Może to pier*** i pamięć potanieje, ale bez tego myślę że przez minimum rok nie ma na to szans, a pewnie dłużej.
W tej chwili w sklepach płacimy mniej więcej tyle, ile RAM u producentów kosztował 2-3 miesiące temu. Dziś jest droższy. Jeśli ceny sklepowe dogonią aktualne hurtowe (a to w zasadzie tylko kwestia czasu), to wylądujemy na poziomie >2000 za 32GB DDR5. I to zakładając, że od teraz RAM już przestanie drożeć. A z tego co słychać, to żaden z producentów nie ma żadnych sentymentów i wszyscy będą próbowali maksymalnie wykorzystać sytuację. IMO jesteśmy w dupie.

Edytowane przez rdk
Opublikowano (edytowane)

Ale miałem farta, że wszystkie bebechy w blaszaku zmieniałem w sierpniu 2025 :) 

Za niecałe 4K zł kupiłem mobo + procesor + ram + zasilacz + dysk ( w stopce) no i + 2Kzł za grafikę, czyli 6kzł :P 

Edytowane przez leven
Opublikowano
43 minuty temu, janek25 napisał(a):

Ta twoja grafika jest epiczna na forum %-)

a ja w grudniiu chcialem z amzona kupić minipc na 6600H z 32 GB ddr5 za 490zł .Ale po co on mi wiec nie kupiłem xD

Nie masz czego żałować, to była pomyłka amazona. Nikt tych komputerów nie dostał.

Opublikowano
Godzinę temu, leven napisał(a):

Ale miałem farta, że wszystkie bebechy w blaszaku zmieniałem w sierpniu 2025 :) 

Za niecałe 4K zł kupiłem mobo + procesor + ram + zasilacz + dysk ( w stopce) no i + 2Kzł za grafikę, czyli 6kzł :P 

Komputer za 6K z RTX 5060 Ti 16GB.

 

tenor.gif

  • Haha 1
Opublikowano

Płyta: 1000zł

Proc: 900zł

Ram: 850zł

Zasilacz: 550zł

Dysk: 300zł

 

Razem około 3600zł - trochę pojechałem z tym 4Kzł :P

Do tego grafika, przecież tania: 2000zł :E  teraz kosztuje 2500zł :E 

 

Nie widzę, żebym przepłacił w sierpniu, teraz musiałbym dodać 3 tysiaki za ten zestaw :P 

Mi to wystarczy, a może sprzedać samochód i kupić 5090 za 15K zł ?

Godzinę temu, janek25 napisał(a):

Ta twoja grafika jest epiczna na forum %-)

 

Poczekaj, poczekaj, zobaczymy co będzie za pół roku. 

306012GB Vram była wyśmiewana, a co teraz jest ?

 

Opublikowano
10 godzin temu, rdk napisał(a):

Inwestycja nV miała polegać na przekazaniu akceleratorów za 100mld$, nie żadnych pieniędzy na RAM.

Nie śledzę tematu aż tak mocno, mam inne zmartwienia niż kontrakty OpenAI. :E No jeśli całość (pisano chyba ogólnie o inwestycji w infrastrukturę obliczeniową) miała być zrealizowana jako dostawa układów przez nVidię, to z RAM faktycznie ma to tylko tyle wspólnego, że zieloni również potrzebują pamięci (pewnie HBM) do swoich akceleratorów... A skoro OpenAI nie brakuje akceleratorów, to tym bardziej pokazuje, jaki to jest cyrk. :E 

Czy do klasycznych serwerów potrzeba jeszcze więcej pamięci - nie wiem, możliwe, że tak. :) 

 

Jasne, że nadal jest masa konkurentów, pytanie, czy oni będą w stanie szybciej i więcej zarobić. 

A hajp to z jednej strony łatwe pozyskiwanie kapitału, z drugiej jednak ogromna chciwość. Wszystkie wielkie fundusze i korpo niekoniecznie mają to wszystko precyzyjnie policzone. 

 

Tak czy inaczej, szary użytkownik może tylko czekać. Mimo wszystko, każde 100 mld wirtualnych dolarów mniej w tym biznesie to dobra wiadomość. 

Opublikowano (edytowane)

@allas @Send1N

 

https://www.dropbox.com/scl/fi/784kawemm1sktqg203uk9/OCTool_ADL0115.zip?rlkey=oy5jvovimwdcje00stvord1ki&e=1&dl=0

 

https://rog-forum.asus.com/t5/amd-600-series/x670-x870-resource-thread/m-p/1101111/highlight/true#M10099

 

Tutaj nowsza wersja ;)

 

Odpalasz Tool - Board Function - DDR5 SPD możesz odczytać i zapisać SPD ;)

 

Ogarnia również DDR4 jedynie problem z CKD. Może nie działać na wszystkich płytach na Asusie działa.

 

https://github.com/ubihazard/ddr5-spd-recovery

 

Tutaj soft pod linuxa.

Edytowane przez sideband
  • Thanks 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...