Doamdor 2 479 Opublikowano 7 Lutego Opublikowano 7 Lutego (edytowane) Kogoś sytuacja finansowa zmusiła do korzystania z tej alternatywy? Edytowane 7 Lutego przez Doamdor 2
rzymo 117 Opublikowano 7 Lutego Opublikowano 7 Lutego (edytowane) Tak, normalnie korzystam z takich adapterów (DDR 5). Samsungowy moduł 4800 zrobił 5200 CL36 (36-36-36). Również Samsung, ale 5600, to te 5600 przy 34-36-36, system odpala nawet na 6200 CL40, ale TestMem wyrzuca pojedyncze błędy. Nie walczyłem z ustabilizowaniem tego. Oba wyniki na 1.15V, moduły po 16GB, płyta ITX, proc monolit. Edytowane 7 Lutego przez rzymo 1 1
VRman 3 233 Opublikowano 7 Lutego Opublikowano 7 Lutego (edytowane) Czyli nie jest możliwe zasilenie tych SO-DIMMów np. 1.35V? Jak przy 1.15v to nic dziwnego że taka kupa z osiągami. Wszystkie sensowne desktopowe RAMy DDR5 idą na 1.3-1.4V Edytowane 7 Lutego przez VRman
Adamiakadam00 38 Opublikowano 7 Lutego Opublikowano 7 Lutego 51 minut temu, rzymo napisał(a): Tak, normalnie korzystam z takich adapterów (DDR 5). Samsungowy moduł 4800 zrobił 5200 CL36 (36-36-36). Również Samsung, ale 5600, to te 5600 przy 34-36-36, system odpala nawet na 6200 CL40, ale TestMem wyrzuca pojedyncze błędy. Nie walczyłem z ustabilizowaniem tego. Oba wyniki na 1.15V, moduły po 16GB, płyta ITX, proc monolit. Wal wszystko max na 1.35V. 1.15V to laptopowe/low-endowe napięcia. Nawet bez radiatora 1.35V jest na serio chłodne i demonizują ludzie te radiatory..... bez problemu 1.35V i atakuj herce.
rzymo 117 Opublikowano 7 Lutego Opublikowano 7 Lutego (edytowane) @Adamiakadam00 nie do końca z tym napięciem - kości pamięci są zaraz jedna koło drugiej na PCB, samo PCB też jest przecież sporo mniejsze, do tego brak radiatorów i u mnie jeszcze brak przewiewu w małej obudowie ITX. Nawet na 1.15V są gorące w testach. Jak zwiększę napięcie np. do 1.25V to już TestMem nie da rady na obecnych nastawach, wywali się od temperatury (musiałbym luzować np. tRFC / tREFI). Rozwiązanie z adapterami i laptopowymi modułami mi pasuje, nawet 5200 36-36-36 jest w zupełności wystarczające. W grach i tak zawsze zlimituje mnie wolna k. graficzna (5060 z obniżonym PL/UV). Wsadzenie tu zwykłych 6000 CL30 i tak by nie dało żadnych przyrostów. Co innego jakbym miał np. 9070XT, 4070Ti, czy wyżej... Edytowane 8 Lutego przez rzymo
kubon 87 Opublikowano 7 Lutego Opublikowano 7 Lutego od 3 tygodni stoją w miejscu, 1600~ najtańsze 2x16 6000/30 3000~ 2x32 6000/30
VRman 3 233 Opublikowano 7 Lutego Opublikowano 7 Lutego (edytowane) 13 godzin temu, Mpro napisał(a): ceny ramów się ustabilizowały już ? Trochę poetycko uformowałeś, a to się nie może kończyć inaczej niż odpaleniem notatnika, napisaniem tekstu i nakarmienie tym Suno AI z krótkim promptem odnośnie stylu. Trochę spartoliło tu i tam, ale już trudno. I tak wyszło nieźle. A tu druga wersja, w której początek spartoliło śpiewając... prompta Ale za to od 1:01 jest dobrze, a do tego w końcówce drugiej zwrotki naprawdę zajebiście dało czadu https://twitter.com/i/status/2020252236010377429 Edytowane 8 Lutego przez VRman 2 1
Send1N 5 698 Opublikowano 7 Lutego Opublikowano 7 Lutego W dniu 6.02.2026 o 09:04, allas napisał(a): Teraz tylko znaleźć dobry zrzut spd pod kości hynix A -die H5CG48AGBD X018 Jakiego programu obecnie można użyć aby zapisać spd do pliku? Pamiętam że dało się to robić w płatnej wersji thaiphoon burner (pro) ale widzę że nie da się go już kupić z oficjalnej strony można już tylko pobrać darmową która nie ma takiej funkcji, nigdzie nie znalazłem jakiegoś linku czy przekierowania do zakupu tak jak jeszcze 2 lata temu było to możliwe
allas 25 Opublikowano 8 Lutego Opublikowano 8 Lutego (edytowane) 9 godzin temu, Send1N napisał(a): Jakiego programu obecnie można użyć aby zapisać spd do pliku? Pamiętam że dało się to robić w płatnej wersji thaiphoon burner (pro) ale widzę że nie da się go już kupić z oficjalnej strony można już tylko pobrać darmową która nie ma takiej funkcji, nigdzie nie znalazłem jakiegoś linku czy przekierowania do zakupu tak jak jeszcze 2 lata temu było to możliwe Sam chciałbym wiedzieć czy da się to zrobić z poziomu programu , bez programatora. Udało mi się znaleźć wsad pod HYNIX tylko X014 czyli wolniejsza pamięć a ja mam X018 , o ile dobrze rozumiem . Takie same kości są w : https://www.techpowerup.com/review/g-skill-trident-z5-ddr5-7200-cl34-2x-16-gb/3.html Edit : Ale się zrobiłem w ciula , pamięci testowane na śmieciowej płycie Asrock H610 +I3 12100 , maksymalne taktowanie ram tylko 4800Mhz. Ale lipa Edytowane 8 Lutego przez allas 1
Zas 383 Opublikowano 8 Lutego Opublikowano 8 Lutego (edytowane) 23 godziny temu, Zdzisiu napisał(a): Sytuacja wygląda tak że OpenAi pozamawiało kości pamięci które nie zostały jeszcze wyprodukowane za pieniądze których jeszcze nie posiada. No ale tak jak piszesz, nVidia wycofała się z większości inwestycji, pytanie ,czy znajdą kogoś innego. Co do uwag, ze do serwerów i układów zielonych też potrzebny jest RAM... No jest, oczywiście, ale jednak nie aż tyle. Zamówienie może oczywiście przejąć MS czy inny Amazon... zobaczymy, jak się to dalej rozwinie. A papierowe straty Spotify, a nawet Tesli, rocznie były chyba jednak mniejsze. Do tego - paradoksalnie - nie było raczej aż tylu inwestorów liczących na zysk w takiej skali jak przy AI (na pewno w przypadku Spotify nie było takiego hajpu). A to nie jest bez znaczenia IMHO. Edytowane 8 Lutego przez Zas
rdk 7 Opublikowano 8 Lutego Opublikowano 8 Lutego 3 minuty temu, Zas napisał(a): I już ich raczej nie dostanie, bo vVidia wycofała się z finansowania, więc wiadomo, że za ten zamówiony RAM nie będą mieli czym zapłacić. Chyba, że znajdzie się inny inwestor... O czym ty piszesz Inwestycja nV miała polegać na przekazaniu akceleratorów za 100mld$, nie żadnych pieniędzy na RAM. A akceleratorów na tą chwilę OpenAi i tak nie brakuje, brakuje im infrastruktury. Mają tysiące nieużywanych jeszcze bo dopiero budują centra danych dla nich, dodatkowo jest problem z ich zasileniem (gigantyczne zapotrzebowanie na energię) i do tego wszystkiego akceleratory nie działają same- potrzebne są serwery (a do nich pamięć RAM). Finansuje to z SoftBankiem i Oracle, ma na to pójść 400mld$ i nVidia nie ma z tym nic wspólnego.
rdk 7 Opublikowano 8 Lutego Opublikowano 8 Lutego (edytowane) 8 godzin temu, Zas napisał(a): No ale tak jak piszesz, nVidia wycofała się z większości inwestycji, pytanie ,czy znajdą kogoś innego. Co do uwag, ze do serwerów i układów zielonych też potrzebny jest RAM... No jest, oczywiście, ale jednak nie aż tyle. Zamówienie może oczywiście przejąć MS czy inny Amazon... zobaczymy, jak się to dalej rozwinie. A papierowe straty Spotify, a nawet Tesli, rocznie były chyba jednak mniejsze. Do tego - paradoksalnie - nie było raczej aż tylu inwestorów liczących na zysk w takiej skali jak przy AI (na pewno w przypadku Spotify nie było takiego hajpu). A to nie jest bez znaczenia IMHO. OK zedytowałeś i usunąłeś całą poprzednią wypowiedź, więc jakby co to została w poprzednim cytacie. Widzę, że jest potrzeba sporo tu wytłmaczyć. Wyżej pisałem głównie o infrastrukturze potrzebnej akceleratorom w procesie treningu modeli AI, bo to jest najbardziej "akceleratorochłonne". Ale to jest tylko połowa biznesu, ta mniej "RAMochłonna". Jest druga strona- ta z której korzystają użytkownicy tego AI. Czyli na tą chwilę ponad 800mln jeśli chodzi o OpenAI. Wszystkie te zapytania, rozmowy z chatemGPT itd potrzebują więcej typowych serwerów, "zwykłej" mocy serwerowej (czyli procków + dużo RAM) jak w każdym innym przypadku ruchu internetowego. Tutaj moje przypuszczenia: najprawdopodobniej wszystkie akceleratory będą spięte w klastry które będzie można dowolnie delegować do różnych zadań, np w nocy jest mniejsze natężenie użytkowników więc 85% mocy akceleratorów idzie na trening, 15% na obsługę zapytań, w dzień 70% trening a 30% na użytkowników. Ale do tego jest cały czas stała liczba klasycznych serwerów internetowych do obsługi tych użytkowników setek milionów użytkowników. chatgpt.com to w tej chwili 5 najczęściej odwiedzana strona internetowa na świecie, z ponad 5 miliardami wizyt miesięcznie. ChatGPT to najpopularniejsza apka zarówno w iOS store jak i Google PLAY. Do samego dźwignięcia tego ruchu potrzeba gigantycznej infrastruktury i potężnych serwerowni. A ten ruch cały czas dynamicznie rośnie... Do tego dochodzą inni: Google, Anthropic, xAi, Meta, DeepSeek, Alibaba... A w zasadzie to tylko segment LLM, dalej są jeszcze usługi generowania grafiki/video (Midjourney, Stable Diffusion, Veo, Sora), muzyki (Suno). I to tylko kilka najbardziej znanych. To wszystko się rozwija, potrzebuje coraz więcej mocy do: A treningu, B obsługi zapytań, C obsługi użytkowników. Czyli zarówno mocy akceleratorów i pamięci HBM jak i serwerów i ich RAMu. Mówisz, że jest hype na AI. No jest, ale przez to właśnie łatwiej o kasę od inwestorów, a nie trudniej. Może to pier*** i pamięć potanieje, ale bez tego myślę że przez minimum rok nie ma na to szans, a pewnie dłużej. W tej chwili w sklepach płacimy mniej więcej tyle, ile RAM u producentów kosztował 2-3 miesiące temu. Dziś jest droższy. Jeśli ceny sklepowe dogonią aktualne hurtowe (a to w zasadzie tylko kwestia czasu), to wylądujemy na poziomie >2000 za 32GB DDR5. I to zakładając, że od teraz RAM już przestanie drożeć. A z tego co słychać, to żaden z producentów nie ma żadnych sentymentów i wszyscy będą próbowali maksymalnie wykorzystać sytuację. IMO jesteśmy w dupie. Edytowane 8 Lutego przez rdk
ju-rek 592 Opublikowano 8 Lutego Opublikowano 8 Lutego Nigdy nie narzekaj, że jest źle, zawsze może być jeszcze gorzej https://www.telepolis.pl/tech/sprzet/ceny-miedzi-cyny-kryzys-hardware 2
Mpro 42 Opublikowano 8 Lutego Opublikowano 8 Lutego Godzinę temu, ju-rek napisał(a): Nigdy nie narzekaj, że jest źle, zawsze może być jeszcze gorzej https://www.telepolis.pl/tech/sprzet/ceny-miedzi-cyny-kryzys-hardware czyli zasilacze pójdą do góry następne
leven 808 Opublikowano 8 Lutego Opublikowano 8 Lutego (edytowane) Ale miałem farta, że wszystkie bebechy w blaszaku zmieniałem w sierpniu 2025 Za niecałe 4K zł kupiłem mobo + procesor + ram + zasilacz + dysk ( w stopce) no i + 2Kzł za grafikę, czyli 6kzł Edytowane 8 Lutego przez leven
janek25 263 Opublikowano 8 Lutego Opublikowano 8 Lutego (edytowane) Ta twoja grafika jest epiczna na forum a ja w grudniiu chcialem z amzona kupić minipc na 6600H z 32 GB ddr5 za 490zł .Ale po co on mi wiec nie kupiłem Edytowane 8 Lutego przez janek25
rdk 7 Opublikowano 8 Lutego Opublikowano 8 Lutego 43 minuty temu, janek25 napisał(a): Ta twoja grafika jest epiczna na forum a ja w grudniiu chcialem z amzona kupić minipc na 6600H z 32 GB ddr5 za 490zł .Ale po co on mi wiec nie kupiłem Nie masz czego żałować, to była pomyłka amazona. Nikt tych komputerów nie dostał.
Doamdor 2 479 Opublikowano 8 Lutego Opublikowano 8 Lutego Godzinę temu, leven napisał(a): Ale miałem farta, że wszystkie bebechy w blaszaku zmieniałem w sierpniu 2025 Za niecałe 4K zł kupiłem mobo + procesor + ram + zasilacz + dysk ( w stopce) no i + 2Kzł za grafikę, czyli 6kzł Komputer za 6K z RTX 5060 Ti 16GB. 5
leven 808 Opublikowano 8 Lutego Opublikowano 8 Lutego Płyta: 1000zł Proc: 900zł Ram: 850zł Zasilacz: 550zł Dysk: 300zł Razem około 3600zł - trochę pojechałem z tym 4Kzł Do tego grafika, przecież tania: 2000zł teraz kosztuje 2500zł Nie widzę, żebym przepłacił w sierpniu, teraz musiałbym dodać 3 tysiaki za ten zestaw Mi to wystarczy, a może sprzedać samochód i kupić 5090 za 15K zł ? Godzinę temu, janek25 napisał(a): Ta twoja grafika jest epiczna na forum Poczekaj, poczekaj, zobaczymy co będzie za pół roku. 306012GB Vram była wyśmiewana, a co teraz jest ?
Send1N 5 698 Opublikowano 8 Lutego Opublikowano 8 Lutego 14 godzin temu, allas napisał(a): Udało mi się znaleźć wsad pod HYNIX Jak możesz to wrzuć linka gdzie to znalazłeś chciałbym zobaczyć jak taki wsad wygląda i jak go szukać
Zas 383 Opublikowano 8 Lutego Opublikowano 8 Lutego 10 godzin temu, rdk napisał(a): Inwestycja nV miała polegać na przekazaniu akceleratorów za 100mld$, nie żadnych pieniędzy na RAM. Nie śledzę tematu aż tak mocno, mam inne zmartwienia niż kontrakty OpenAI. No jeśli całość (pisano chyba ogólnie o inwestycji w infrastrukturę obliczeniową) miała być zrealizowana jako dostawa układów przez nVidię, to z RAM faktycznie ma to tylko tyle wspólnego, że zieloni również potrzebują pamięci (pewnie HBM) do swoich akceleratorów... A skoro OpenAI nie brakuje akceleratorów, to tym bardziej pokazuje, jaki to jest cyrk. Czy do klasycznych serwerów potrzeba jeszcze więcej pamięci - nie wiem, możliwe, że tak. Jasne, że nadal jest masa konkurentów, pytanie, czy oni będą w stanie szybciej i więcej zarobić. A hajp to z jednej strony łatwe pozyskiwanie kapitału, z drugiej jednak ogromna chciwość. Wszystkie wielkie fundusze i korpo niekoniecznie mają to wszystko precyzyjnie policzone. Tak czy inaczej, szary użytkownik może tylko czekać. Mimo wszystko, każde 100 mld wirtualnych dolarów mniej w tym biznesie to dobra wiadomość.
sideband 2 346 Opublikowano 9 Lutego Opublikowano 9 Lutego (edytowane) @allas @Send1N https://www.dropbox.com/scl/fi/784kawemm1sktqg203uk9/OCTool_ADL0115.zip?rlkey=oy5jvovimwdcje00stvord1ki&e=1&dl=0 https://rog-forum.asus.com/t5/amd-600-series/x670-x870-resource-thread/m-p/1101111/highlight/true#M10099 Tutaj nowsza wersja Odpalasz Tool - Board Function - DDR5 SPD możesz odczytać i zapisać SPD Ogarnia również DDR4 jedynie problem z CKD. Może nie działać na wszystkich płytach na Asusie działa. https://github.com/ubihazard/ddr5-spd-recovery Tutaj soft pod linuxa. Edytowane 9 Lutego przez sideband 1 1
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się