-
Postów
96 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez RemiKo
-
Mój Skylake i7-6700K dostał ostatnio Mugen'a 3 oraz nieco szybsze pamięci, więc porobiłem parę testów całości https://valid.x86.fr/0ua7vh 4.9GHz/4.8GHz do testów oraz 4.7GHz stabilnie przy 1.39v Proc bez delida. Temperatury widoczne na wynikach z BenchMate. W ostatnim czasie nieco poważniej zabrałem się za testy sprzętu i wrzucanie rezultatów na HWBot'a, dlatego też nie ma ode mnie regularniejszych wpisów. Jak już przewalę większość rzeczy, to wrócę do retro i znów coś świeżego tutaj zapodam
-
@tom36816 Te karty nie obsługują EFI, czyli nowsza platforma musi działać w trybie Legacy CSM, aby wykryła tę kartę. Najlepiej zapisz sobie przed zmianą obecny profil ustawień w BIOSie, później wyresetuj płytę główną do domyślnych ustawień (Clear CMOS), zamontuj tę kartę i odpal platformę. Powinno wszystko ruszyć i płyta powinna dobrać odpowiednie parametry rozruchu, tak aby karta została wykryta, a Windows mógł ruszyć. W najgorszym wypadku nie uzyskasz obrazu lub nie wstanie Ci system, ale wtedy będziesz wiedział coś więcej niż teraz To jeszcze nie jest aż tak stara karta, bo dostępne są dla niej sterowniki do Windowsa 10 X64: https://www.nvidia.com/pl-pl/drivers/details/95007/ Na koniec testów przywróć wszystko sprzętowo do poprzedniego stanu, wczytaj profil w BIOSie i tyle. Kabelek jest do przesyłania sygnału audio do wyjścia HDMI, które posiada te karta. Bez podłączenia kabelka obraz będzie, ale audio będzie wyciszone (np. podłączając do telewizora lub monitora z głośnikami).
-
@michaelius33 Mam po dwie sztuki w pełnym BOXie, ale jak coś to polecam innym, bo z tym prockiem (1055T) to świetna platforma była w swoich czasach
-
Aaa, to nie o takie łamanie haseł Ci chodziło Myślałem, że masz wydobytego hasha z zapisanym hasłem i chcesz je odgadnąć (złamać za pomocą sprzętu). Innymi słowy: hasło które chcesz złamać używając hashcat'a musisz mieć zapisane lokalnie w formie zaszyfrowanej. ... Nie mam wiedzy i nie pomagam w łamaniu haseł, które są zapisane na zewnętrznych serwerach
-
Mi najbardziej pomógł hashcat: https://hashcat.net/hashcat/ Do pełnej akceleracji łamania polecam pobranie bibliotek CUDA (o ile masz GeForce'a): https://developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64 ... Nie pomogę Ci jednak przygotować odpowiedniego wsadu (czyli Twój hash do złamania) dla hashcat'a. To już musisz sam ogarnąć. Jakiego typu, jakim sposobem itd.
-
@Keleris Też ostatnio testowałem FX'a 5500 i szału nie było: https://hwbot.org/submissions/permalink?userId=17956&gpuId=761 Tobie trafiła się ciekawsza karta, bo na Samsungach TC40, czyli 4ns. Moja była na TC50 - 5ns. Za to FX 5200 był już na TC40, ale rdzeń słabiutki: Karta miała większość kondensatorów spuchniętych, także i tak nieźle że w ogóle porobiłem te testy
-
@Maxforces Już od czasów Windows'a XP używam Opery i tak jakoś zostało EDIT: @Keleris Te artefakty tego 8800 GTX'a wyglądają właśnie jak taka karta która leżakowała i nie była długo używana lub uszkodziła się od transportu. Po wygrzaniu rdzenia powinno wszystko wrócić do normy, przynajmniej na jakąś chwilę. Cieszy mnie że udało Ci się upolować identyczną parkę GTX'ów 280 Fajnie to wygląda Ta cieplejsza faktycznie mogła pracować w SLI i była zamontowana wyżej, a to ją bardziej wygrzało i stary glut może jej nieco bardziej dokuczać.
-
Dzisiaj wrzucę Wam moje spełnione marzenie z młodości, czyli GeForce4 Ti 4200-8X 128MB 128Bit: Premiera: luty 2002 roku i wtedy człowiek jedynie się ślinił do oferowanej przez nią wydajności. Zobaczcie sami: I to wszystko w pełnych 32 bitach koloru oraz rozdzielczości 1024x768. Bez kombinowania, bez ściemy. Po prostu czysta wydajność W tamtych czasach karta kosztowała okolice jednej miesięcznej pensji przeciętnego Polaka, dlatego też nie zyskała u nas tak dużej popularności. To przez nią praktycznie cała kolejna seria kart GeForce FX była okrzyknięta niewypałem. Mało tego! Wystarczyły dwa ruchy suwaczkiem w sterownikach i mieliśmy już wersję Ti 4400: I kolejne dwa kliki i otrzymywaliśmy wersję "prawie" Ti 4600/Ti 4800: "Prawie", bo pamięci na standardowej Ti 4200 były po prostu fizycznie wolniejsze i nie da się ich wykręcić do prędkości DDR650. Wtedy jeszcze podkręcanie miało sens, gdzie najniższy model, ale dobrze kupiony, był w stanie osiągnąć wydajność tego prawie najdroższego. Tak czy inaczej, karta jest tak szybka jak na swoje czasy, że nadal nie mam pojęcia do której platformy jeszcze trafi Fajny sprzęt Polecam każdemu zainteresowanemu się w nią zaopatrzyć, bo ceny za nią (za ten model Medion'a/MSI) nadal są znośne Aha, do tej karty koniecznie sterowniki NVIDIA Detonator/ForceWare 44.03, bo na nowszych sterownikach wydajność ucieka: 44.03_win2kxp_international.exe ... Nie wrzucam szczegółowych wyników, ale na tej karcie przyrost ze zmiany z 32 bitowego koloru na 16 bitów jest marginalny i porównywalny do podkręcenia rdzenia o parę MHz wyżej. Koniec końców, na tej grafie dało się grać na Ultra w 2002 roku
-
Dziś ode mnie testy mojej całkiem pierwszej karty graficznej z 1999 roku: NVIDIA Riva TNT2 M64 z 32MB pamięci SDRAM, model EV-TNT2-M64 ale producent do teraz mi nieznany. Tym razem nie było czyszczenia, bo karta wyglądała idealnie: Możecie mi wierzyć lub nie, ale na tej karcie za dzieciaka ograłem i ukończyłem m.in. takie tytuły jak: NFS Porsche 2000 Max Payne GTA III GTA Vice City Diablo II A pierwszymi grami na niej były NFS II Special Edition, GTA 2 oraz The Settlers III. Wszystkie "cięższe" tytuły dało radę ograć ze względu na dostępność trybów 16 bitowego koloru oraz rozdzielczości 640x480 Wszystko to odbywało się na platformie z Celeron'em Mendocino 433MHz, Abit'em BE6, Sound Blaster'em PCI 128 (CT4810) i początkowo 64MB ramu PC100. Całości dogrywał głośny dysk IBM DJNA-351520 o pojemności 15,2GB. Karta służyła mi dzielnie do okolic połowy 2003 roku, a później zaczęły wychodzić tytuły, które wymagały już obecności Pixel Shader i dobra passa się skończyła. Ale i tak moje najważniejsze prawie 4 lata grania mam zaliczone wyśmienicie i nigdy ich nie zapomnę ... ... Zanim przejdę do benchmarków to wrzucę to jak fajnie było znów ujrzeć Detonator'y w akcji: Po ustawieniu na Najwyższą wydajność sterowniki zmieniały również za naszymi plecami poziom LOD na +1.3: I na takim ustawieniu zostały wykonane pierwsze testy przy standardowych nastawach taktowania rdzenia oraz pamięci: I tutaj ciekawostka, bo sama zmiana 32 bitowych tekstur oraz koloru na 16 bitów daje wzrost o całe +92% ! Wtedy nie było mowy o płynnej rozgrywce z paletą 32 bitową, zgodnie z tym co wcześniej napisał @larry.bigl ... Na koniec wyniki po podkręceniu karty na 160MHz/185MHz: Nawet podkręcenie karty nie daje tyle co sama zmiana na 16bit. Ale już zejście z rozdzielczością do 640x480, zastosowanie 16 bitowej palety kolorów oraz podkręcenie karty owocuje całkiem przyjemnymi klatkami i płynnością w grach: Przypomnę że test "Lobby" to po prostu zbenchmarkowana gra Max Payne 1 - z domyślnych 11 klatek do nawet i 74 klatek średnio na niskich detalach! Tak właśnie się wtedy grało w gierki Kurcze, aż mam ochotę znów coś na tym pograć
-
@ryba Masz rację, bo niektóre z kart mi po czymś takim "na szybko" nie wstały, ale dla mnie te ponad 80% skuteczności (w moim przypadku) wystarcza aby spróbować właśnie tak na szybko podgrzać i zobaczyć co dalej, skoro wcześniej te moje karty były sprawne i tylko leżały na półce To z zamysłu nie ma być reflow tylko wstępne wygrzanie, które o dziwo dosyć często mi pomaga. Kolejne ponad 10% załatwiam piekarnikiem (jak mam ciśnienie na szybkie testy), a resztę zostawiam jako dawcę i nie ruszam, skoro nie mam nic lepszego pod ręką. ... EDIT: Jak zwykłem robić i tym razem zostawię adekwatny materiał wideo na ten temat:
-
@Keleris Mi również się podobają te moduły Geil'a Są idealne do platform z początków DDR2, gdzie prędkość mało kiedy przekraczała DDR2-900, a całość i tak ograniczała szyna procesora. Nadal można się nimi na spokojnie obłowić w normalniejszych cenach BTW. Wziąłeś być może te po 15 zł za komplet w kartoniku, co od roku wisiały na Allegro Lokalnie, ale jedyną przesyłką była ta listem poleconym? https://allegrolokalnie.pl/oferta/2gb-2x1gb-ram-ddr2-geill-ultra-800-cl-44412 Jak coś, to ja oraz @blabla123 zostawiliśmy je dla innych kolekcjonerów ... EDIT: Jeżeli Ci nie szkoda tej karty, to spróbuj ją wygrzać opalarką. Okolice rdzenia wraz z rdzeniem na 75% mocy opalarki i na pierwszym stopniu siły nadmuchu. Całość wygrzewaj przez 5 minut ruchami kolistymi z odległości około 5-6 cm nad PCB. Wtedy się dowiesz nieco więcej czy to rdzeń czy pamięć. Oczywiście do tego manewru karta musi być goła i oczyszczona z pasty termo. Ja tak musiałem zbierać niektóre wcześniej sprawne karty z mojej kolekcji, bo się "zepsuły od leżenia" i zapomniały co to ciepło
-
Tak testowałem sobie karty i trafił mi się ciekawy egzemplarz GTX'a 260, który stabilnie i bez najmniejszych artefaktów wbija ponad 1400MHz na pamięciach GDDR3 Tak szybkiej (pod tym względem) 260-tki jeszcze nie miałem Stock: Ano, jeszcze tylko 6 punktów i nawet taki GTX 260 by wystarczył na "Koparkę do 3DMarka". Procek, wiadomo, na 4.5/4.2GHz, ale i tak fajny wynik na Stock, biorąc pod uwagę resztę moich 275-tek oraz 285-tek. OC: Karta ta trafi do zestawu, który będzie dla mnie nostalgiczny: AMD Phenom II X4 955 BE C2, pierwsze w życiu DDR3 (przejście z DDR2) i być może jakaś macierz z dysków HDD, tak jak swego czasu miałem. Pierwotnie kupiłem w jej miejsce dwie inne 275-tki, ale to nie to samo przy moim tamtejszym GTX'ie 260 SOC od Gigabyte'a Pierwsza 275-tka wbija 1280MHz na GDDR3, a druga 1335MHz. Druga jest nawet niezła i trafi pewnie do kompa z Phenom'em II X4 965 BE C3 i ASUS'em M4A89GTD PRO/USB3 - kolejnym sprzętem jaki miałem po X4 955BE, ale pierwszym gdzie wszystkie podzespoły kupiłem jako nowe. Boziu jak to wtedy pięknie pachniało nowością Wcześniej, prócz absolutnie pierwszego kompa z '99 (kupionego przez rodziców), wszystkie moje kompy były na używanych częściach i jedynie pojedyncze rzeczy były nowe.
-
@Send1N Gratuluję posiadania w tamtych czasach, bo to naprawdę świetna karta jest Ja również w czasach szkolnych pierwszy raz stałem się posiadaczem karty od Galaxy, ale max na co było mnie stać, to Galaxy GF 7300GT GDDR3 256MB 1.2ns z Zalmanem. Ten model był wtedy nazywany "najtańszą kartą dla graczy", bo faktycznie pozwalała ona na odpalenie wszystkiego w 800x600 a nawet i 1024x768. Przesiadka z GF 6200A na AGP od Palita to faktycznie było niebo a ziemia. Moje pierwsze osiem potoków pixeli - nie zapomnę tego do dzisiaj Archiwalne zdjęcia: Karta kupiona używana pod choinkę na święta Do platformy z Athlon'em 64 3200+ Venice s.754: Później trafiła jeszcze do platformy z Athlon'em 64 X2 5000+ Black Edition: Testy na pająka, a dopiero później całość wylądowała w obudowie Od tamtej pory starałem się sukcesywnie kolekcjonować karty Galaxy, co z resztą było widać na zdjęciach i poprzednich moich wpisach.
-
@Keleris Brudniejsze karty faktycznie myję wodą z uzdatniacza (studnia głębinowa) + odrobina chemii kuchennej i pędzelka Normalnie w wannie w łazience, prysznicem. Później całość biorę na kompresor, osuszam sprężonym powietrzem z dobre 10 minut z każdej strony, a na koniec dodatkowo pozostawiam do wyschnięcia tak na dobę w suchym i ciepłym pokoju. Tak samo myję również płyty główne, ale tam dodatkowo całość na koniec zalewam IPĄ z puszki pod ciśnieniem aby wypchnęła wodę z socketu procka. Później kompresor i 24h dla ostatecznego bezpieczeństwa. Znam też takich co normalnie płyty główne i karty graficzne (oczywiście rozebrane do naga) wkładają do zmywarki na krótki lub średni program bez tabletki. Plus jest taki, że graty są od razu wyparzone i suche na koniec Normalnie w takich przypadkach potrzebna by była wanna ultradźwiękowa, ale do płyt głównych trzeba większą. ... Akurat ta karta trafiła się nieco bardziej czysta i nie było potrzeby kąpieli. Użyłem jedynie pędzla oraz zwykłych chusteczek z IPĄ. ... EDIT: Dzięki Przy okazji zostawię filmik Der8auer'a na temat zmywarki:
-
Ze względu na odbywające się zawody w podkręcaniu platformy Socket 754 na HWBocie, porobiłem sobie kilka dodatkowych testów kart graficznych na AGP, skoro gotowa platforma tak sobie tylko leżała Warp9 Systems' Socket 754 Competition @ HWBOT Na początek wziąłem ASUS'a GeForce N6600/TD 256MB na wolniejszych pamięciach 4ns. Przed testami oczywiście szybki serwis układu chłodzenia, wymiana pasty oraz ogólne czyszczenie karty z kurzu: Chłodzenie Mugen 4 po prostu sobie leży na procesorze. Niczym nie jest ono zabezpieczone, a sam ciężar chłodzenia wystarcza do prawidłowego docisku na goły rdzeń Turiona ML-37. Na początek Stock: (LOD +15) Maksymalny stabilny zegar rdzeni oraz pamięci: 402MHz/280MHz(DDR560) z LOD +15 Ogólnie rzecz biorąc to OC cienizna, ale i tak cieszę się z tej karty, bo będzie fajna jaki cichutki Stock do jednej z platform. Tak, ta karta jest naprawdę cicha podczas pracy, a wentylatorek dostosowuje swoją prędkość do temperatury karty (niby coś w obecnych czasach oczywistego, ale wtedy to była nowość). Karta ma czujnik temperatury, ale należy go odblokować w BIOSie aby był widoczny z poziomu sterownika oraz GPU-Z. ... Kolejna karta to Leadtek WinFast A6600 TD 256MB, również na wolnych pamięciach 4ns. Tym razem karta po przejściach, ale działa: Może nie wygląda zachęcająco, ale karta ta ma jednego asa w rękawie, o którym nieco później Stock: (dla odmiany tym razem z LOD=0) Maksymalne stabilne zegary: 551MHz/301MHz(DDR602) LOD=0 I na koniec z LOD +15: Karta ma wgrany zmodyfikowany BIOS, który umożliwia puszczenie rdzenia do okolic GF6600 GT, a nawet i delikatnie powyżej Pamięci również uzyskują parę MHz więcej niż karta ASUS'a. Hynix'y 4ns są nieco lepsze od Infineon'ów 4ns. Karta trafi do tego "mocniejszego" kompa pod Win98, chyba że w końcu trafi mi się GF6600 GT na GDDR3 ... Przy okazji testuję sobie resztę wcześniej zakupionych przeze mnie kart na PCIe x16, które tylko leżały i czekały na swoje testy: Daje to całkiem wymierny efekt w postaci punktów na HWBocie: Parę kolejnych "setek" w 3DMark2001 SE też wpadło Zbiorowy 3DMark03: Zdjęcia wszystkich indywidualnych kart wraz ze screenami wyników dostępne są na moim profilu na HWBocie: https://hwbot.org/users/remiko
-
A cyklu "Dziś ode mnie..." tym razem nie będzie retro, ale myślę że zapodam coś równie ciekawego Swego czasu zastanawiałem się jakiego minimalnie sprzętu potrzeba, aby na Stock'u lub jego okolicach móc wbić 100K w 3DMark'u 2001 SE. Założeniem było znalezienie takiej kombinacji sprzętu, aby po jego złożeniu oraz zainstalowaniu oprogramowania, wynik w tym 3DMarku osiągnął liczbę sześciocyfrową. Dodatkowo aby całość nie wymagała mocnego podkręcenia, dogłębnej optymalizacji ani tweaków. Złożyć -> odpalić -> ≥100K. Początkowo zakładałem, że taka operacja powinna się udać na platformie ze Skylake'm, czyli Z170 oraz i7-6700K, ale później stwierdziłem, że musi być coś starszego, coś co ma powyżej 10 lat na karku i też jest wystarczająco szybkie. Skylake'a i tak mam zamiar w przyszłości przetestować pod tym względem, aby się osobiście przekonać co i jak. ... Oto moje pierwsze rezultaty i pierwsza platforma testowa: Ten "wypaśniejszy" Haswell na X99: Certyfikowany chińczyk Pierwsze 8 rdzeni Intela dostępne na platformach desktopowych. 20MB Cache L3 - nawet jak wyłączymy część rdzeni i zostawimy aktywne dwa. Żeby tak ładniej w całości to wyglądało "Ale jak to nie ma BOXa na LGA 2011-v3?" To ja im pokażę BOXa do 140W TDP, a co To jeszcze nie jest jego najwyższa forma, bo w tym modelu zabrakło miedzi i/lub DirectCU. Taki serwerowy zwyklak od Supermicro do obudowy Rack 2U. Jest niebywale cichy... w zatyczkach do uszu Serio! Przez większość czasu wolałem pracę w zatyczkach niż bez, bo to momentami była już dźwiękowa przesada jak dla mnie, chociaż pamiętam że swego czasu lubiłem huk pracujących serwerów. ... Do 100K wystarczyły dwa rdzenie tego monsterka na 3.7GHz, czyli praktycznie Stock, bo i7-5960X/E5-1660v3 ma boosta na 3.5GHz: Celeronami otoczony jak jakiś kompletny złomek Szału nie ma, ale Cache L3 oraz ram pewnie robi swoje w powyższym teście No i creme de la creme: Ale to ładnie liniowo szło, bo 3.8GHz wbiło 102254 punkty, a 3.5GHz pozwalało na 95394 pkt Wszystko na domyślnych nastawach referencyjnego GTX'a 780 Ti: Później jeszcze wrzuciłem procka na 4.5GHz oraz zapodałem moje stare 24/7 OC tej karty: "To jest aż za proste" - tak sobie pomyślałem jak ujrzałem ten wynik Przypominając sobie przy okazji całą tę serię filmów pt. "Koparka Do 3DMarka" od Retro Piwnicy z YT: ... Na koniec wrzucę parę normalniejszych wyników dla podglądu wydajności tej platformy: Stock, ramy stock: Intel Xeon E5 1660 v3 @ 3505.45 MHz - CPU-Z VALIDATOR (x86.fr) ... Na szybko DDR4-2667 CL11 + proc Stock: 4.2GHz 8c16t 1.225V + DDR4-2667 CL12 + Cache 3.9GHz: Do 4.3GHz allcore potrzebne jest już jednak lepsze chłodzenie niż BOX Żeby było śmieszniej, to jest to moja pierwsza styczność z desktopową LGA 2011-v3 i to dodatkowo na zupełnym spontanie: po prostu nie mogłem przejść obojętnie obok takiej płyty głównej, w prawie kompletnym boxie z dodatkami, z procem E5-2620v3 zamontowanym jako zaślepka oraz z blokiem wodnym full cover od EK. Całość: 250 zł. Sprzedawana jako uszkodzona. Działa. I na chwilę obecną nie mam co do niej zastrzeżeń. Wiem, że to nie jest retro, ale jako kolekcjonerka jest bardzo spoko Wyniki allcore bardzo mocno przypominają mi mojego Ryzen'a 7 1700 @ 4.1GHz na X470 Crosshair VII Hero, ale widać że Intel ma silniejszy pojedynczy wątek i/lub cache + quad channel robi taką robotę. ... Tę serię poszukiwań sprzętu do 100K w 3DMark'u 2001 SE będę raz za jakiś czas kontynuował, być może nawet wrzucając to co się nie spisało, jak wcześniej zakładałem.
-
@Pan Ciastovy @Send1N @Stjepan Hehe, a ja Wam powiem jeszcze inaczej: na moich lapkach z C2D najprzyjemniej śmiga Win 8.1 (Update 1) w wersji x64, oczywiście na SDD. Działa absolutnie wszystko, oczywiście w granicach możliwości sprzętowych Dodam jeszcze, że na tak starych sprzętach nie pobieram już dodatkowych aktualizacji systemu i jadę wyłącznie na tym co daje ISO/pendrive prosto z Microsoftu. Win 7 jest za stary i właśnie wywala się na aktualizacjach, a Win 10 jest za nowy (no chyba że jakaś starsza kompilacja), dlatego na tego typu sprzętach zawsze leciałem na Win 8.1 Update 1
-
Dziś ode mnie cztery razy naj: Glenwood i975X - najwyższy chipset dla serii procesorów Pentium 4/Pentium D i jednocześnie najstarszy z obsługą serii Core 2 Quad/Core 2 Duo Pentium 4 HT 524 3.06GHz - najwyższy dostępny mnożnik w serii Prescott na LGA 775 z jednocześnie najniższą szyną FSB Wszystko zaczęło się od polowania na Glenwood'a i975X, które trwało ostatnie pół roku i zakończyło się sukcesem w postaci: ASUS P5W DH Deluxe z maskownicą Bateryjkę zakładam dopiero w momencie, w którym płyta zadziała poprawnie oraz otrzyma optymalne ustawienia. W niektórych przypadkach zdarzało mi się to nawet podczas pracy platformy, w momencie w którym leciały sobie testy Tutaj nieco się tak nie da, bo karta blokuje dostęp Pierwszy z brzegu Pentium 4 HT 524 3.06GHz SL8ZZ, akurat trafiła się moja ulubiona Kostaryka z batch'em "A": Z tej racji, procek tym razem otrzymał od razu boxa z miedzianym rdzeniem: Akurat tej sztuki chłodzenia nie udało mi się lepiej doczyścić. Ramy, jak zwykle: GEIL'e "low latency" pod tamte platformy: Te srebrne jeszcze czekają na testy, bo mam podejrzenia, że w niektórych z nich znajdują się dokładnie te same kostki co w pomarańczowych modułach. Pasta też już klasycznie: Gelid GC-4. Kurcze, fajnie to znów wygląda ... Na początek wyniki Stock, z tą różnicą, że najwyższy możliwy dzielnik pamięci przy tej magistrali wynosił DDR2-533, dlatego adekwatnie obniżyłem timingi pamięci: PAT był aktywny. (ASUS Hyper Path) włączony. Procek leciał na undervolcie z domyślnych 1.35V. Niżej nie dało się ustawić, bo skończył się zakres na płycie. ... Później przyszedł czas na pierwsze testy podkręcania: Ten moduł Kingston'a towarzyszy mi już od jakiegoś czasu i niekiedy jest właśnie potrzebny do pierwszego rozruchu platformy, w celu ręcznej zmiany napięcia modułów pamięci. Później już wszystko spokojnie rusza na docelowych modułach Wyniki końcowe: Całkiem niezłe opóźnienia ma ta płyta. Dobrze to wygląda Dobrze to również wygląda w Cinebench'u 2003, biorąc pod uwagę BOX'a i tylko 4.26GHz: https://hwbot.org/benchmarks/cinebench_-_2003/rankings?cores=1&processorId=1050&hardwareType=cpu Po raz kolejny u mnie niższe napięcia oraz zwyklejsze chłodzenie Hehe, najbardziej spodobał mi się gościu z wodą z kranu i 1.625V na procku Poprzedni też nie lepszy, bo powyżej 1.7V na powietrzu władował Na koniec dwa szybkie testy 9800 GTX na Stock: Wings of Fury: 403.4 fps: Wyniki można sobie porównać z innymi procesorami Pentium 4 Prescott, które przetestowałem po podkręceniu: Hydepark, Retro, Luźne rozmowy - strona 58 - Procesory - Forum PCLab.pl.pdf Hydepark, Retro, Luźne rozmowy - strona 59 - Procesory - Forum PCLab.pl.pdf Niska szyna dosyć znacznie ograniczyła wydajność tego procka i do Pentium'a 4 630 @ 4.2GHz nie ma startu w testach 3D, nawet pomimo zastosowania mocniejszej karty graficznej: Oraz procesorowy Wings of Fury: 430.5 fps: A Pentium D 830 to już kompletnie pozamiatał osiągając podobną wydajność przy dużo niższych zegarach (dokładnie 344MHz mniej): Wings of Fury: 454.2 fps: To tyle ode mnie na dziś Fajnie było znów powrócić do tworzenia takich wpisów, tym razem na nowym forum Raz jeszcze zostawiam archiwum ze zdjęciami oraz wynikami, aby było bardziej widoczne i nie umknęło w gąszczu moich screenów: Hydepark, Retro, Luźne rozmowy - strona 58 - Procesory - Forum PCLab.pl.pdf Hydepark, Retro, Luźne rozmowy - strona 59 - Procesory - Forum PCLab.pl.pdf Oba zrzuty zostały stworzone na długo przed ogłoszeniem zamknięcia forum, dlatego czuć w nich jeszcze tę "normalność" starego forum
-
@blabla123 Nie mam obecnie nic nowszego niż jego pierwsze testy w tym temacie: Skomentowałbym, że kopiując coś ręcznie "leci maxem" i faktycznie prędkość zapisu jest zgodna z tym co deklaruje producent
-
@skunRace Aż z ciekawości sięgnąłem ręką po moją 8800GTX i zrobiłem jej sesję zdjęciową śledzia Z moich obserwacji wynika, że śledzie tych kart negatywnie reagują na kontakt ze skórą i tych śladów nie da się w późniejszym czasie doczyścić. U mnie są widoczne jedynie ślady po paluchach podłączających DVI - wręcz są wżarte w śledź oraz po prawej stronie, najprawdopodobniej moje. Te ślady po lewej stronie śledzia są dla mnie mniej wytłumaczalne, ale też pewnie pochodzą od jakiegoś przecierania lub paluchów. Te podlinkowane przez Ciebie zdjęcie śledzia faktycznie jest wręcz niepokojące
-
@stachu1000 Hmm, w sumie prosta sprawa Wejdź na stronę: https://www.seagate.com/pl/pl/support/warranty-and-replacements/ i podaj swój numer seryjny: Jak widać, mój OS 22TB ze zdjęć (QV1ZWNKK) jest normalnie widoczny u nich jako Exos X22 22TB ST22000NM001E, czyli jest to dysk produkcji Seagate'a Nie mam podstaw aby nie ufać sprzedawcom takich dysków skoro rozumiem skąd się one biorą na rynku, a sam Seagate przyznaje się do ich faktycznego istnienia (posiadając owe numery seryjne w swojej bazie danych). Uważam również, że wszystko co jest wyszczególnione w opisach aukcji jest prawdą, czyli właśnie jest wyraźnie zaprzeczony proceder zerowania tablicy SMART jako jedynej formy odświeżenia dysku.
-
@stachu1000 Z tego co udało mi się na szybko i z ciekawości doczytać, to dyski oznaczone jako "OS" są po prostu odpadami niespełniającymi docelowej specyfikacji. Coś mniej więcej podobnego do tego co robią producenci procesorów, wyłączając niedziałające rdzenie oraz wypuszczając taki procesor jako model niżej. Najprawdopodobniej te OS 22TB były pierwotnie wersjami 24TB (ponieważ nadal są to dyski CMR) i mogą mieć po prostu dezaktywowane głowice jednego talerza. Całość jest później przeprogramowywana w firmware tak, aby działała z mniejszą ilością aktywnych talerzy i właśnie sprzedawana jako Off Spec, czyli właśnie te "OS Recertified". W tym miejscu się tego doczytałem: https://www.bargainhardware.co.uk/blog/blog/factory-recertified-hard-drives W innym przypadku dyski te powinny wyglądać właśnie mniej więcej tak: Dyski OS nadal są dyskami produkcji Seagate'a, jednakże z powodu zmiany firmware'u część funkcji, w tym FARM, jest niedostępna. Ja nadal się cieszę z tego "odpadu" jakby co
-
@Pawcio Mając na uwadze właśnie ten fakt z dyskami wolałem dopłacić do tej nowszej wersji Exos'a X22, który miał premierę po tej całej gorączce na dyski talerzowe w 2021 roku. Na szybko szukając, to obojętnie jakie wersje pojemnościowe CMR 22TB (IronWolf, Exos) ujrzały światło dzienne dopiero w pierwszym kwartale 2023 roku. W najgorszym przypadku mam więc dwuletni dysk, który został recertyfikowany: Niestety smartmontools oraz parę innych nie pokazuje mi nic więcej poza normalnym Smartem: Aż zaczęło mnie to zastanawiać jak ta funkcja została zablokowana/usunięta/dezaktywowana. Ale też z drugiej strony, to faktycznie dysk ten w każdym programie jest widoczny jedynie jako OOS, a nie Seagate. Mi to zbytnio nie przeszkadza i od wtorku powolutku sobie ten dysk zapełniam danymi. Poza tym, to planuję kupić już kolejny taki, bo spodobał mi się ten model
-
Ja również skusiłem się na testy: Przyszedł dzisiaj. Wizualnie nieco pognieciony oraz porysowany: Ale kultura pracy jak u nowej sztuki Tak prezentuje się w systemie: Bardzo ucieszyła mnie ta "równa" pojemność, tym bardziej, że pierwotnie właśnie chciałem kupić Exos'a 20TB. Tak, myślę że mam małe OCD pod tym względem, że u mnie partycje muszą być równe Na koniec parę testów oraz diagnostyki: Na chwilę obecną jest jeszcze zbyt wcześnie, abym mógł ten dysk jakkolwiek ocenić. Działa póki co i to chyba tyle.
-
Hmm, myślę, że najprościej będzie jak podrzucę tutaj tabelki od @Spl97, gdzie są zawarte wszystkie moje procki Intela, prócz tych retro: https://docs.google.com/document/d/1K7vLFw0JRquxNUfsRW_vsuLZZGgHLNuNWDZlveTJhjw/ https://docs.google.com/document/d/1NeygeFrcHXnY738O5lFxaNRo11mjlz57scAxGgg_esI/ Obecnie nadal rozważam zmianę mojego daily i7-4770K na i5-12600K/i7-12700K i chyba sprawy mają się już bliżej niż dalej
