Skocz do zawartości

ivanov

Bloger
  • Zawartość

    146
  • Dołączył

  • Ostatnio

  • Days Won

    18

Wszystko napisane przez ivanov

  1. Ech, Panowie... Galeria trzecia oraz czwarta.
  2. Pierwsza oraz druga galeria z Magnificonu
  3. Jako że niedawno w końcu wystartowałem z fanpage, na którym wrzucam moje amatorskie fotki z konwentów / eventów (i nie tylko) zachęcam do oglądania Na fanpage są też zdjęcia z wcześniejszych imprez, w których brałem udział. 1 część zdjęć z Wrocławskich Dni Fantastyki 2016 PS W przyszłości będą pojawiać się też zdjęcia z sesji extreme OC, ale na razie mam przerwę od azotu
  4. Zdajesz sobie sprawę, że używasz niewłaściwego portu PCI Express dla karty graficznej?
  5. Procesory Core 2 Quad jak na swój wiek kosztują niewspółmiernie duże pieniądze. Są jednak relatywnie wydajne, a do tego do tej pory sporo ludzi posiada płyty LGA 775 z procesorami dwurdzeniowymi na pokładzie. Zmiana na czterordzeniowca to całkiem dobry pomysł na zwiększenie wydajności. Tylko ta cena... Jednak jest na to sposób. Xeon będący identyczną jednostką co Core 2 Quad, tylko na LGA 771. Obecnie sprzedawcy zorientowali się, że wzrósł popyt na czterordzeniowe Xeony 771 i ich ceny nie są tak niskie jak kiedyś. Jednak w dalszym ciągu są one zdecydowanie bardziej atrakcyjne, niż odpowiedników z rodziny Core i ich kupno może okazać się w miarę opłacalne. Procesory 771 są fizycznie niekompatybilne z płytami 775 oraz najczęściej BIOSy płyt 775 nie posiadają mikrokodów do poprawnej obsługi Xeonów 771. Jednak obie rzeczy da się całkiem prosto obejść, o ile tylko posiadamy płytę główną z właściwym chipsetem. Niekompatybilność fizyczna polega na tym, że procesory 771 mają zamienione miejscami dwa piny względem jednostek 775 oraz ich wycięcia w PCB znajdują się w zupełnie innym miejscu. /Ogólnie pinout procków 771 różni się nieco od 775, co widać gołym okiem. Ale poza dwoma pinami, które należy zamienić miejscami nie ma to wpływu na działanie procesorów oraz płyt głównych./ QX9775 to procesor LGA 771, a QX9770 to procesor LGA 775, (w dużym uproszczeniu) są to praktycznie identyczne jednostki, tyle że na różne sockety. Problem zamienionych pinów rozwiązuje specjalny adapter w formie naklejki. Gdy pierwszy raz spojrzałem na ten wynalazek byłem bardzo sceptycznie do niego nastawiony. Jednak po jego użyciu muszę przyznać, że nie ulega wątpliwości, iż działa, co w sumie jest najważniejsze. Naklejki można bez problemu kupić na eBay, albo na Allegro. Czasami nawet zdarza się, że używany Xeon 771 jest sprzedawany z naklejoną naklejką. Kwestię wycięć w PCB poprawiamy za pomocą ostrego narzędzia (osobiście preferuję skalpel chirurgiczny). W sockecie płyty głównej usuwamy wypustki wchodzące do wycięć i po sprawie. Uczulam, że trzeba robić to niesamowicie ostrożnie, gdyż podczas tej operacji wyjątkowo łatwo można uszkodzić piny w sockecie. Nie widać tego dobrze, ale zdjęcie przedstawia płytę ASUS P5K64 WS z już wyciętymi wypustkami. Moje obserwacja jest taka, że wypustki muszą być bardzo dobrze obcięte i procesor musi swobodnie wchodzić do socketu oraz musi móc się leciutko ruszać na boki (przed zamknięciem socketu). Jeśli wypustki nie są do końca dobrze obcięte i procesor musimy docisnąć, aby wszedł do socketu, wówczas najprawdopodobniej platforma nie odpali. Jest bardzo istotne, aby przy wkładaniu procesora patrzeć gdzie znajduje się trójkącik na CPU oraz na sockecie (czerwone kółeczko na zdjęciu). Sprawę mikrokodów załatwiamy poprzez ich dogranie do BIOSU LINK. Info n/t wykonania moda. Chipsety dobre pod wszystkie Xeony: Intel P35 Intel P45 nV 780i nV 790i Wg. mnie na P35 najfajniejsze są ASUS P5K64 WS oraz ASUS Blitz Extreme. Na P45 istnieje sporo dobrych konstrukcji i należą do nich m.in: ASUS P5Q Turbo ASUS P5Q3 Deluxe ASUS Maximus II Formula Gigabyte EP45T-Extreme Gigabyte EP45-UD3R Konstrukcji na chipsetach nV nie polecam, a nawet wręcz odradzam. Nie posiadają one żadnej przewagi nad płytami z chipsetami Intel, a się mocniej grzeją, gorzej podkręcają i sprawiają więcej problemów. Dodatkowo jak pokazuje upływ czasu, płyty na chipsetach nV dużo częściej padają same z siebie (szczególnie te topowe). Inna sprawa to opłacalność zakupu całej platformy. Jeśli mamy odpowiednią płytę, upgrade samego procesora może być dobrym wyjściem, ale kupno od zera platformy 775 raczej nie ma sensu, gdyż płyty (w szczególności te lepsze) potrafią być bardzo drogie. Jeśli zależy nam na oszczędzeniu na stacji roboczej proponuję LGA 1366. W przypadku komputerów do "zwykłych" zastosowań LGA 1156 będzie IMHO najlepszym wyborem. Jeżeli chcemy pobawić się dwurdzeniowymi Xeonami, wówczas bezapelacyjnie najlepszym zakupem będzie ASUS P5K Vanilla. Płyta tania i bardzo dobra (nie nadaje się do Quadów!). Rzecz jasna największy sens mają odpowiedniki Yorkfieldów, czyli Harpertown (45 nm, 12 MB L2). Ogólnie fajnymi kąskami są modele o obniżonym TDP, aczkolwiek zazwyczaj potrafią być one dosyć drogie (np. SLBBQ, czy SLBBH). Metody alternatywne Spotkałem się z alternatywną metodą instalacji procka 771 w płycie 775, aczkolwiek zdecydowanie ją odradzam - polega ona na zrobieniu wycięć w PCB CPU. Można w ten sposób nieodwracalnie uszkodzić procesor. Wycięcie wystających elementów w sockecie płyty głównej jest zdecydowanie bezpieczniejsze. Zdarza się czasem natknąć na tak zmodyfikowane Xeony na eBay/Allegro. Jednak nie ryzykowałbym ich kupna, bo mogą być uszkodzone. Mod by Maniakalny/Duniek (akurat jemu się poszczęściło i wszystko działa) Natknąłem się również na permanentną modyfikację płyty głównej (procesory 775 przestaną działać!). UWAGA! Sposób nie sprawdzony przeze mnie! Wszystko robimy tak samo jak opisałem to wyżej, tyle że nie naklejamy naklejki na CPU. Zamiast tego zamieniamy miejscami ścieżki na laminacie mobo. Istotne jest znalezienie właściwych ścieżek - w każdej płycie mogą one być w trochę innym miejscu. Przy cięciu ścieżek należy zachować ostrożność, by nie wciąć się zbyt głęboko (laminat ma kilka warstw) i nie przeciąć przy okazji innych ścieżek. Tak jak pisałem metoda nie sprawdzona, ale powinna działać.
  6. Zgadza się, R9 290(X), 285, 380(X), 390(X) i Fury(X/Nano) nie potrzebują taśm. Czemu na nV jest tak a nie inaczej - nie mam pojęcia. Tak sobie wymyślili
  7. W przypadku 4-Way SLI jest dokładanie tak jak napisałeś. Jeśli chodzi o 4-Way CrossFire, to łączy się karty po kolei, czyli 1 z 2, 2 z 3 i 3 z 4.
  8. Można by zrobić 4-Way z 4 kart z różnym PCB (np. ASUS Matrix, Galax HoF LN2, EVGA Classified K|ngp|n i MSI Lightning) i też by działało bez problemu. Tutaj akurat trafiły mi się GTX 980 WaterForce + Matrix i było ok
  9. Takie setupy to jest promil zestawów. W dodatku najczęściej posiadacze takich konfiguracji i tak są obeznani z tematem i wiedzą co robią. Chodzi mi głównie o to, by pohamować zapędy co poniektórych "odkrywców", którzy myślą, że połączenie kilku kart niskiego, albo średniego segmentu (w dodatku w kompie ze słabym procesorem) to absolutnie świetny plan na super wydajność i zmniejszenie kosztów komputera
  10. Zgadza się, ale to sprowadza się do tego, że i tak trzeba połączyć ze sobą karty klasy GTX 980 Ti. Ogólnie w całym tym temacie chodzi o to, by ludziom wytłumaczyć, że SLI z np. GTX 960 kompletnie nie ma sensu. BTW Z tego co widziałem, najnowszy Tomb Raider bardzo ładnie skaluje się na trzech kartach. Ale to są wyjątki
  11. Technologia PhysX miała w założeniu zdecydowanie ulepszać wrażenia płynące z gier. Jednak jak się okazało w praktyce, z dużej chmury mały deszcz. Do tego technologia ta wprowadziła sporo wątpliwości wśród userów. W tym mini-poradniku postaram się pokrótce wyjaśnić o co w tym wszystkim chodzi. Ageia Wszystko zaczęło się od firmy Ageia i ich akceleratora fizyki (dodatkowa karta rozszerzeń na interfejs PCI). Była też wersja dla notebooków. Wersja PCI Express też istniała, ale jest to niemalże biały kruk. Żadne z tych rozwiązań nie było przesadnie popularne. Po pierwsze ze względu na wysoką cenę (około 1 000 zł), a po drugie z uwagi na fakt, że gier obsługujących PhysX było jak na lekarstwo - LISTA (gry obsługiwane przez AGEIA). Do tego efekty zapewniane przez tą technologię nie zachwycały i nie dość tego powodowały spadek płynności działania gier (karta Ageia wprawdzie wykonywała gros obliczeń, jednak i tak CPU był dodatkowo obciążony). Bylibyście zadowoleni z takich efektów wydania 1 000 zł? nVidia Po całkiem niedługim czasie nVidia wykupiła całą firmę Ageia. Wydawało się, że technologia zostanie szeroko rozpowszechniona i wprowadzi prawdziwie nową jakość w grach. Opublikowano sporo dem technologicznych. Obsługa PhysX przez karty "zielonych" została wprowadzona wraz z nastaniem kart opartych o zunifikowane Shadery (czyli seria GeForce 8xxx). Istniały wówczas następujące możliwości korzystania z PhysX: karta nVidia (z serii 8xxx, lub nowszej), która liczy zarówno grafikę jak i PhysX karta nVidia, która liczy tylko grafikę + dodatkowa karta nVidia (z serii 8xxx, lub nowszej), która liczy tylko PhysX (tzw. karta dedykowana) karta nVidia + karta Ageia karta ATI/AMD + dodatkowa karta nVidia (z serii 8xxx, lub nowszej), która liczy tylko PhysX (tzw. karta dedykowana) karta ATI/AMD + karta Ageia Niestety nVidia szybko zaczęła działać na swoją modłę (ze szkodą dla użytkowników). Na początek w sterownikach nVidia zaszyto funkcję, która powodowała zablokowanie PhysX w przypadku wykrycia kart ATI/AMD. Tak więc kombinacje: karta ATI/AMD + dodatkowa karta nVidia (z serii 8xxx, lub nowszej), która liczy tylko PhysX (tzw. karta dedykowana) karta ATI/AMD + karta Ageia oficjalnie przestały mieć rację bytu. Następnie z niewiadomych przyczyn wstrzymano wsparcie dla kart Ageia, tak więc połączenie karta nVidia + karta Ageia również stało się bezużyteczne. Na szczęście znalazły się osoby, które nie godziły się na taki stan rzeczy. Dzięki Hybrid PhysX Mod jest możliwe używanie kart ATI w połączeniu z dedykowaną kartą nV. Niestety autor moda od pewnego czasu nie kontynuuje swego dzieła, przez co nowsze produkcje (i nowsze karty) nie zmusimy do "nielegalnej" współpracy. Hybrid Mod w akcji. podsumowanie Ogólnie uważam, że PhysX jedynie zawiódł pokładane w nim nadzieje. Po pierwsze biblioteka gier z niego korzystających jest bardzo mała. Przez 8 lat istnienia technologii ukazało się raptem 20 tytułów ją wykorzystujących... Po drugie efekty oferowane przez PhysX - delikatnie mówiąc - rozczarowują. Pamiętajmy, że omawiany do tej pory PhysX to PhysX sprzętowy. Do jego obliczenia jest konieczna karta nVidia. Istnieje też PhysX programowy (z którego korzysta sporo gier, choćby pierwsza część Borderlands). Obliczenia z nim związane wykonuje wyłącznie procesor i nie da się ich "przekierować" na GPU. Jednak PhysX'em w wersji software'owej się tu nie zajmujemy. Obecnie możemy cieszyć się PhysX wykorzystując kilka konfiguracji: karta nVidia (z serii 8xxx, lub nowszej), która liczy zarówno grafikę jak i PhysX karta nVidia, która liczy tylko grafikę + dodatkowa karta nVidia (z serii 8xxx, lub nowszej), która liczy tylko PhysX (tzw. karta dedykowana) kilka kart nVidia (z serii 8xxx, lub nowszej) w konfiguracji SLI (2-way / 3-way / 4-way / quad-SLI), które liczą zarówno grafikę jak i PhysX kilka kart nVidia w konfiguracji SLI (2-way / 3-way / quad-SLI), które liczą tylko grafikę + dodatkowa karta nVidia (z serii 8xxx, lub nowszej), która liczy tylko PhysX (tzw. karta dedykowana) Brak 4-way SLI w ostatnim podpunkcie nie jest błędem / przeoczeniem. nVidia nie przewiduje użycia jednocześnie pięciu kart. Info na temat multi-GPU. PhysX włączamy na dedykowanej karcie w nVidia Control Panel: Ciekawostką jest karta EVGA GTX 275 CO-OP. Na jednym laminacie umieszczono chip GTX 275 do przetwarzania grafiki oraz chip GTS 250 do obliczania PhysX. Do tego karta umożliwiała utworzenie 2-way SLI, lub 3-way SLI ze zwykłymi kartami GTX 275. kilka porad dla (przyszłych) użytkowników dedykowanej karty PhysX Sensowne minimum to coś na poziomie GTX 9800(+) / GTS 450. Liczy się tylko taktowanie Shaderów. OC tych jednostek da boosta wydajnościowego. Podkręcanie RAMu karty nie da praktycznie nic. Przepustowość interfejsu nie ma większego znacznia. Nawet PCIe x1 starczy. PhysX to obliczenia matematyczne, a nie dane o ogromnej objętości (jak np. tekstury). Wg. zasad HWBot oraz Futuremark w 3DMark Vantage niedozwolone jest włączanie sprzętowego PhysX. Uaktywnienie sprzętowego PhysX powoduje pewien spadek wydajności. Wybierając kartę patrzymy na ilość i taktowanie Shaderów. ROP, TMU, ilość RAM, taktowanie RAM oraz szerokość szyny RAM nie mają znaczenia dla wydajności. Wystarczy, by karta miała 256 MB RAM, lub więcej. słowo końcowe W mojej opinii korzystanie z argumentu, że nVidia posiada przewagę nad AMD ze względu na PhysX jest sporym nadużyciem. Technologia ta jest cały czas wykorzystywana słabo i na bardzo małą skalę. Dedykowana karta do PhysX ma sens jedynie wówczas, gdy nie mamy czego robić z pieniędzmi i/lub jesteśmy maniakalnymi entuzjastami. W pozostałych przypadkach lepiej sobie darować jej kupno. --- Osobiście posiadam kartę BFG Ageia PhysX, którą z ciekawości kupiłem na Allegro za śmieszne pieniądze. Próbowałem też działania Hybrid Moda z wykorzystaniem HD 6970 oraz specjalnie kupionej GTX 560 Ti. Ogólnie w dzisiejszych czasach korzystanie z tych konfiguracji wymaga zazwyczaj bardzo dużych kombinacji i nikomu tego nie polecam. Szczególnie karty Ageia. Obecnie jest ona praktycznie totalnie bezużyteczna i powinna być traktowana jako okaz kolekcjonerski, a nie przedmiot o wartości użytkowej.
  12. Technologia łączenia wielu kart graficznych dla zwiększenia wydajności renderowania grafiki nie jest nowa. Zapoczątkowała ją firma 3DFX wraz z kartami VooDoo, a spopularyzowała nVidia wraz z serią GeFore 6xxx (rozwijając technologie przejęte po wykupieniu 3DFX). ATI nie zostało w tyle i X8xx też można było ze sobą łączyć. Z tego co widzę, po tylu latach obecności technologii na rynku jest parę rzeczy, o których niektórzy zapominają, lub nie są ich świadomi (a powinni). Mój mini-poradnik ma na celu poinformowanie usera w co się pakuje decydując się na multi-GPU. zacznijmy od nazewnictwa i możliwości nVidia SLI Dual-SLI, 2-Way SLI, lub potocznie SLI to połączenie dwóch takich samych kart. Każda karta nVidii z pojedynczym złączem SLI umożliwia korzystanie z tej technologii. Płyta główna musi posiadać certyfikat SLI. Tri-SLI, lub 3-Way SLI to połączenie trzech takich samych kart. Każda karta nV z dwoma "grzebieniami" SLI obsługuje tą technologię. Płyta główna oprócz posiadania certyfikatu SLI musi wspierać 3-Way (nie wszystkie płyty z trzema slotami PCIe wspierają 3-Way!). 4-Way SLI - połączenie czterech takich samych kart. Tylko najwyższe modele (np. GTX 480, GTX 580, GTX 680, GTX 780 Ti) wspierają tą technologię. Np. na GTX 670, czy GTX 570, 4-Way nie jest możliwy. Płyta główna musi być koniecznie certyfikowana do 4-Way. Quad-SLI to połączenie w 2-Way SLI dwóch podwójnych kart (np. dwie sztuki GTX 690). Do działania wystarczy, że płyta główna wspiera "zwykłe" SLI. Jak widać 4-Way SLI i Quad SLI to dwie zupełnie różne rzeczy i nie należy ich ze sobą mylić! Do SLI zawsze są potrzebne odpowiednie mostki SLI! Czasami zdarza się, że SLI starych kart na nowych płytach nie działa (miałem tak z 7900 GTX na Maximus V Extreme), pomimo że w teorii powinno działać. Brak certyfikatu SLI lub niedziałanie starych kart można obejść przy pomocy Hyper SLI. Umożliwi on włączenie SLI, lub 3-Way SLI na płytach, które oficjalnie tego nie wspierają. Niestety przy pomocy patcha, ani niczego innego nie da rady obejść wymagań dla 4-Way SLI. Jedynie w przypadku kart czasami da się coś ugrać, gdyż np. da się oszukać sterowniki, by "myślały", że cztery GTX 780 (bez Ti) to 4 karty Titan. Pamiętajmy, że posiadając konfigurację SLI możemy włączyć technologię PhysX. Wówczas obciąży ona jedną z kart, jednak kosztem ogólnej wydajności konfiguracji. Można też użyć karty dedykowanej PhysX, jednak jest to mało opłacalne. Do tego karta dedykowana nie jest możliwa w przypadku 4-Way SLI. Szerzej omówiona kwestia PhysX. Im starszy benchmark / gra, tym SLI się gorzej skaluje. Już np. w 3DMark Vantage (czyli nie takim bardzo starym benchamrku) trzy dają mały zwrost wzrostu wydajności względem dwóch kart. ATI/AMD CrossFire Stare karty z serii X8xx oraz X1xxx wymagają specjalnego, charakterystycznego kabla do połączenia. W dodatku potrzebna jest jedna karta zwykła oraz specjalna karta "matka" (CrossFire Edition). Nie jest możliwe łączenie więcej niż dwóch kart. Zwróćmy uwagę, że kable połączeniowe dla kart X8xx i X1xxx są różne i nie są ze sobą kompatybilne! Karty od HD 2xxx do Rx 2xx (oraz niektóre X1xxx, poza R9 290(X)) wymagają kabli CrossFire. Teoretycznie przy użyciu wszystkich modeli można tworzyć dowolne konfiguracje (2-Way, 3-Way oraz 4-way, lub jak kto woli, Two-Fire, Tri-Fire i Quad-Fire), choć do tej pory nie udało mi się uruchomić 3-Way, ani 4-Way na HD 2900XT. Jednak z pewnością wszystkie karty od HD 3xxx włącznie, działają w konfiguracji 4-Way, o ile mają po dwa grzebienie CrossFire. Najnowsza seria kart czyli np. R9 290(X) nie posiada "grzebieni". Sygnał CF idzie po liniach PCIe. Tak więc bardzo istotna staje się przepustowość portów PCIe. Quad-CrossFire to analogicznie jak w przypadku nV, połączenie w 2-Way CF dwóch podwójnych kart (np. dwie sztuki HD 4870X2). Jak widać Quad-CrossFire oraz 4-Way CrossFire to różne rzeczy i nie należy ich ze sobą mylić. Możliwe jest też "mieszane" 3-Way CF. Tak więc np. dysponując kartą HD 7990 (a więc podwójną) możemy ją połączyć z HD 7970. Tak samo z HD 5970 + HD 5870, itd. Istnieje możliwość łącznia kart pokrewnych - np. HD 6970 + HD 6950. Przy czym konfiguracja będzie się zachowywać jak 2x HD 6950. Dwie powyższe zależności można połączyć. I tak łącząc HD 7990 z HD 7950 uzyskamy setup zachowujący się jak trzy HD 7950. Nic też nie stoi na przeszkodzie by z "braku laku" utworzyć konfigurację 4-Way z jeden karty podwójnej i dwóch pojedynczych - np. HD 4870X2 + dwie HD 4870. Do CF nie są wymagane specjalne płyty główne. Tyle ile jest slotów PCI Express, taką konfigurację da się włączyć. Np. nie miałem problemów z 3-Way CF z HD 7970 na płytach LGA775 na X48, a więc już dosyć leciwych. CrossFire całkiem dobrze się skaluje nawet przy użyciu czterech kart bez względu na wiek gry / benchmarku. Aczkolwiek są pewne wyjątki i tak np. w przypadku 3DMark 03 oraz Unigine Heaven najlepszą wydajność uzyskamy korzystając z konfiguracji 3-Way. inne rozwiązania Celowo nie opisuję rozwiązań takich jak Hybrid-SLI, czy Hybrid-CF. Są one dosyć niszowe, a w dodatku pozbawione sensu. Osobiście "bawiłem" się konfiguracją AMD A8-3870K + HD 6670 i nie jestem w stanie pochlebnie wypowiedzieć się na temat tego setupu. Już totalnie pomijam np. multi-GPU oferowane przez chip Lucid Hydra 200 (czyli tryb A, tryb N i tryb X). Zmiany w zakresie mieszania kart może przynieść DirectX 12, ale na to trzeba jeszcze trochę poczekać. wady i mity Łączna pojemność pamięci kart nie sumuje się. Dwie karty z 2 GB RAM każda nie dają 4 GB RAMu graficznego. Tak więc, jeśli gra wymaga 2 GB vRAM, a mamy dwie karty po 1 GB, to gra nie zadziała. Zmiany w zarządzaniu vRAM może przynieść DirectX 12, ale na to trzeba jeszcze trochę poczekać. Jest możliwe połączenie kart o różnej pojemności RAM. Np. GTX 580 1,5 GB oraz GTX 580 3 GB. Jednak w takim wypadku konfiguracja będzie się zachowywać, jak by obie karty miały po 1,5 GB. To samo tyczy się wersji podkręconych. Gdy użyjemy dwóch takich samych kart, ale jedna będzie podkręcona, a druga nie, to konfiguracja będzie się zachowywać, jak by obie karty były niepodkręcone. Konfiguracja multi-GPU zużywa bardzo dużo prądu i generuje bardzo dużo ciepła. Z tego powodu wymagane są mocne i dobre (a więc drogie) zasilacze oraz przewiewne obudowy. Dodatkowa karta powoduje dodatkowe podniesie temperatur innych podzespołów. Multi-GPU jest bardzo ograniczane przez procesor. Średniej klasy CPU z konfiguracją wielokartową to bardzo zły pomysł. Multi-GPU ma tylko rację bytu przy najszybszych procesorach na rynku, do tego jeszcze podkręconych. Im więcej kart, tym problem jest bardziej widoczny. Konfiguracja wielokartowa powoduje dodatkowy narzut na procesor, co skutkuje obniżeniem wydajności setupu w grach, w miejscach, gdzie moc procesora się najbardziej liczy (tzw. "miejsca procesorowe"). Multi-GPU ma zastosowanie tylko wówczas, gdy korzystamy z dużych rozdzielczości (1440p, albo 4K), wysokich poziomów detali i "ulepszaczy" typu FSAA, Aniso, Tesselecja, Ubersampling, itp. Przy rozdzielczościach niższych niż Full HD, multi-GPU kompletnie traci rację bytu. Multi-GPU nie jest poprawnie obsługiwane przez wszystkie gry. Do tego w przypadku nowych tytułów należy czekać na ukazanie się profili, czy też sterowników z dodanymi profilami multi-GPU. Bez nich dodatkowe karty są bezużyteczne. Nawet jak gra wspiera technologię multi-GPU, to najczęściej skalowanie nie wynosi 100%. Tak więc dodając drugą kartę nie można oczekiwać, że ilość generowanych klatek na sekundę wzrośnie dwukrotnie. Im kart jest więcej, tym skalowanie jest coraz słabsze. Pamiętajmy, że nawet jeśli występuje wzrost wydajności spowodowany dodaniem kolejnej karty, to najbardziej "podbijana" jest maksymalna ilość generowanych klatek na sekundę. Wartość minimalnych FPS, czyli ta która najbardziej wpływa na komfort rozgrywki, najczęściej nie podnosi się tak bardzo. Jak wykazują testy przy pomocy FCAT oraz inne obserwacje, zastosowanie konfiguracji wielokartowej powoduje mniejsze, lub większe pogorszenie komfortu grania. Klatki są gubione, czasami występuje "rwanie" obrazu (tearing) lub też napotykamy na mikroprzycięcia (microstuttering). Zależy to też od gry, ale problem jest realny. Wprawdzie tearing można wyeliminować za pomocą nVidia G-SYNC lub AMD FreeSync, ale multi-GPU połączone z synchronizacją obrazu często potrafi nie działać. Gubienie klatek jest o tyle istotne, że pomimo, iż np. FRAPS pokazuje nam, że w danym momencie jest np. 50 FPS, to w rzeczywistości ta wartość może wynosić mniej niż 25 FPS... Popularnym mitem jest, że multi-GPU pozwala rozbić koszty kupna komputera. "Kupię teraz kompa z GTX 960, a za rok dokupię drugą taką kartę". Za rok lepiej sprzedać GTX 960 i kupić nowszą oraz szybszą kartę za to, co za tego 960 dostaniemy i odłożyliśmy na drugiego GTX 960. Gwarantuję, że będzie to dużo lepszy wybór. Nie dość, że ominiemy problemy związane z multi-GPU, to do tego zaoszczędzimy. Pamiętajcie, że do dwóch GTX 960 potrzeba znacząco mocniejszego zasilacza, niż tylko do jednego GTX 960. podsumowanie Pojedyncza mocna karta ZAWSZE będzie pod każdym względem lepsza, niż kilka słabszych kart. W mojej ocenie multi-GPU ma tylko sens, gdy posiadamy bardzo mocny procesor oraz high-endową kartę graficzną (obecnie byłby to GTX 980 Ti / GTX Titan X / R9 Fury / R9 Fury X) i w dalszym ciągu brakuje nam FPS. W innych wypadkach multi-GPU totalnie mija się z celem. Np. w czasach GTX 4xx ludzie się "wycwanili", gdyż dwie sztuki GTX 460 dysponowały teoretycznie porównywalną mocą, jak GTX 480, a przy tym były tańsze. Jakimś dziwnym trafem po niezbyt długim czasie ci userzy masowo złorzeczyli, sprzedawali GTX 460, przesiadali się na GTX 480 i byli zadowoleni. Ogólnie konfiguracje wielokartowe sa fajne, jak bijemy rekordy w benchmarkach na HWBot. Do codziennego użytku bym sobie je odpuścił, bo po tak wielu latach ta technologia wciąż jest zbyt niedopracowana.
  13. Wynik na HWBot powinien być traktowany na równi z linkiem do Futuremark ORB... Na Bocie jest coś takiego jak moderacja i zasady dodawania wyników
  14. Jak się kupi w jakimś bundlu, albo promocji, to wcale tak drogo nie wychodzi. Kupiłem 3DM 03, 05, 06, Vantage, 11 oraz Fire Strike i nie popłynąłem
  15. ivanov: 33503 - 4-Way SLI GTX 980 (3x Gigabyte Waterforce + ASUS Matrix) @ 1475/2015 + i7 5960X @ 5 GHz - Link Dajcie Fire Strike Extreme, bo to jest najpopularniejsze na HWBot
  16. A dzięki, dzięki Zarejestrowałem się z ciekawości ;)
×
×
  • Utwórz nowe...