Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano

Technologia łączenia wielu kart graficznych dla zwiększenia wydajności renderowania grafiki nie jest nowa. Zapoczątkowała ją firma 3DFX wraz z kartami VooDoo, a spopularyzowała nVidia wraz z serią GeFore 6xxx (rozwijając technologie przejęte po wykupieniu 3DFX). ATI nie zostało w tyle i X8xx też można było ze sobą łączyć.

Z tego co widzę, po tylu latach obecności technologii na rynku jest parę rzeczy, o których niektórzy zapominają, lub nie są ich świadomi (a powinni).
Mój mini-poradnik ma na celu poinformowanie usera w co się pakuje decydując się na multi-GPU.

 

zacznijmy od nazewnictwa i możliwości

 

nVidia SLI

 

  • Dual-SLI, 2-Way SLI, lub potocznie SLI to połączenie dwóch takich samych kart. Każda karta nVidii z pojedynczym złączem SLI umożliwia korzystanie z tej technologii. Płyta główna musi posiadać certyfikat SLI.

7pNSu5b.jpg

  • Tri-SLI, lub 3-Way SLI to połączenie trzech takich samych kart. Każda karta nV z dwoma "grzebieniami" SLI obsługuje tą technologię. Płyta główna oprócz posiadania certyfikatu SLI musi wspierać 3-Way (nie wszystkie płyty z trzema slotami PCIe wspierają 3-Way!).

xBvUX45.jpg

  • 4-Way SLI - połączenie czterech takich samych kart. Tylko najwyższe modele (np. GTX 480, GTX 580, GTX 680, GTX 780 Ti) wspierają tą technologię. Np. na GTX 670, czy GTX 570, 4-Way nie jest możliwy. Płyta główna musi być koniecznie certyfikowana do 4-Way.

ctNggDg.jpg

  • Quad-SLI to połączenie w 2-Way SLI dwóch podwójnych kart (np. dwie sztuki GTX 690). Do działania wystarczy, że płyta główna wspiera "zwykłe" SLI.

VP09H2P.jpg

Jak widać 4-Way SLI i Quad SLI to dwie zupełnie różne rzeczy i nie należy ich ze sobą mylić!

 

Do SLI zawsze są potrzebne odpowiednie mostki SLI!

Czasami zdarza się, że SLI starych kart na nowych płytach nie działa (miałem tak z 7900 GTX na Maximus V Extreme), pomimo że w teorii powinno działać.

Brak certyfikatu SLI lub niedziałanie starych kart można obejść przy pomocy Hyper SLI. Umożliwi on włączenie SLI, lub 3-Way SLI na płytach, które oficjalnie tego nie wspierają. Niestety przy pomocy patcha, ani niczego innego nie da rady obejść wymagań dla 4-Way SLI.
Jedynie w przypadku kart czasami da się coś ugrać, gdyż np. da się oszukać sterowniki, by "myślały", że cztery GTX 780 (bez Ti) to 4 karty Titan.


Pamiętajmy, że posiadając konfigurację SLI możemy włączyć technologię PhysX. Wówczas obciąży ona jedną z kart, jednak kosztem ogólnej wydajności konfiguracji. Można też użyć karty dedykowanej PhysX, jednak jest to mało opłacalne. Do tego karta dedykowana nie jest możliwa w przypadku 4-Way SLI. 
Szerzej omówiona kwestia PhysX.

Im starszy benchmark / gra, tym SLI się gorzej skaluje. Już np. w 3DMark Vantage (czyli nie takim bardzo starym benchamrku) trzy dają mały zwrost wzrostu wydajności względem dwóch kart.

 


ATI/AMD CrossFire

 

Stare karty z serii X8xx oraz X1xxx wymagają specjalnego, charakterystycznego kabla do połączenia. W dodatku potrzebna jest jedna karta zwykła oraz specjalna karta "matka" (CrossFire Edition). Nie jest możliwe łączenie więcej niż dwóch kart. Zwróćmy uwagę, że kable połączeniowe dla kart X8xx i X1xxx są różne i nie są ze sobą kompatybilne!

EdpzgDh.jpg

fMPO12V.jpg

 

Karty od HD 2xxx do Rx 2xx (oraz niektóre X1xxx, poza R9 290(X)) wymagają kabli CrossFire. Teoretycznie przy użyciu wszystkich modeli można tworzyć dowolne konfiguracje (2-Way, 3-Way oraz 4-way, lub jak kto woli, Two-Fire, Tri-Fire i Quad-Fire), choć do tej pory nie udało mi się uruchomić 3-Way, ani 4-Way na HD 2900XT. Jednak z pewnością wszystkie karty od HD 3xxx włącznie, działają w konfiguracji 4-Way, o ile mają po dwa grzebienie CrossFire.

Najnowsza seria kart czyli np. R9 290(X) nie posiada "grzebieni". Sygnał CF idzie po liniach PCIe. Tak więc bardzo istotna staje się przepustowość portów PCIe.

Quad-CrossFire to analogicznie jak w przypadku nV, połączenie w 2-Way CF dwóch podwójnych kart (np. dwie sztuki HD 4870X2).

Jak widać Quad-CrossFire oraz 4-Way CrossFire to różne rzeczy i nie należy ich ze sobą mylić.

 

Możliwe jest też "mieszane" 3-Way CF. Tak więc np. dysponując kartą HD 7990 (a więc podwójną) możemy ją połączyć z HD 7970. Tak samo z HD 5970 + HD 5870, itd.

Istnieje możliwość łącznia kart pokrewnych - np. HD 6970 + HD 6950. Przy czym konfiguracja będzie się zachowywać jak 2x HD 6950.

Dwie powyższe zależności można połączyć. I tak łącząc HD 7990 z HD 7950 uzyskamy setup zachowujący się jak trzy HD 7950.

Nic też nie stoi na przeszkodzie by z "braku laku" utworzyć konfigurację 4-Way z jeden karty podwójnej i dwóch pojedynczych - np. HD 4870X2 + dwie HD 4870.

Do CF nie są wymagane specjalne płyty główne. Tyle ile jest slotów PCI Express, taką konfigurację da się włączyć. Np. nie miałem problemów z 3-Way CF z HD 7970 na płytach LGA775 na X48, a więc już dosyć leciwych.

CrossFire całkiem dobrze się skaluje nawet przy użyciu czterech kart bez względu na wiek gry / benchmarku. Aczkolwiek są pewne wyjątki i tak np. w przypadku 3DMark 03 oraz Unigine Heaven najlepszą wydajność uzyskamy korzystając z konfiguracji 3-Way.

 

inne rozwiązania

 

Celowo nie opisuję rozwiązań takich jak Hybrid-SLI, czy Hybrid-CF. Są one dosyć niszowe, a w dodatku pozbawione sensu.
Osobiście "bawiłem" się konfiguracją AMD A8-3870K + HD 6670 i nie jestem w stanie pochlebnie wypowiedzieć się na temat tego setupu.

Już totalnie pomijam np. multi-GPU oferowane przez chip Lucid Hydra 200 (czyli tryb A, tryb N i tryb X).

Zmiany w zakresie mieszania kart może przynieść DirectX 12, ale na to trzeba jeszcze trochę poczekać.

C3d8FfZ.jpg

 

 

wady i mity

 

  • Łączna pojemność pamięci kart nie sumuje się. Dwie karty z 2 GB RAM każda nie dają 4 GB RAMu graficznego. Tak więc, jeśli gra wymaga 2 GB vRAM, a mamy dwie karty po 1 GB, to gra nie zadziała. 
    Zmiany w zarządzaniu vRAM może przynieść DirectX 12, ale na to trzeba jeszcze trochę poczekać.
     
  • Jest możliwe połączenie kart o różnej pojemności RAM. Np. GTX 580 1,5 GB oraz GTX 580 3 GB. Jednak w takim wypadku konfiguracja będzie się zachowywać, jak by obie karty miały po 1,5 GB.
     
  • To samo tyczy się wersji podkręconych. Gdy użyjemy dwóch takich samych kart, ale jedna będzie podkręcona, a druga nie, to konfiguracja będzie się zachowywać, jak by obie karty były niepodkręcone.
     
  • Konfiguracja multi-GPU zużywa bardzo dużo prądu i generuje bardzo dużo ciepła. Z tego powodu wymagane są mocne i dobre (a więc drogie) zasilacze oraz przewiewne obudowy. Dodatkowa karta powoduje dodatkowe podniesie temperatur innych podzespołów.
     
  • Multi-GPU jest bardzo ograniczane przez procesor. Średniej klasy CPU z konfiguracją wielokartową to bardzo zły pomysł. Multi-GPU ma tylko rację bytu przy najszybszych procesorach na rynku, do tego jeszcze podkręconych. Im więcej kart, tym problem jest bardziej widoczny.
     
  • Konfiguracja wielokartowa powoduje dodatkowy narzut na procesor, co skutkuje obniżeniem wydajności setupu w grach, w miejscach, gdzie moc procesora się najbardziej liczy (tzw. "miejsca procesorowe").
     
  • Multi-GPU ma zastosowanie tylko wówczas, gdy korzystamy z dużych rozdzielczości (1440p, albo 4K), wysokich poziomów detali i "ulepszaczy" typu FSAA, Aniso, Tesselecja, Ubersampling, itp. Przy rozdzielczościach niższych niż Full HD, multi-GPU kompletnie traci rację bytu.
     
  • Multi-GPU nie jest poprawnie obsługiwane przez wszystkie gry. Do tego w przypadku nowych tytułów należy czekać na ukazanie się profili, czy też sterowników z dodanymi profilami multi-GPU. Bez nich dodatkowe karty są bezużyteczne.
     
  • Nawet jak gra wspiera technologię multi-GPU, to najczęściej skalowanie nie wynosi 100%. Tak więc dodając drugą kartę nie można oczekiwać, że ilość generowanych klatek na sekundę wzrośnie dwukrotnie. Im kart jest więcej, tym skalowanie jest coraz słabsze.
     
  • Pamiętajmy, że nawet jeśli występuje wzrost wydajności spowodowany dodaniem kolejnej karty, to najbardziej "podbijana" jest maksymalna ilość generowanych klatek na sekundę. Wartość minimalnych FPS, czyli ta która najbardziej wpływa na komfort rozgrywki, najczęściej nie podnosi się tak bardzo.
     
  • Jak wykazują testy przy pomocy FCAT oraz inne obserwacje, zastosowanie konfiguracji wielokartowej powoduje mniejsze, lub większe pogorszenie komfortu grania. Klatki są gubione, czasami występuje "rwanie" obrazu (tearing) lub też napotykamy na mikroprzycięcia (microstuttering).
    Zależy to też od gry, ale problem jest realny.
    Wprawdzie tearing można wyeliminować za pomocą nVidia G-SYNC lub AMD FreeSync, ale multi-GPU połączone z synchronizacją obrazu często potrafi nie działać.
     
  • Gubienie klatek jest o tyle istotne, że pomimo, iż np. FRAPS pokazuje nam, że w danym momencie jest np. 50 FPS, to w rzeczywistości ta wartość może wynosić mniej niż 25 FPS...
     
  • Popularnym mitem jest, że multi-GPU pozwala rozbić koszty kupna komputera. "Kupię teraz kompa z GTX 960, a za rok dokupię drugą taką kartę". 
    Za rok lepiej sprzedać GTX 960 i kupić nowszą oraz szybszą kartę za to, co za tego 960 dostaniemy i odłożyliśmy na drugiego GTX 960. Gwarantuję, że będzie to dużo lepszy wybór. Nie dość, że ominiemy problemy związane z multi-GPU, to do tego zaoszczędzimy. Pamiętajcie, że do dwóch GTX 960 potrzeba znacząco mocniejszego zasilacza, niż tylko do jednego GTX 960.


podsumowanie


Pojedyncza mocna karta ZAWSZE będzie pod każdym względem lepsza, niż kilka słabszych kart.

W mojej ocenie multi-GPU ma tylko sens, gdy posiadamy bardzo mocny procesor oraz high-endową kartę graficzną (obecnie byłby to GTX 980 Ti / GTX Titan X / R9 Fury / R9 Fury X) i w dalszym ciągu brakuje nam FPS. W innych wypadkach multi-GPU totalnie mija się z celem.

Np. w czasach GTX 4xx ludzie się "wycwanili", gdyż dwie sztuki GTX 460 dysponowały teoretycznie porównywalną mocą, jak GTX 480, a przy tym były tańsze. Jakimś dziwnym trafem po niezbyt długim czasie ci userzy masowo złorzeczyli, sprzedawali GTX 460, przesiadali się na GTX 480 i byli zadowoleni.


Ogólnie konfiguracje wielokartowe sa fajne, jak bijemy rekordy w benchmarkach na HWBot. Do codziennego użytku bym sobie je odpuścił, bo po tak wielu latach ta technologia wciąż jest zbyt niedopracowana.

 

  • SMX promuje ten temat
  • gtxxor przypiął/eła ten temat
Opublikowano
50 minut temu, 539 napisał:

Jak ktoś chce grac płynnie w 4k to dla niego multi GPU ma sens .

Zgadza się, ale to sprowadza się do tego, że i tak trzeba połączyć ze sobą karty klasy GTX 980 Ti.

Ogólnie w całym tym temacie chodzi o to, by ludziom wytłumaczyć, że SLI z np. GTX 960 kompletnie nie ma sensu.

BTW Z tego co widziałem, najnowszy Tomb Raider bardzo ładnie skaluje się na trzech kartach. Ale to są wyjątki :P

Opublikowano
42 minuty temu, haha3 napisał:

Jeśli już to SLI

łączenie 3-4 kart jest ogólnie bez większego sensu bo i tak gry nie obsługują dobrze takich konfiguracji :/

Przecież takie było podsumowanie całego artykułu.

Opublikowano
58 minut temu, ivanov napisał:

BTW Z tego co widziałem, najnowszy Tomb Raider bardzo ładnie skaluje się na trzech kartach. Ale to są wyjątki :P

No tak , ale trzy razy 980 ti w przypadku gdy wykorzystanie w praktyce takiego setu to rzadkość...... ja odpadam :) 

1 godzinę temu, ivanov napisał:

Ogólnie w całym tym temacie chodzi o to, by ludziom wytłumaczyć, że SLI z np. GTX 960 kompletnie nie ma sensu.

Sens rodzi się wraz z potrzebą (software plus rozdzielczość) oraz sprzętem. Nigdy bym nie wszedł w sli gtx 960, ale porywając się fantazji przygody w 4k 2x 980 ti ma sens :)

Ostatnio na rynku GPU dzieje się dużo, nie wiadomo co myśleć gdy czytasz treści kupujących zestaw z karta np gtx 970 z przeznaczeniem na lata :)

Z kolei próby tłumaczenia, iż  z przeznaczeniem na lata kupuje się zacny  fortepian albo skrzypce , a nie komputer z średniej klasy GPU  nierzadko spotykają się z niezrozumieniem.

Tu dość szybko moim zdaniem trzeba reagować na to co dzieje się na rynku i aby być na czasie trzeba znaleźć dobry moment na wymianę karty. 

Jak człowiek zaśpi jego tytan wydajności typu gtx 970 będzie wart czapkę gruszek :)

 

Dnia 18.03.2016 o 15:12, ivanov napisał:

Konfiguracja multi-GPU zużywa bardzo dużo prądu i generuje bardzo dużo ciepła. Z tego powodu wymagane są mocne i dobre (a więc drogie) zasilacze oraz przewiewne obudowy. Dodatkowa karta powoduje dodatkowe podniesie temperatur innych podzespołów

Bardzo fajny jest ten artykuł. Poleciał plus :) 

Opinie bywają  rożne , ale osierocicie nigdy nie zdecydowałbym się na multi GPU bez porządnego wodowania całego zestawu.

:) osobiście miało być 

Opublikowano (edytowane)
31 minut temu, 539 napisał:

Opinie bywają  rożne , ale osierocicie nigdy nie zdecydowałbym się na multi GPU bez porządnego wodowania całego zestawu.

 osobiście miało być 

Takie setupy to jest promil zestawów. W dodatku najczęściej posiadacze takich konfiguracji i tak są obeznani z tematem i wiedzą co robią.

Chodzi mi głównie o to, by pohamować zapędy co poniektórych "odkrywców", którzy myślą, że połączenie kilku kart niskiego, albo średniego segmentu (w dodatku w kompie ze słabym procesorem) to absolutnie świetny plan na super wydajność i zmniejszenie kosztów komputera :P

Edytowane przez ivanov
Opublikowano
13 minut temu, ivanov napisał:

Chodzi mi głównie o to, by pohamować zapędy co poniektórych "odkrywców"

 ...:) Warto by było także wytłumaczyć również, iż dwa GPU z tym samych chipem od rożnych producentów poza ceną mogą się czymś różnić. :)

 

 

Opublikowano
46 minut temu, 539 napisał:

 ...:) Warto by było także wytłumaczyć również, iż dwa GPU z tym samych chipem od rożnych producentów poza ceną mogą się czymś różnić.

 

 

To chyba wiadome, że gpu do łączenia powinny posiadać taką samą specyfikację?

Opublikowano

Nie prawda

Cytat
  • Jest możliwe połączenie kart o różnej pojemności RAM. Np. GTX 580 1,5 GB oraz GTX 580 3 GB. Jednak w takim wypadku konfiguracja będzie się zachowywać, jak by obie karty miały po 1,5 GB.
     
  • To samo tyczy się wersji podkręconych. Gdy użyjemy dwóch takich samych kart, ale jedna będzie podkręcona, a druga nie, to konfiguracja będzie się zachowywać, jak by obie karty były niepodkręcone.

Widziałem przypadek łączenia kart różnych producentów i nie było problemu

Opublikowano
Dnia 20.03.2016 o 17:18, 539 napisał:

..:) Warto by było także wytłumaczyć również, iż dwa GPU z tym samych chipem od rożnych producentów poza ceną mogą się czymś różnić.

Doprecyzuje co miałem na myśli. Pomijając łączenie kart chodziło mi o to , iż karty zbudowane na tym samych chipsecie mogą posiadać inne cechy/właściwości.

Backplate lub jego brak, rożny system chłodzenia, rodzaj i ilość zastosowanej pamięci,fabryczne ustalone taktowanie  etc.....

Wszytko to ma wpływ na  ich cenę jak i decyduje o ich indywidualności.

Opublikowano

Można by zrobić 4-Way z 4 kart z różnym PCB (np. ASUS Matrix, Galax HoF LN2, EVGA Classified K|ngp|n i MSI Lightning) i też by działało bez problemu.

Tutaj akurat trafiły mi się GTX 980 WaterForce + Matrix i było ok :P

 

image_id_1417379.jpeg

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
  • Popularne tematy

  • Najnowsze posty

    • No robi wrażenie  . No właśnie trochę ten początek taki lajtowy się wydaje i człowiek zaczyna spoczywać na laurach, ale jestem świadom że przyjdzie ten moment, gdzie w końcu będzie jakaś ściana. A jeszcze jedno mnie trochę zastanawia, jak wiadomo pod paskiem życia itp pojawiają się symbole, które pokazują że coś Ci dodaje siłę/wytrzymałość, ale mam symbol takiej czerwonej kostki ze strzałką w dół, czyli mam obniżone życie, tylko dlaczego?
    • No i tu jest coś dziwnego, z tego tematu co wkleiłeś tam jeden gość napisał "Dzięki za info, bo właśnie przymierzam się do kupna właśnie tej ładowarki, z kolei nie wiedziałem, że używając kabla USB C -- USB-C, szybkie ładowanie się wyłącza" i właśnie na tej ładowarce gdzie działa QC jest to kabel usb-c--usb c  mam w robocie taki kabelek żeński-męski usb-c, pożyczę sobie i zobaczę co taka kombinacja pokaże. Dzięki za odzew.
    • Jak już kiedyś wspominałem. Będzie zamrożenie wojny. Pewnie ukraina otrzyma gwarancje bezpieczeństwa tylko od niektórych pańśtw europy. Rosja nie zaatakuje państw NATO. Rosja jest zbyt mocno wykrawiona na wielką kolejną wojne z NATO. Estonię rosja mogla już przejac wiele razy. Nie zrobiła tego. Trump zmusi ukrainę do zrzeczenia się okupowanych przez Rosję ziem. Trump nie chce dawać pieniedzy do worka bez dna. Ukraina nigdy nie odbije okupowanych ziem, wiec sam Zełeński powinen sobie to uświadomić zamiast prowadzić wojnę w nieskończoność.
    • @AndrzejTrg z zabrudzonym wejściem słuszny kierunek  Ale skoro to nie pomogło, to obstawiałbym na uszkodzony port ładowania (a właściwie całą płytkę - w telefonach jest ona najczęściej jako osobny od płyty głównej element). Pewnie może to być i problem z baterią i jej kontrolerem (jest "wbudowany" w baterię, tę wymienną część). To wygląda tak, jakby albo coś nie stykało odpowiednio, albo był problem z komunikacją i "wynegocjowaniem" prądu/napięcia ładowania między telefonem, kablem i ładowarką. Czyli jakaś awaria.   Dlaczego działa na tej jednej konkretnej ładowarce? Tego nie wiem. Mam podobną sytuację na pewnym starym Sony. Ładuje (nie QC, w ogóle  ) się tylko na dwóch konkretnych kablach - i to takich starych no name. Żadne markowe Belkiny, BaseUsy czy Ankery, które też mam, nie działają. Na ładowarki jest trochę mniej wybredny, pod warunkiem, że nie przekracza 5V/2A czyli 10W    EDIT: jeszcze coś takiego znalazłem: https://forum.android.com.pl/topic/366002-xiaomi-mi-9t-pro-ładowarka-qc-4-wskazania-prędkości-ładowania   ------------------------------------------------   Aha, tak poza tematem (bo nie raz mi się zdawało, że coś ładuje nieprawidłowo, a się okazywało, że jest wszystko ok). do pomiaru prądu ładowania polecam Ampere albo AccuBattery. Schodzisz z baterią naładowaniem do niskich %, podłączasz kabel i wyłączasz ekran na parę minut. Potem w programie patrzysz średnią mA z jaką ładowała się bateria (np. 2000 mA = 2A podane na ładowarce jako "output"). To jest też fajny sposób na sprawdzenie czy dany kabel jest coś wart i daje pełną moc ładowarki. Potrzebny jest oczywiście telefon, który "przyjmuje" moc większą niż ładowarka, żeby ją sprawdzić. 
    • Ten benchmark jest z 2017r     Widziałem podkręconą do 3.4GHz 4090 w 1080p extreme  masakracja:
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...