Skocz do zawartości

Przeszukaj forum

Pokazywanie wyników dla tagów 'radeon'.

  • Szukaj wg tagów

    Wpisz tagi, oddzielając przecinkami.
  • Szukaj wg autora

Typ zawartości


Forum

  • Zadaj pytanie bez rejestracji
    • Szybkie pytania
  • Administracja
    • Regulaminy
    • Aktualności techniczne
    • Pytania i sugestie
  • Sprzęt
    • Zestawy komputerowe
    • Chłodzenie
    • Procesory
    • Płyty główne
    • Pamięci RAM
    • Karty graficzne
    • Monitory
    • Audio
    • Nośniki danych
    • Internet
    • Obudowy
    • Zasilacze
    • Urządzenia wskazujące
    • Modding
  • Oprogramowanie
    • Aplikacje multimedialne
    • Diagnostyka i bezpieczeństwo
    • Pomiar wydajności
    • Systemy operacyjne
    • Pozostałe
    • Programowanie
  • Strefa gracza
    • Gry komputerowe
    • Konsole stacjonarne
    • Turnieje i wydarzenia
  • Kącik mobilny
    • Komputery przenośne
    • Smartfony i tablety
    • Gadżety
  • Off-topic
    • Filmy i muzyka
    • Humor
    • Wszystko o niczym
    • Zainteresowania
  • Giełda
    • Kupię
    • Sprzedam
    • Zamienię

Szukaj wyników w...

Znajdź wyniki...


Data utworzenia

  • Rozpocznij

    Koniec


Ostatnia aktualizacja

  • Rozpocznij

    Koniec


Filtruj po ilości...

Data dołączenia

  • Rozpocznij

    Koniec


Grupa


O mnie

Znaleziono 6 wyników

  1. Siemka, postanowiłem podzielić się z Wami moją opinią na temat karty RX 5500XT 8GB model Gaming X. [taka mini recenzja prowadzona przez amatora] Pierwsze wrażenia po otwarciu pudełka były pozytywne. Od razu daje się wyczuć, że mamy do czynienia ze sprzętem wyższej klasy. Jakość wykonania oceniam dobrze. Materiały, z jakich zostały wykonane elementy karty są naprawdę na wysokim poziomie. Pod tym względem nie ma się o co przyczepić. Jeśli chodzi o wygląd karty, to pozostawiam to wam do własnej analizy, w końcu są gusta i guściki. Ja uważam, że design jest w porządku, brak zbędnych światełek czy fikuśnych kształtów. Całość zdobi elegancki backplate wykonany z aluminium. Tutaj muszę się jednak do czegoś przyczepić. Moim zdaniem wycięcia znajdujące się bezpośrednio pod rdzeniem GPU to nie jest najlepszy pomysł. Jeśli chcemy zapewnić bezpieczeństwo w razie zwarcia, to nie powinno się zostawiać odsłoniętych tak wrażliwych miejsc. Uważam, że lepszym pomysłem byłoby osłonięcie całego tyłu karty i w miejscu gdzie są wycięcia powinny znaleźć się termopady tak jak jest to zrealizowane na innych elementach karty. Podpinamy kartę do komputera i co dalej? Tak, zgadza się, nie mogło zabraknąć podświetlenia LED. Na szczęście (jak dla mnie) świeci się zaledwie niewielki fragment z boku karty, który uwidacznia logo MSI. Oczywiście wszystko świeci się we wszystkich kolorach tęczy, dopóki nie zmienimy tego za pomocą oprogramowania Mystic Light. Po pobraniu oprogramowania można zacząć zabawę, ogromna ilość trybów świecenia, wiele funkcji, które tylko czekają, żeby je wybrać. Dla każdego z pewnością coś się znajdzie. Chyba nikt tutaj nie przyszedł czytać o wyglądzie, więc przejdźmy do bardziej interesujących aspektów. Do czynienia mamy z GPU opartym o architekturę RNDA, wykonaną w litografii 7 nm. Do dyspozycji mamy 8GB pamięci GDDR6. TDP karty określone jest na poziomie 140W. Monitor możemy podpiąć do karty za pomocą jednego z trzech złączy DP lub za pomocą pojedynczego HDMI. Mój RX rozkręcał się do taktowania 1873 MHz na rdzeniu oraz efektywnego taktowania pamięci na poziomie 14000 MHz. Kartę postanowiłem przetestować w następujących grach: The Division 2, Wiedźmin 3, Shadow of the Tomb Raider, Far Cry 5, Gears 5 i Battlefield 5 przy rozdzielczości Full HD. W wyżej wymienionych tytułach karta spisuje się świetnie. Większość gier wyświetlana jest w co najmniej 60 ramkach obrazowych w każdej sekundzie trwania rozrywki przy suwakach ustawień graficznych przesuniętych maksymalnie w prawo. Przekłada się to na płynny obraz bez zacięć i nagłych spadków klatek. Jedyną produkcją, z jaką karta nie potrafiła sobie poradzić to Shadow of the Tomb Raider. Postać Lary była wyświetlana z prędkością 55 FPS średnio w lokacji: Geotermiczna dolina. Jednak obniżenie ustawień o jeden stopień w dół pozwala na przebicie maksymalnej bariery 60kl/s. Warto zauważyć, że karta radzi sobie z większością nowych gier AAA na ustawieniach ultra w rozdzielczości 1920x1080 pikseli. Znając podejście AMD, możemy być pewni, że z czasem karta będzie dostawała przysłowiowego "kopa" tak jak ma to miejsce przy kartach z rodziny Polaris. Jest to świetna informacja dla posiadaczy nowych RX'ów. Jednak na zauważalną poprawę będziemy musieli niestety jeszcze trochę poczekać. Kultura pracy testowanej karty to chyba jej najmocniejsza strona. Przy maksymalnym obciążeniu procesora graficznego hałas, jaki wydziela jest praktycznie znikomy. Temperatury dobijają do granicy 74 stopni. Nie jest to mało, ale nic nie stoi na przeszkodzie, aby nieco zmienić krzywą wentylatorów. Temperatury będą niższe, a hałas niewiele wyższy. Jeśli natomiast chodzi o potencjał OC, to tutaj karta też sobie poradziła nie najgorzej. Procesor graficzny zmusiłem do pracy przy taktowaniu 1997 MHz, natomiast pamięci podbiłem do taktowania 1860 MHz. Niestety nie jest możliwe podniesienia zegarów pamięci wyżej, po podbiciu taktowania powyżej tej wartości ustawienia wracały do wcześniej wymienionej wartości. OC pozwoliło na poprawę wydajności o około 6,5%, zaś temperatury wzrosły o zaledwie 3 stopnie względem fabrycznych ustawień. Podsumowując. Kupując kartę za kwotę około 1100 zł, możemy się spodziewać takich wyników. Jeśli nie gramy w najbardziej wymagające gry, przy ustawieniach graficznych ustawionych na ultra to nie powinniśmy się przejmować niezadowalającą wydajnością. Jest to GPU dedykowane do rozgrywki w rozdzielczości FHD przy odświeżaniu monitora 60/75 Hz. Jeśli szukamy czegoś do monitora z wyższym odświeżaniem matrycy, to niestety będziemy zmuszeni zakupić coś lepszego. Do moich potrzeb karta sprawdza się idealnie i jestem pewien, że posłuży mi ona przez kilka lat. Ktoś przeczytał całe?
  2. Witam wszystkich, Do sprzedania posiadam poniższe rzeczy: Laptop Lenovo Z51-70 - Intel Core I5 5200U / AMD Radeon R9 375M 2GB / 8Gb RAM DDR3 / HDD 1TB / OS Win 10 Gwarancja ważna do 29.03.2018 Cena: 1799zł z darmowym transportem od ręki do negocjacji. Licytacja Allegro: http://allegro.pl/laptop-lenovo-z51-70-i5-5200u-r9-m375-8gb-ram-gw-i6790194410.html Konsola Xbox One 500GB + 2gry - stan BDB / Rysy na powierzchni błyszczącej Cena od ręki 659,00 zł Licytacja allegro: http://allegro.pl/konsola-microsoft-xbox-one-500gb-2-gry-bcm-i6790181528.html W przypadku pytań proszę o kontakt.
  3. Witam. Zmagam się od kilku dni z problemem karty graficznej. Coś ewidentnie nie tak wgrałam. Zgubiłam płytę ze sterami a w internecie wszystkie jakie znalazłam powodują ten sam błąd. Mianowicie "Sterownik ekranu przestał działać ale odzyskał sprawność" albo "Sterownik ekranu ati radeon family przestał działać ale odzyskał sprawność". Dodam, ze przed formatem, przy posiadaniu oryginalnej płyty wszystko działało. Z kartą musi być wszystko w porządku ponieważ mam monitor teraz podpięty do niej ale odpalony w trybie awaryjnym z obsługą sieci.. Z trybu awaryjnego jak instalowałam (właściwe sterowniki) to wyskoczył mi komunikat- "Error 99 – AMD Installer Cannot Continue Because the Driver has not Been Digitally Signed"... tak więc uruchomiłam ponownie komputer z f8 i wyłączyłam podpisywanie cyfrowe. Wtedy dopiero stery zainstalowało i karta była gotowa do użycia. Przez 10 sekund. Nastąpiło znowu to samo. Ekran się wyłączał. Znowu były te same komunikaty, blueskreen i od nowa. Oszaleje za chwile. Podam parametry. Może ktoś coś poradzi. System: Windows 7 Home Premium 64bit BIOS: Award Modular BIOS v6.00PG Procesor: Intel(R) Pentium(R) Dual CPU E2220 @ 2.40GHz (2 CPUs), ~2.4GHz Pamięć: 4096MB RAM Karta graficzna: Asus Radeon X1950 Pro 256MB EAX1950PRO/HDTP/256M
  4. Mam na sprzedaż Radeona R9 280X w niereferencyjnym wydaniu ASUSA z chłodzeniem DirectCU II, którego chyba nie trzeba przedstawiać: 5 niklowanych rurek cieplnych, ogromny radiator, dwa 100 mm wentylatory - czyli w skrócie cisza i niskie temperatury ;) Karta pochodzi z wymiany gwarancyjnej w sklepie w zamian za padniętego 7970 Gigabyte. Niestety nie wiem jak wygląda sytuacja z gwarancją ASUSa, mogę się domyślać, że tylko standardowe 24 miesiące (jak ktoś zna szczegóły niech napisze mi na PW) - w razie czego daję 30 dni gwary rozruchowej. Wszystkie papiery i faktury oczywiście dołączam ;) Karta nie była rozkręcana, o czym świadczą nienaruszone plomby na śrubach. Była tylko czyszczona z kurzu, dzięki czemu jest gotowa do montażu w kompie ;) Potencjału OC zbyt wnikliwie nie sprawdzałem, jedynie na początku ekscytacji cyferkami w 3DMarku... chyba coś koło 1100MHz poszło na luzie :hmm: Ale 12-fazowe zasilanie oraz wtyczki 6+6 na pewno pomogą wykręcić znacznie wyżej po podniesieniu napięcia rdzenia ;) Jednak na co dzień suwaki były przestawione w drugą stronę - karta chodziła na obniżonych ustawieniach, ponieważ wydajności i tak było mi aż nadto, a mam małego zielonego fioła Przy pomocy programu producenta GPU Tweak karta w pełni stabilnie chodziła na 970MHZ @ 1.1V, dzięki czemu zużycie energii zostało obniżone o kilkadziesiąt watów, a temperatura przy pykaniu w BFa nie przekraczała 80*C przy wentylatorze kręcącym się na 40%, pozostając przy tym ledwo słyszalnym Cała specyfikacja karty dostępna jest na stronie producenta: https://www.asus.com/pl/Graphics-Cards/R9280XDC23GD5/ Real photos: http://imgur.com/a/zdqhK Karta oczywiście w pełni sprawna, nic nie buczy, nie BSODuje ani nie śmieci artami po ekranie ;) Sprzedaję pełen zestaw - karta w oryginalnym opakowany producenta wraz z zestawem akcesoriów (książeczka, płyta ze sterami, mostek CF) oraz fakturą i świstkiem ze sklepu. Cena: 599 zł Możliwy odbiór osobisty (okolice Katowic) albo wysyłka kurierem za 19zł. Kontakt: - forumowe PW - odpowiedź w wątku - mail: michal.ly@wp.pl - tel. 794#837#693 Z chęcią odpowiem na wszelkie pytania i zachęcam do zakupu ;)
  5. Technologia łączenia wielu kart graficznych dla zwiększenia wydajności renderowania grafiki nie jest nowa. Zapoczątkowała ją firma 3DFX wraz z kartami VooDoo, a spopularyzowała nVidia wraz z serią GeFore 6xxx (rozwijając technologie przejęte po wykupieniu 3DFX). ATI nie zostało w tyle i X8xx też można było ze sobą łączyć. Z tego co widzę, po tylu latach obecności technologii na rynku jest parę rzeczy, o których niektórzy zapominają, lub nie są ich świadomi (a powinni). Mój mini-poradnik ma na celu poinformowanie usera w co się pakuje decydując się na multi-GPU. zacznijmy od nazewnictwa i możliwości nVidia SLI Dual-SLI, 2-Way SLI, lub potocznie SLI to połączenie dwóch takich samych kart. Każda karta nVidii z pojedynczym złączem SLI umożliwia korzystanie z tej technologii. Płyta główna musi posiadać certyfikat SLI. Tri-SLI, lub 3-Way SLI to połączenie trzech takich samych kart. Każda karta nV z dwoma "grzebieniami" SLI obsługuje tą technologię. Płyta główna oprócz posiadania certyfikatu SLI musi wspierać 3-Way (nie wszystkie płyty z trzema slotami PCIe wspierają 3-Way!). 4-Way SLI - połączenie czterech takich samych kart. Tylko najwyższe modele (np. GTX 480, GTX 580, GTX 680, GTX 780 Ti) wspierają tą technologię. Np. na GTX 670, czy GTX 570, 4-Way nie jest możliwy. Płyta główna musi być koniecznie certyfikowana do 4-Way. Quad-SLI to połączenie w 2-Way SLI dwóch podwójnych kart (np. dwie sztuki GTX 690). Do działania wystarczy, że płyta główna wspiera "zwykłe" SLI. Jak widać 4-Way SLI i Quad SLI to dwie zupełnie różne rzeczy i nie należy ich ze sobą mylić! Do SLI zawsze są potrzebne odpowiednie mostki SLI! Czasami zdarza się, że SLI starych kart na nowych płytach nie działa (miałem tak z 7900 GTX na Maximus V Extreme), pomimo że w teorii powinno działać. Brak certyfikatu SLI lub niedziałanie starych kart można obejść przy pomocy Hyper SLI. Umożliwi on włączenie SLI, lub 3-Way SLI na płytach, które oficjalnie tego nie wspierają. Niestety przy pomocy patcha, ani niczego innego nie da rady obejść wymagań dla 4-Way SLI. Jedynie w przypadku kart czasami da się coś ugrać, gdyż np. da się oszukać sterowniki, by "myślały", że cztery GTX 780 (bez Ti) to 4 karty Titan. Pamiętajmy, że posiadając konfigurację SLI możemy włączyć technologię PhysX. Wówczas obciąży ona jedną z kart, jednak kosztem ogólnej wydajności konfiguracji. Można też użyć karty dedykowanej PhysX, jednak jest to mało opłacalne. Do tego karta dedykowana nie jest możliwa w przypadku 4-Way SLI. Szerzej omówiona kwestia PhysX. Im starszy benchmark / gra, tym SLI się gorzej skaluje. Już np. w 3DMark Vantage (czyli nie takim bardzo starym benchamrku) trzy dają mały zwrost wzrostu wydajności względem dwóch kart. ATI/AMD CrossFire Stare karty z serii X8xx oraz X1xxx wymagają specjalnego, charakterystycznego kabla do połączenia. W dodatku potrzebna jest jedna karta zwykła oraz specjalna karta "matka" (CrossFire Edition). Nie jest możliwe łączenie więcej niż dwóch kart. Zwróćmy uwagę, że kable połączeniowe dla kart X8xx i X1xxx są różne i nie są ze sobą kompatybilne! Karty od HD 2xxx do Rx 2xx (oraz niektóre X1xxx, poza R9 290(X)) wymagają kabli CrossFire. Teoretycznie przy użyciu wszystkich modeli można tworzyć dowolne konfiguracje (2-Way, 3-Way oraz 4-way, lub jak kto woli, Two-Fire, Tri-Fire i Quad-Fire), choć do tej pory nie udało mi się uruchomić 3-Way, ani 4-Way na HD 2900XT. Jednak z pewnością wszystkie karty od HD 3xxx włącznie, działają w konfiguracji 4-Way, o ile mają po dwa grzebienie CrossFire. Najnowsza seria kart czyli np. R9 290(X) nie posiada "grzebieni". Sygnał CF idzie po liniach PCIe. Tak więc bardzo istotna staje się przepustowość portów PCIe. Quad-CrossFire to analogicznie jak w przypadku nV, połączenie w 2-Way CF dwóch podwójnych kart (np. dwie sztuki HD 4870X2). Jak widać Quad-CrossFire oraz 4-Way CrossFire to różne rzeczy i nie należy ich ze sobą mylić. Możliwe jest też "mieszane" 3-Way CF. Tak więc np. dysponując kartą HD 7990 (a więc podwójną) możemy ją połączyć z HD 7970. Tak samo z HD 5970 + HD 5870, itd. Istnieje możliwość łącznia kart pokrewnych - np. HD 6970 + HD 6950. Przy czym konfiguracja będzie się zachowywać jak 2x HD 6950. Dwie powyższe zależności można połączyć. I tak łącząc HD 7990 z HD 7950 uzyskamy setup zachowujący się jak trzy HD 7950. Nic też nie stoi na przeszkodzie by z "braku laku" utworzyć konfigurację 4-Way z jeden karty podwójnej i dwóch pojedynczych - np. HD 4870X2 + dwie HD 4870. Do CF nie są wymagane specjalne płyty główne. Tyle ile jest slotów PCI Express, taką konfigurację da się włączyć. Np. nie miałem problemów z 3-Way CF z HD 7970 na płytach LGA775 na X48, a więc już dosyć leciwych. CrossFire całkiem dobrze się skaluje nawet przy użyciu czterech kart bez względu na wiek gry / benchmarku. Aczkolwiek są pewne wyjątki i tak np. w przypadku 3DMark 03 oraz Unigine Heaven najlepszą wydajność uzyskamy korzystając z konfiguracji 3-Way. inne rozwiązania Celowo nie opisuję rozwiązań takich jak Hybrid-SLI, czy Hybrid-CF. Są one dosyć niszowe, a w dodatku pozbawione sensu. Osobiście "bawiłem" się konfiguracją AMD A8-3870K + HD 6670 i nie jestem w stanie pochlebnie wypowiedzieć się na temat tego setupu. Już totalnie pomijam np. multi-GPU oferowane przez chip Lucid Hydra 200 (czyli tryb A, tryb N i tryb X). Zmiany w zakresie mieszania kart może przynieść DirectX 12, ale na to trzeba jeszcze trochę poczekać. wady i mity Łączna pojemność pamięci kart nie sumuje się. Dwie karty z 2 GB RAM każda nie dają 4 GB RAMu graficznego. Tak więc, jeśli gra wymaga 2 GB vRAM, a mamy dwie karty po 1 GB, to gra nie zadziała. Zmiany w zarządzaniu vRAM może przynieść DirectX 12, ale na to trzeba jeszcze trochę poczekać. Jest możliwe połączenie kart o różnej pojemności RAM. Np. GTX 580 1,5 GB oraz GTX 580 3 GB. Jednak w takim wypadku konfiguracja będzie się zachowywać, jak by obie karty miały po 1,5 GB. To samo tyczy się wersji podkręconych. Gdy użyjemy dwóch takich samych kart, ale jedna będzie podkręcona, a druga nie, to konfiguracja będzie się zachowywać, jak by obie karty były niepodkręcone. Konfiguracja multi-GPU zużywa bardzo dużo prądu i generuje bardzo dużo ciepła. Z tego powodu wymagane są mocne i dobre (a więc drogie) zasilacze oraz przewiewne obudowy. Dodatkowa karta powoduje dodatkowe podniesie temperatur innych podzespołów. Multi-GPU jest bardzo ograniczane przez procesor. Średniej klasy CPU z konfiguracją wielokartową to bardzo zły pomysł. Multi-GPU ma tylko rację bytu przy najszybszych procesorach na rynku, do tego jeszcze podkręconych. Im więcej kart, tym problem jest bardziej widoczny. Konfiguracja wielokartowa powoduje dodatkowy narzut na procesor, co skutkuje obniżeniem wydajności setupu w grach, w miejscach, gdzie moc procesora się najbardziej liczy (tzw. "miejsca procesorowe"). Multi-GPU ma zastosowanie tylko wówczas, gdy korzystamy z dużych rozdzielczości (1440p, albo 4K), wysokich poziomów detali i "ulepszaczy" typu FSAA, Aniso, Tesselecja, Ubersampling, itp. Przy rozdzielczościach niższych niż Full HD, multi-GPU kompletnie traci rację bytu. Multi-GPU nie jest poprawnie obsługiwane przez wszystkie gry. Do tego w przypadku nowych tytułów należy czekać na ukazanie się profili, czy też sterowników z dodanymi profilami multi-GPU. Bez nich dodatkowe karty są bezużyteczne. Nawet jak gra wspiera technologię multi-GPU, to najczęściej skalowanie nie wynosi 100%. Tak więc dodając drugą kartę nie można oczekiwać, że ilość generowanych klatek na sekundę wzrośnie dwukrotnie. Im kart jest więcej, tym skalowanie jest coraz słabsze. Pamiętajmy, że nawet jeśli występuje wzrost wydajności spowodowany dodaniem kolejnej karty, to najbardziej "podbijana" jest maksymalna ilość generowanych klatek na sekundę. Wartość minimalnych FPS, czyli ta która najbardziej wpływa na komfort rozgrywki, najczęściej nie podnosi się tak bardzo. Jak wykazują testy przy pomocy FCAT oraz inne obserwacje, zastosowanie konfiguracji wielokartowej powoduje mniejsze, lub większe pogorszenie komfortu grania. Klatki są gubione, czasami występuje "rwanie" obrazu (tearing) lub też napotykamy na mikroprzycięcia (microstuttering). Zależy to też od gry, ale problem jest realny. Wprawdzie tearing można wyeliminować za pomocą nVidia G-SYNC lub AMD FreeSync, ale multi-GPU połączone z synchronizacją obrazu często potrafi nie działać. Gubienie klatek jest o tyle istotne, że pomimo, iż np. FRAPS pokazuje nam, że w danym momencie jest np. 50 FPS, to w rzeczywistości ta wartość może wynosić mniej niż 25 FPS... Popularnym mitem jest, że multi-GPU pozwala rozbić koszty kupna komputera. "Kupię teraz kompa z GTX 960, a za rok dokupię drugą taką kartę". Za rok lepiej sprzedać GTX 960 i kupić nowszą oraz szybszą kartę za to, co za tego 960 dostaniemy i odłożyliśmy na drugiego GTX 960. Gwarantuję, że będzie to dużo lepszy wybór. Nie dość, że ominiemy problemy związane z multi-GPU, to do tego zaoszczędzimy. Pamiętajcie, że do dwóch GTX 960 potrzeba znacząco mocniejszego zasilacza, niż tylko do jednego GTX 960. podsumowanie Pojedyncza mocna karta ZAWSZE będzie pod każdym względem lepsza, niż kilka słabszych kart. W mojej ocenie multi-GPU ma tylko sens, gdy posiadamy bardzo mocny procesor oraz high-endową kartę graficzną (obecnie byłby to GTX 980 Ti / GTX Titan X / R9 Fury / R9 Fury X) i w dalszym ciągu brakuje nam FPS. W innych wypadkach multi-GPU totalnie mija się z celem. Np. w czasach GTX 4xx ludzie się "wycwanili", gdyż dwie sztuki GTX 460 dysponowały teoretycznie porównywalną mocą, jak GTX 480, a przy tym były tańsze. Jakimś dziwnym trafem po niezbyt długim czasie ci userzy masowo złorzeczyli, sprzedawali GTX 460, przesiadali się na GTX 480 i byli zadowoleni. Ogólnie konfiguracje wielokartowe sa fajne, jak bijemy rekordy w benchmarkach na HWBot. Do codziennego użytku bym sobie je odpuścił, bo po tak wielu latach ta technologia wciąż jest zbyt niedopracowana.
  6. Witam, Jako posiadacz zestawienia AMD + AMD chciałbym poruszyć kwestie narzutu kart AMD na CPU. Czy faktycznie jest to dokuczliwe? Czy jednak jest to tylko niepotrzebnie napompowany balon. Faktem jest, że nie gram zbyt często w gry fabularne, od dłuższego czasu pogrywam jedynie w CS:GO czy w LoLa, jednak w tym czasie kilka gier przeszedłem lub co najmniej zacząłem i jestem na jakimś tam etapie. Moim przykładem, być może złym, będzie Tomp Raider 2013. Gre przeszedłem na bardzo dobrym poziomie płynności na detalach wysokich w Full HD. Jaki % tej stanowiły miejsca procesorowe, w których było czuć spadek wydajności? ~5-10%, oczywiście nie był to spadek przez, który nagle z 50-60fps chrupło mi poniżej 20fps. Zazwyczaj klatki spadały do poziomu ~40fps, było to odczuwalne ale w żaden sposób nie przeszkadzało. Z moich małych obserwacji wynika, że grach tego typu, miejsca procesorowe stanowią tylko kilka % całej gry, więc czy jest sens dmuchać w ten balonik, który rozpoczął pewien portal? To jest oczywiście moje osobiste zdanie, dlatego chce żebyście się do tego odnieśli i przedstawili swój punkt widzenia na ten temat.
×
×
  • Utwórz nowe...