-
Postów
3 682 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
4
Treść opublikowana przez lukadd
-
Wszyscy to nie, ale część będzie. Ten czas tak zapierdziela, że masakra. Przecież już 5 lat niedługo pyknie od premiery PS5 i ceny 80euro jaką Sony wtedy zapodało za ich gierki AAA
-
Gry indie, niezależne, niskobudżetowe - temat oficjalny
lukadd odpowiedział(a) na daerragh temat w Gry komputerowe (PC)
Czaiłem się, czaiłem i w końcu po patchu 1.3 i poprawkach do gry nadeszła ta chwila Wczoraj zakupiłem, gram i zapowiada się kawał solidnej przygody -
Napisz do Jensena mamy już cel nr. 1 Od wielu lat im bruździ i nie tylko im, Asusowi i wszystkim innym corpo wytyka babole. Nie wiem dla czego dalej go jeszcze nie zniszczyli Chłop wręcz twierdzi, że ta premiera Blackwell dla graczy to najgorsza premiera jaki wypluła nvidia od ~15 lat i ma na to argumenty A nie jak @xtn pisze bajeczki o ubijaniu wydajności w sterownikach bez żadnych dowodów.
-
To źle sprawdzałeś. Jest dziesiątki tysięcy youtuberów, wiele serwisów i znanych ogarniętych testerów którzy za taką sensację gdyby była faktem zrobiliby miliony wyświetleń i hajsy by same wpadały. Nie ma sensu dalej prowadzić tej dyskusji, nie ma żadnych dowodów na twoje "teorie".
-
Powiem po gordonowemu - bzdura. Popatrz mój post wyżej na test wydajności GPU w Murzynie. Dla czego jest tylko 18.5% przewagi 5090 nad 4090? Dla czego nvidia nic nie zrobiła w sterach, dla czego nie ograniczyła poprzedniej generacji? Przecież mogła Przecież według twojej teorii nvidia powinna tak ustawić stery, żeby przyciąć wydajność starszej generacji o np. 20% i 5090 odleciała by od 4090 No, ale teraz się zastanów jakby tak zrobili to co z wynikami np. GPU od AMD? Co wtedy stałoby się na wykresie i gdzie wylądowała by 4090tka od nvidii, no wylądowałaby poniżej 9070XT Co by się stało z 4080 jakby jej obcięli w sterach 20%. No wylądowała by na poziomie RX 6900XT I tak dalej możesz sobie odjąć od każdego GPU nvidii z poprzedniej generacji i jeszcze wcześniejszych. Marketingowo to była by tylko strata dla nvidii i nie robią tego, bo gdyby tak robili to Radki tłukły by ich na wykresach. A 2-5 letnie GPU dalej się liczą. Dalej są testowane w najnowszych grach, pojawiają się na wykresach i muszą wyglądać
-
No, ale wiesz jak działa średnia? Jedna gierka do przodu 20%, druga 35%, trzecia 50% i średnia wychodzi 35% Te ~30 czy ~35% z premierowych testów to były średnie z danych puli gier testowych, a nie wybrane tytuły, w teście tomcuga na ITH 5090tki nawet w "starych" Szczurach 2 też masz przewagę ponad 50% nad 4090, a w innej grze jak np. AC: Mirage zaledwie 14% przewagi 5090 nad 4090 Średnia z czasem trochę wzrośnie, przez lepsze wykorzystanie ulepszeń archi w nowej generacji, ale cudów nie oczekuję. Dalej będą się trafiać gierki które będą gorzej sobie radzić. Ostatni Murzyn Niecałe 19% do przodu tylko.
-
Jeśli chodzi o wygodę. To pewnie kwestia preferencji, ale mi na SD mimo, że jest znacznie cięższy i większy gra się zdecydowanie wygodniej. Przez to wyprofilowanie świetnie się mi go trzyma, kciuki leżą bardzo wygodnie na gałkach, dostęp do przycisków/krzyżaka jest bardzo wygodny. Grając się na nim czuję się jakbym grał na wygodnym padzie. Switch 1 przez to, że jest tak mały, to czuję się jakby był stworzony dla dziecięcych rączek, da się do tego przyzwyczaić, ale nie jest to za wygodne mimo niskiej wagi.
-
Moja 3080 Strix też od premiery do dziś bez zmiany pasty i dalej trzyma spoko tempy. Mimo, że była grubo grana i teraz w drugim kompie syn też całkiem sporo grywa, to jednak nie była katowana na mega wysokich tempach. 99% to UV i relatywnie niskie tempy na GPU do ~65 stopni. O dziwo termopady na pamięciach nawet wytrzymały A karciocha swojego czasu w przerwach od grania odkopała swoją premierową cenę wielokrotnie
-
Dziwne, że nie zrobią takiego, Switch lite bez docka jest, mogliby zrobić w drugą stronę, bez ekranu tylko pod TV.
-
Jak patrzę po fpsie to wygląda, że w KCD1 nie zmieniłeś suwaków odległości po obniżeniu ich wcześniej na zero. MSI af i monitorowanie mocy, miałem też problem, ale w KCD2, tyle, że na średni raczej nie wpływał, po prostu 1% low był bidny i stutter.
-
Ogólnie Stalker 2 to też babol od strony CPU. 3440x1440 to nie jest za wysoka rozdzielczość dla 5090tki. Cyberpunk też ma swoje miejsca bardziej procesorowe.
-
The Last of Us Part II Remastered - PS5, PC
lukadd odpowiedział(a) na azgan temat w Gry komputerowe (PC)
Teraz nie, ale za jakiś czas będę drugi raz ogrywał na PC. -
The Last of Us Part II Remastered - PS5, PC
lukadd odpowiedział(a) na azgan temat w Gry komputerowe (PC)
Cóż nie każdemu może się spodobać jak jest prowadzona gra fabularnie, w jaką stronę poszła, itd. Ale nie znaczy to, że gra jest zła, dalej jest bardzo dobra -
Testowanie GPU w KCD1 gdzie gra ma zwaloną optymalizację od strony CPU to słaby pomysł. Weź sobie w tej miejscówce z płotkiem daj suwaki w ustawieniach graficznych na zero, konkretnie odległość przedmiotów i odległość szczegółów i zobacz ile fps wzrośnie
-
9800x3d chcesz mu wymieniać na 14700k ?
-
The Last of Us Part II Remastered - PS5, PC
lukadd odpowiedział(a) na azgan temat w Gry komputerowe (PC)
No miniaturka podrasowana Nie pierwszy i nie ostatni raz. -
The Last of Us Part II Remastered - PS5, PC
lukadd odpowiedział(a) na azgan temat w Gry komputerowe (PC)
Jak nie widać, kliknąłem tyko na chwilę ~4 minutę i w ruchu CNN ma widoczne migotanie na brodzie, włosy, drobne elementy, Transformer jest znacznie stabilniejszy. -
A jeszcze dochodzi kwestia budy i jej wentylacji w idle. Jeden będzie miał wyłączone wentyle w budzie w idle, inny 300-400, jeszcze inny w idle 600-800rpm itd. Wielkość budy różna i tempy w idle/pulpit/www/youtube na GPU przy 0 rpm w każdych różnych warunkach będą inne.
-
Chyba, że co dwie generacje zmiana
-
4090 był kozak sam miałem premierowo zamówionego. ~70% w grach nad 3090 robił premierowo w rastrze, a w RT jeszcze więcej Teraz to nie ma o czym gadać Dla tego 95% tematu to offtop
-
Niby dla czego tak twierdzisz Siedzisz na tym forum podobnie jak ja non stop , więc powinieneś pamiętać jakie mam i miałem nastawienie nawet już po przedpremierowym ujrzeniu specu tych GPU Po premierze, bidnych wynikach wydajności w nowej generacji itd. w normalnym trybie jest już prawie 0% szans Jedynie mógłbym się zastanawiać gdyby mi 4090 padło, gwarancja się na mnie wypięła, a naprawa w zewnętrznym serwisie się nie kalkulowała. Wtedy byłby cień szansy.
-
Nvidia przegięła pałę w tej generacji. Nie tylko chodzi o słaby wzrost wydajności względem poprzedniej generacji, nie tylko o to, że znowu jest drożej. Ale to, że aż tak na chama limitują ilość układów wprowadzanych na rynek, aby trzymać wysokie ceny. W tym gównie nawet normalnie krzywej nie można ustawić, babole w sterach itd. Nie ma o czym gadać. Proponuję spacer na świeżym powietrzu tak jak @Kadajo dzisiaj zrobił
-
Pytasz to odpowiem Nic z tego. Pomijamy tą bidną generację zostajemy na 4090 i zobaczymy co pokaże 6090
-
A bios Asusa do 4090 1000W Oczywiście nie był oficjalnie wrzucony w żadnym ich GPU, ale był wydany i udostępniony overclockerom. Ogólnie dostępny w necie Nvidia jeśli ma coś do tych biosów to tylko kwestia ich zgody na wydanie przez danego producenta/partnera biosu z takimi większymi limitami. 400 vs 450W przy 5080 nie robi żadnych cudów. Ponad 95% tych watów idzie w kosmos, a nie wydajność przy tym tak skrojonym 5080
-
Dzisiejsze GPU mają ogólnie więcej jednostek, ale te jednostki nie skalują się z wydajnością proporcjonalnie do ich ilości. To co robi nvidia to jest tylko kwestia krojenia i ustawianie segmentów watami pod określone półki cenowe. 5080 ma być widocznie słabsze i jest od 5090, żadne waty tutaj nie pomogą. Jakby nie żydzili to w 360W 5080tce spokojnie mogli dać 14-15k cuda itd. to by przyniosło więcej fajności, niż pompowanie dodatkowych 100W po odblokowaniu w OC w wybranych modelach od AIB
