Skocz do zawartości

lukadd

Użytkownik
  • Postów

    3 682
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    4

Treść opublikowana przez lukadd

  1. lukadd

    Nintendo Switch 2

    Wszyscy to nie, ale część będzie. Ten czas tak zapierdziela, że masakra. Przecież już 5 lat niedługo pyknie od premiery PS5 i ceny 80euro jaką Sony wtedy zapodało za ich gierki AAA
  2. Czaiłem się, czaiłem i w końcu po patchu 1.3 i poprawkach do gry nadeszła ta chwila Wczoraj zakupiłem, gram i zapowiada się kawał solidnej przygody
  3. Napisz do Jensena mamy już cel nr. 1 Od wielu lat im bruździ i nie tylko im, Asusowi i wszystkim innym corpo wytyka babole. Nie wiem dla czego dalej go jeszcze nie zniszczyli Chłop wręcz twierdzi, że ta premiera Blackwell dla graczy to najgorsza premiera jaki wypluła nvidia od ~15 lat i ma na to argumenty A nie jak @xtn pisze bajeczki o ubijaniu wydajności w sterownikach bez żadnych dowodów.
  4. To źle sprawdzałeś. Jest dziesiątki tysięcy youtuberów, wiele serwisów i znanych ogarniętych testerów którzy za taką sensację gdyby była faktem zrobiliby miliony wyświetleń i hajsy by same wpadały. Nie ma sensu dalej prowadzić tej dyskusji, nie ma żadnych dowodów na twoje "teorie".
  5. Powiem po gordonowemu - bzdura. Popatrz mój post wyżej na test wydajności GPU w Murzynie. Dla czego jest tylko 18.5% przewagi 5090 nad 4090? Dla czego nvidia nic nie zrobiła w sterach, dla czego nie ograniczyła poprzedniej generacji? Przecież mogła Przecież według twojej teorii nvidia powinna tak ustawić stery, żeby przyciąć wydajność starszej generacji o np. 20% i 5090 odleciała by od 4090 No, ale teraz się zastanów jakby tak zrobili to co z wynikami np. GPU od AMD? Co wtedy stałoby się na wykresie i gdzie wylądowała by 4090tka od nvidii, no wylądowałaby poniżej 9070XT Co by się stało z 4080 jakby jej obcięli w sterach 20%. No wylądowała by na poziomie RX 6900XT I tak dalej możesz sobie odjąć od każdego GPU nvidii z poprzedniej generacji i jeszcze wcześniejszych. Marketingowo to była by tylko strata dla nvidii i nie robią tego, bo gdyby tak robili to Radki tłukły by ich na wykresach. A 2-5 letnie GPU dalej się liczą. Dalej są testowane w najnowszych grach, pojawiają się na wykresach i muszą wyglądać
  6. No, ale wiesz jak działa średnia? Jedna gierka do przodu 20%, druga 35%, trzecia 50% i średnia wychodzi 35% Te ~30 czy ~35% z premierowych testów to były średnie z danych puli gier testowych, a nie wybrane tytuły, w teście tomcuga na ITH 5090tki nawet w "starych" Szczurach 2 też masz przewagę ponad 50% nad 4090, a w innej grze jak np. AC: Mirage zaledwie 14% przewagi 5090 nad 4090 Średnia z czasem trochę wzrośnie, przez lepsze wykorzystanie ulepszeń archi w nowej generacji, ale cudów nie oczekuję. Dalej będą się trafiać gierki które będą gorzej sobie radzić. Ostatni Murzyn Niecałe 19% do przodu tylko.
  7. lukadd

    Nintendo Switch 2

    Jeśli chodzi o wygodę. To pewnie kwestia preferencji, ale mi na SD mimo, że jest znacznie cięższy i większy gra się zdecydowanie wygodniej. Przez to wyprofilowanie świetnie się mi go trzyma, kciuki leżą bardzo wygodnie na gałkach, dostęp do przycisków/krzyżaka jest bardzo wygodny. Grając się na nim czuję się jakbym grał na wygodnym padzie. Switch 1 przez to, że jest tak mały, to czuję się jakby był stworzony dla dziecięcych rączek, da się do tego przyzwyczaić, ale nie jest to za wygodne mimo niskiej wagi.
  8. lukadd

    NVIDIA RTX 40x0

    Moja 3080 Strix też od premiery do dziś bez zmiany pasty i dalej trzyma spoko tempy. Mimo, że była grubo grana i teraz w drugim kompie syn też całkiem sporo grywa, to jednak nie była katowana na mega wysokich tempach. 99% to UV i relatywnie niskie tempy na GPU do ~65 stopni. O dziwo termopady na pamięciach nawet wytrzymały A karciocha swojego czasu w przerwach od grania odkopała swoją premierową cenę wielokrotnie
  9. lukadd

    Nintendo Switch 2

    Dziwne, że nie zrobią takiego, Switch lite bez docka jest, mogliby zrobić w drugą stronę, bez ekranu tylko pod TV.
  10. Jak patrzę po fpsie to wygląda, że w KCD1 nie zmieniłeś suwaków odległości po obniżeniu ich wcześniej na zero. MSI af i monitorowanie mocy, miałem też problem, ale w KCD2, tyle, że na średni raczej nie wpływał, po prostu 1% low był bidny i stutter.
  11. Ogólnie Stalker 2 to też babol od strony CPU. 3440x1440 to nie jest za wysoka rozdzielczość dla 5090tki. Cyberpunk też ma swoje miejsca bardziej procesorowe.
  12. Teraz nie, ale za jakiś czas będę drugi raz ogrywał na PC.
  13. Cóż nie każdemu może się spodobać jak jest prowadzona gra fabularnie, w jaką stronę poszła, itd. Ale nie znaczy to, że gra jest zła, dalej jest bardzo dobra
  14. Testowanie GPU w KCD1 gdzie gra ma zwaloną optymalizację od strony CPU to słaby pomysł. Weź sobie w tej miejscówce z płotkiem daj suwaki w ustawieniach graficznych na zero, konkretnie odległość przedmiotów i odległość szczegółów i zobacz ile fps wzrośnie
  15. 9800x3d chcesz mu wymieniać na 14700k ?
  16. No miniaturka podrasowana Nie pierwszy i nie ostatni raz.
  17. Jak nie widać, kliknąłem tyko na chwilę ~4 minutę i w ruchu CNN ma widoczne migotanie na brodzie, włosy, drobne elementy, Transformer jest znacznie stabilniejszy.
  18. A jeszcze dochodzi kwestia budy i jej wentylacji w idle. Jeden będzie miał wyłączone wentyle w budzie w idle, inny 300-400, jeszcze inny w idle 600-800rpm itd. Wielkość budy różna i tempy w idle/pulpit/www/youtube na GPU przy 0 rpm w każdych różnych warunkach będą inne.
  19. Chyba, że co dwie generacje zmiana
  20. 4090 był kozak sam miałem premierowo zamówionego. ~70% w grach nad 3090 robił premierowo w rastrze, a w RT jeszcze więcej Teraz to nie ma o czym gadać Dla tego 95% tematu to offtop
  21. Niby dla czego tak twierdzisz Siedzisz na tym forum podobnie jak ja non stop , więc powinieneś pamiętać jakie mam i miałem nastawienie nawet już po przedpremierowym ujrzeniu specu tych GPU Po premierze, bidnych wynikach wydajności w nowej generacji itd. w normalnym trybie jest już prawie 0% szans Jedynie mógłbym się zastanawiać gdyby mi 4090 padło, gwarancja się na mnie wypięła, a naprawa w zewnętrznym serwisie się nie kalkulowała. Wtedy byłby cień szansy.
  22. Nvidia przegięła pałę w tej generacji. Nie tylko chodzi o słaby wzrost wydajności względem poprzedniej generacji, nie tylko o to, że znowu jest drożej. Ale to, że aż tak na chama limitują ilość układów wprowadzanych na rynek, aby trzymać wysokie ceny. W tym gównie nawet normalnie krzywej nie można ustawić, babole w sterach itd. Nie ma o czym gadać. Proponuję spacer na świeżym powietrzu tak jak @Kadajo dzisiaj zrobił
  23. Pytasz to odpowiem Nic z tego. Pomijamy tą bidną generację zostajemy na 4090 i zobaczymy co pokaże 6090
  24. A bios Asusa do 4090 1000W Oczywiście nie był oficjalnie wrzucony w żadnym ich GPU, ale był wydany i udostępniony overclockerom. Ogólnie dostępny w necie Nvidia jeśli ma coś do tych biosów to tylko kwestia ich zgody na wydanie przez danego producenta/partnera biosu z takimi większymi limitami. 400 vs 450W przy 5080 nie robi żadnych cudów. Ponad 95% tych watów idzie w kosmos, a nie wydajność przy tym tak skrojonym 5080
  25. Dzisiejsze GPU mają ogólnie więcej jednostek, ale te jednostki nie skalują się z wydajnością proporcjonalnie do ich ilości. To co robi nvidia to jest tylko kwestia krojenia i ustawianie segmentów watami pod określone półki cenowe. 5080 ma być widocznie słabsze i jest od 5090, żadne waty tutaj nie pomogą. Jakby nie żydzili to w 360W 5080tce spokojnie mogli dać 14-15k cuda itd. to by przyniosło więcej fajności, niż pompowanie dodatkowych 100W po odblokowaniu w OC w wybranych modelach od AIB
×
×
  • Dodaj nową pozycję...