Skocz do zawartości

VRman

Użytkownik
  • Postów

    4 390
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    4

Treść opublikowana przez VRman

  1. Podziel cenę przez 20. Teraz już zrozumiesz. Ja dwa tygodnie wybierałem lodówkę. Kolega pracuje w Danii, poszedł i kupił pierwszą z brzegu za cenę, za jaką ja bym kupił 8 swoich. To jest przyczyna. Niektórym po prostu wyje bambosz. Stać ich to kupują. Bo albo mają bogatego tatusia, który ma dobre znajomości z politykiem, albo zarobią na wyświetleniach jak wrzucą filmiki z testami czy unboxingiem tej karty, albo robią grafikę i sobie to w kilka dni odpracują a ich denerwuje, że muszą czekać 20% dłużej na render i akurat danego dnia postanowili kupić akurat to, co jest najszybsze. Do tego ludzie kupujący 5090 do AI. Są też entuzjaści, którzy ponad 2 lata czekali, bo im brakowało mocy i teraz będzie "no trudno, drogo, ale co zrobić". Winienie graczy za wysokie ceny jest kompletnie bez sensu moim zdaniem i jest bez sensu od wielu już lat.
  2. Panooowieeee! No błagam. Nie róbcie śmietnika politycznego tutaj. Tu sobie idźcie pogadać o tematach typu ruskie pionki przejmujące władzę. Tu chcę móc wejść bez ryzyka, że się wk...urzę albo zdołuję. Tu chcę wejść przeczytać o kolejnym failu wokenowskich pasożytów w branży rozrywkowej, albo się z czegoś pośmiać. Sio z polityką światową z tego wątka!
  3. To ja doradzę zakup.. niczego. Ograj zaległości. 1660s to całkiem spoko karta. Wiem bo... od 4 lat się zabieram, żeby ją kupić. edit: a, 1660, a nie 1660s A potem albo zmień hobby, albo kup od razu coś od 5070Ti Super wzwyż, razem z monitorem 1440p. bo obecnie jest moda na gry zamydlone, które w 1080p wyglądają tragicznie, a do tego ta moda postępuje. Kupisz 4070 z nadzieją, że wystarczy na kilka lat, a tu zonk. Przepraszam. Napisało mi się 4070 zamiast 5070. To pewnie przez to, że wydajność będzie porównywalna PC gaming to teraz raczej ma sens jako zabawa dla majętnych, co mogą sobie pozwolić na bardzo szybkie podzespoły. Poczekaj spokojnie conajmniej do kwietnia, ceny 9070 i 5070 ostygną, albo będzie przynajmniej wiadomo w którą stronę to zmierza i wtedy sobie zadecyduj. PS. Ja na PC przez ostatnie 2 lata grałem z 10 godzin łącznie. Bo wolę standalone VR, którego kupiłem za 1/3 kosztu 5070tki, co też mocno polecam. Więcej to da radości niż granie w te kilka gier na PC, w które zagrasz zanim to się zamieni w złom, na którym wszystko wygląda jak zajechana kaseta VHS
  4. Są. Tylko na tym rynku mają potężnego konkurenta. Nvidię i całą resztę. Trochę podobnie do pogoni za grami live services. Wielkie korpo uznaje, że SP się nie liczy, bo oni chcą kasy jak z Fortnite'ów. I potem się okazuje, że wtopa za wtopą a jakby zostali na tym mniej atrakcyjnym (ich zdaniem) rynku gier SP, to by mieli zarobek. Nikt AMD w grach nie zagroziłby, bo już po Intelu widać ile pracy wymaga dopracowanie sterowników itp. AMD zamiast skupić się na pielęgnowaniu własnej niszy, która ma spory potencjał na wzrost, jak tylko przestanie jej się ciągle i ciągle rzucać kłody pod nogi (bardziej gigantyczne Sekwoje a nie tylko kłody). Nvidia leje na graczy, jakby tylko karty AMD nie miały jak konkurować w AI, to Nvidia moim zdaniem nie chciałaby nawet konkretnie rywalizować. Nawet jakby Radek za 2000 miał w rasterze wydajność 5080tki. Tylko teraz to musztarda po obiedzie. Za późno. Jednak mimo wszystko wydanie takiej karty z 32GB to jest wręcz symboliczny plaskacz jaki AMD robi graczom. To trochę jakby "Nvidia was spoliczkowała? My też! My też! Patrzcie! My też mamy w dupie graczy!"
  5. Czyli zamiast naprawiać rynek gaming, to AMD wesoło dołącza się do jego kopania. Bo jak inaczej rozumieć wydanie mid-endowego GPU z 32GB jak nie "patrzcie co dla nas jest ważne. GPU do giereczek skasowaliśmy, ale do AI to proszę bardzo" A zagrywka Nvidii perfidna jeśli to prawda, że przesunęli 5070 na marzec btw. takie tabelki to mogliby sobie darować: Ani nie ma ile ROP, TMU ani pixel i texel fillrate. Na pewno liczba "cores" dostarcza wszelkiego info Wychodzi, że 5070 jest 50% szybsza od 9070XT, co nie?
  6. Próbujcie się trzymać tematu, serio, bo się bajzel robi. A Gordon ewidentnie wpadł "potrollować prawaków". Nie odpisujcie mu, bo go tym karmicie. Przestaniecie karmić to mu się znudzi i pójdzie pompować swoje ego gdzie indziej.
  7. Szczęściarz. Mnie też, i też uznaję to za szczęście, choć tylko kilka gier mnie "woła". To 7 godzin oglądania. Lecieć na przyspieszonym tempie i się da. Ja się przebiłem przez wszystko. Kilka niespodzianek było, a kilka gier jakie pamiętam z recenzji w czasopismach, okazuje się jakimiś kaszanami, albo co najmniej grami nie w moim guście. Czasem w ogóle kompletnie innego gatunku się spodziewałem, a czasem to, co wyglądało wspaniale na screenshotach, okazuje się drętwotą nie wartą grania. W każdym razie pamiętajcie - nie próbować grać w gry amigowe sterowane joyem, na czymkolwiek innym niż joyu, a obraz ma być na prawdziwym kineskopowcu podpiętym przez composite, albo góra S-video. Kabel czy symulacja kabla RGB jest bez sensu moim zdaniem, bo wyłażą już za mocno piksele. Albo ekran 1440p lub 4K i emulacja kineskopu, albo prawdziwy. Ja muszę dokończyć Benefactora. Może kolejny raz podejdę do Lemingów, bo nigdy nie byłem wystarczająco mądry, że dojść do końca, a wstyd. Mądrzejszy teraz pewnie nie jestem niż 34 lata temu, ale wtedy też był problem z brakiem cierpliwości. Może teraz się nie poddam tak szybko i będę móżdżył aż wymyślę jak przejść dalej. Tribes nie pamiętam czy skończyłem, chyba nie. Ale klasyczne Lemingi (pierwsza część) na pewno mnie pokonały i to, wstyd przyznać, nawet przed końcówką. Uktnąłem już gdzieś tak 2/3 chyba. Poza tym chętnie bym sobie pograł w Hudson Hawka no i mimo głosów, że gameplay nie jest za fajny, Shadow of the Beast. Choćby tylko po to, żeby sobie podczas grania słuchać tej klimatycznej muzy. Kolega miał błąd na dyskietce i chyba nigdy dłużej niż 5 minut w SotB nie pograłem, a tymczasem remixy z muzy z tej serii słuchałem łącznie pewnie ponad 100 godzin.
  8. https://www.youtube.com/@BeardoBenjo Kiedyś coś od niego wrzucałem, ale chyba to jeszcze na labie. Kanał, na którym sobie gość odpala mody VR do różnych płaskich gierek. Hogwart's Legacy (full VR) czy Indiana Jones (w zasadzie ekran z pewnie pseudo-3D, może 3D, ale bez 6DOF) i inne. Warto zajrzeć od czasu do czasu w przyszłości.
  9. 4070s + natychmiast zacząć odkładać na AM5 PS. Jak chcesz ray tracing, path tracing, albo pograć w takie cudy optymalizacji jak Alan Wake 2 czy Monsterhunter Wilds, to odpowiedzią na pytanie "jaka karta do 1080p" jest... RTX 5090 Taki żarcik, ale szczera prawda. Natywnie na niczym wolniejszym nawet nie zbliżysz się do 60+fps. 5090tka z 1080p właśnie leci DLSSem. Monster Huntera pewnie poprawią z czasem, ale AW 2 to jest egzekucja jak włączysz PT.
  10. Trzeba na serio jakiegoś bojkotu. Prawie 1200€ za mainstreamową 60ti, ewentualnie 70 (bez Ti) bo tym jest ten chip w tej konfiguracji. Narzut MSI nie ma żadnych podstaw. Za to ile krzyczą za kilka elementów, PCB, i całą resztę, dawało się (nawet uwzględniając inflację) zrobić pięć kart z tej półki. To ma 300W. To nie jest GPU, którego są niedobory bo jeszcze karta nawet nie wystartowała. 400zł więcej niż najtańśze 4080s w sklepach pół roku temu. A ten chip ma aktywne tylko 48MB cache'u. Kij w oko Asusom i MSI, serio. Oby im bad PR spadł na łeb.
  11. Mnie jedno ciekawi. Jeśli oni mieli taką wtopę z poprzednią serią, że ludzie z tego aż memy robili, nawet nie wnikając w to czy byli winni "niedociskacze" czy Nvidia, to tak czy siak robiąc następną serię chyba oczywiste, że powinno się temu mocniej przyjrzeć. A tu jakiś ludek sobie wyciąga termowizję i ma 150°C. Jakim cudem to przeszło testy? Jeśli to się dzieje na każdej FE, to czemu tego nie wykryto zanim projekt dostał zielone światło? A jeśli to nie dotyczy każdej karty FE, to ja już nic nie rozumiem i nie wiem kto jest winny, bo obejrzałem te filmiki i ten Debauer zdaje się mieć całkowitą pewność, że to kwestia złego projektu złącza na karcie w FE i tego jednego pierdolnika zamiast trzech.
  12. Na tym filmiku widzę 60. Jeśli to interpolacja z 30fps to nie ma ona sensu. Spróbuj wrócić do tematu jak kiedyś kupisz monitor 240Hz. I wtedy próbuj 120->240 albo chociaż 90-180. Osobiście interpolacji z mniej jak 90fps nawet by mi się nie chciało testować. Przy szybkim ruchu i tak się wywali na cyce.
  13. bez wykorzystania wektorów ruchu, bazując na samym tylko przetwarzaniu gotowej klatki, jak ustawiłeś docelowo 120 to zgadywałbym, że to wymusiło źródło w 60fps. Przynajmniej to miałoby sens, bo pozwala skorzystać z ciągłości framerate'u, jeśli klatki następują w równych odstępach po sobie. Jeśli to tak działa, to ze 60fps nie ma co się spodziewać cudów. Ze 120 do 240 efekt może być o wiele, wiele lepszy. Chyba, że sam algorytm jest tak mocno uproszczony, że działa o wiele gorzej niż programy do interpolacji filmów jakie działały w odtwarzach filmów kilkanaście lat temu. W końcu ten ma o wiele razy mniej czasu do liczenia. Bawiłem się taką interpolacją na GTX 470. Przy bardzo wolnym ruchu efekty były zaskakująco dobre mimo tego, że film ma przecież 24fps. Tylko, że to zupełnie inna sytuacja. Odtwarzam może znać klatki filmu jakie nadejdą. Rozdzielczość filmów też była wtedy niższa. O ile pamiętam 480p i góra 720p wchodziło w grę przy interpolacji 24>120fps. W każdym razie 120 do 240 powinno móc działać sensownie nawet bez wektorów ruchu.
  14. Ooo właśnie! O papce zapomniałem.
  15. Ale ja przecież dokładnie to napisałem, co sugerujesz, żebym napisał. Szkoda mi czasu/nie mam czasu. Uzasadnienie dałem, żeby się ktoś nie striggerował, a jak na ironię, to striggerowało. Może błąd, że napisałem. Myślałem że jak nie napiszę, to właśnie będzie "to po co tu jesteś" i tak dalej. Prosiłem o trzy litery odpowiedzi. tak/nie. Dobra, nie było tematu. Widzę teraz, że film ma podpisane sekcje, no to gitara. Raz czy dwa jego filmy odpalałem i żałowałem, bo jestem fanem i hobbystą komputerów i gier, a nie bardzo fanem elektroniki, wtyczek i przewodności prądu. Prosiłem o info tylko po to, aby móc w przyszłości komuś coś doradzić jak będzie prosił o takie info. Mi to na serio nigdy do niczego się nie przyda. Ja nie mam wywalone na RTXy, bardzo mnie interesuje kształt rynku, jego przyszłość, sytuacja, co się dzieje. Same karty 5090 tylko z punktu widzenia rozwoju (lub jego braku) VR. Sorry za offtop*. Inni setki razy prosili o streszczenia i nikt się nie przyczepiał, ale skoro to drażni, to będę o tym pamiętał na przyszłość.
  16. ??? Masz zły dzień, czy co? Po co ta agresja? Przeprosiłem, poprosiłem grzecznie o streszczenie/potwierdzenie. Nie chcesz to nie odpowiadaj. Wystarczyło "tak" lub "nie" przy okazji pisania posta na inny temat. Nie kupuję, ale wiedzieć co się dzieje i co Nvidia odstawia z kablami, wtyczkami i innymi wtopami, wiedzieć chcę. Dla tych co kupują, jest już osobny wątek. Wyluzuj. Nie każdy ma 5 godzin dziennie na czytanie pierdół i oglądanie każdego filmiku.
  17. Nie kupię 5090, więc nie będę oglądał pół godziny Debauera rozwodzącego się na ten temat, wybaczcie. Poproszę o odpowiedź potrzebną mi do skrótowej wersji: - markowy zasilacz dobrej klasy - oryginalne kable - poprawnie wpięte i 150°C po stronie zasilacza?
  18. Tak tak, dlatego już w grudniu ceny 4xxx były wyższe, bo to przez Chiński Nowy Rok. Kolejne i kolejne mity są obalane, a niektórzy NADAL myślą, że tylko jak im wielka biznesowa szycha coś wyjaśni to warto tego słuchać niedobory bo kopanie krypto - mit obalony z hukiem musi być drogo, bo wafle drogie - a tu wyszło, że GPU do 5090 to 300-400$ (samo, nie cała karta oczywiście) Teraz te bzdury o nowym roku. Dajcie spokój. Jakoś AMD nadal połowę proców jakie sprzedaje, sprzedaje pod gniazdo AM4. Jakoś wcześniej nie było problemu, żeby na rynku były dwie serie na raz. I co to w ogóle za argument z zamianą linii. To ktoś Nvidii bronił zadbać o to, żeby były linie i dla 4xxx i dla 5xxx? Jeszcze Wam mało tego makaronu na uszach, jakie Jensen wam nawija? Może jeszcze się zgodzicie, że ma być drogo, bo R&D strasznie drogie i design chipu to "paaaanie! Myliard dolców!" kosztuje, nawet gdy seria 5xxx nie dotknęła w zasadzie nawet palcem jednego inżyniera segmentu do rasteryzacji? (Wiem, że technicznie to co napisałem to nieprawda, ale porównajcie parametry, ilość tranzystorów, wydajność, no wszystko). Gracze płacą za prace nad AI. Nvidia mogłaby wstrzymać wszelkie prace i np. 5 lat sprzedawać karty 4xxx i wiecie co? Byłoby dla graczy TANIEJ i LEPIEJ, jeśli 5090 ma kosztować 2400$ z GPU za 400$ na pokładzie i to dlatego, że to taaakie straszne koszty. Ile razy będziemy tu wspólnie tłumaczyć jak krowie na rowie: Jest drogo bo NV chce, żeby było drogo. Są niedobory bo NV albo chce niedoborów albo ma kompletnie wywalone na to, że są i nie zadbano o to, żeby nie było. Przecież oni tą premierę przełożyli o prawie pół roku. Przecież ta nowa generacja to pudrowana Ada. A niektórzy NADAL będą bronić i szukać logicznych uzasadnień. Nie wierzę w co czytam czasami. Tutaj to jeszcze luz, ale co się na redditach dzieje to po prostu masakra, a każdy post pisany elokwentnie, przez redditowca z superwielką reputacją, i wszystko tonem znawcy, poważnego byznesmena, a nie tam jakiegoś plebsu. Masakra Ło panie! Cut-me-own-throat Dibbler to zaproponował?
  19. Co to znaczy znikają posty? W dyskusję wchodzić Wam nie chcę, ale o co chodzi z tymi postami?
  20. Głupi i naiwny Carmack. Myślał, że logiką coś wskóra. Jak w korpo uznali, ze VR zdechło i nie warto, to nie warto choćby im położył na stół miliard. I tak przecież nie warto. Jakby przekonał, że to się da przekształcić w live service z mikrotransakcjami, z potencjałem na 10 miliardów, a nie jakieś tam śmieszne milion czy kilka, to wtedy tak. Swoją drogą Carmack znowu się wypowiedział o PC VR i niestety w tym miejscu chyba nie ma kontaktu z graczami i nasiąknął narracją jakichś krawaciarzy. Chciałem wrzucać newsa o tym, ale dość że sam się wkurzyłem. Po co Was denerwować. Jak ktoś chce to na https://www.roadtovr.com/
  21. Jestem z przyszłości. Odpowiedzią na to będzie tekst zawierający: - coś o tym, że znowu filmiki, a filmików to się nie ogląda. Wiedzę się ciągnie tylko z prawilnych źródeł - kilka razy coś o bańkach
  22. https://semiwiki.com/semiconductor-services/techinsights/352972-iedm-2025-tsmc-2nm-process-disclosure-how-does-it-measure-up/ Ciekawostka, która pozwoli wzmocnić moc fusów przy wróżeniu przyszłości GPU dla graczy. Z tego wynika, że 2nm GPU poniżej 1000$ za kartę, to raczej nieprędko. Pewnie dadzą 7060 na 96bit ale z toną kompletnie bezużytecznej pamięci, do tego trochę makaronu na uszach o smaku wygenerowanej klatki i starczy 3nm do 2030tego Nvidia. The way it's meant to be milked.
  23. A apropo joysticków. Ze dwa lata temu widziałem, że ktoś ma zamiar uruchomić produkcję joysticków do retro, ale porządnie zrobionych, całkiem niezłych "cyfrowych" joysticków, nie chodzi o te badzieiwie ala oryginały z Atari 2600 czy do czego tam dawali te kijki z podstawką. Wyszło coś z tego? Ktoś coś wie?
  24. Parafrazując Tomasza Lisa i jego słynną wypowiedź "Marketingowcy AMD nie są tak głupi jak nam się wydaje. Są jeszcze głupsi" Z tym to nie ma pewności. Wystarczy, że plotki o 12c CCD się potwierdzą, a AMD nie da niczego poniżej. Wtedy gracze, którym wystarczy w zasadzie góra 8 (albo i 6) rdzeni w grach, będą musieli płacić za półkę "premium" bo AMD dało dodatkowe 4 jaja wydajne i jeszcze mendel jaj low power. Może też wyjść kaszana z zarządzaniem wątkami, albo zmiany architektury na rzecz obliczeń, które popsują wydajność w grach. Różnie może być. Gracze są dziś mało ważni, więc możemy tylko mieć nadzieję.
×
×
  • Dodaj nową pozycję...