-
Postów
5 702 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
4
Treść opublikowana przez VRman
-
Bo 1% ludzi przegląda na komórce, co mi się kojarzy wręcz z masochizmem? Nawet mógłbym. Jakby faktycznie ktoś poprosił. A nie rozkazywał albo wyzywał/wyśmiewał. Jakby krytyka była konstruktywna, a nie pierdzielenie od kogoś kto nawet nie czytał, ale MU PRZESZKADZA bo za dużeo literek Podaj mi przykład gdzie mi go zabrakło, gdzie ja pierwszy zaatakowałem/obraziłem forumowicza. Jestem dumny z mojej postawy na forach w kategoriach moralności i szacunku do innych, więc kulą w płot, "kolego". Potrafię być wredny jak mnie ktoś zaatakuje ale na tym się moja "agresja i brak szacunku" kończy. Skakałbym z radości jakby wszyscy tak podchodzili do używania forum. A nawet jakby tak podchodziło 80%. No i super. Ja mam już ze trzydziestu chyba, nie liczyłem, ale na pewno ponad 15tu. Większość nawet o tym nie wie. Liczba osób, którym kazałem nic nie pisać, bo muszę przez nich scrollować wynosi 0
-
Aż poszukałem w necie bo się zaciekawiłem jaki to roguelike od Ubi przegapiłem.. a tu Wam chodzi o Prince of Asia Princoidvania Prince of Anime itp. W samym intro jest chyba 99% oklepanych motywów z chińskich bajek. Umm.. Nie daruję Ubisoftowi tego, że nazwali ten shit Prince of Persia. Świat od 20 lat choruje na pierdolca na punkcie anime i spoko, mogli tą grę zrobić, ale do ciężkiej cholery, pod innym tytułem. Ciekawe co Jordan Mechner na to. Ja na jego miejscu bym się chyba popłakał. To jakby Mozarta wydali w wersji gangsta rap ale zostawiając Mozart na okładce "płyty". Tymczasem nadciąga konfa Microsoftu, której oglądania już teraz współczuję tym, którzy stracą na nią czas
-
I można ręcznie wybierać czy chcesz M czy K i nowy nie działa z RR. Myślisz, że nie umiem czytać, Sebastianku? Z drugiej strony też mogło dość do zaniku tej umiejętności, więc może pomogę: Zauważam, że DLSS4 był cięższy od 3, a 4.5 jest cięższy od 4. I to cięższy nie jak fanboye wciskają "odrobinkę" a konkretnie bo -10 i -12% na karcie za 4-5K to dla mnie bardzo dużo, a 15 i pod 20% straty na 5070 względem i tak już cięższego 4 wygląda conajmniej niepokojąco w kontekście najbliższych lat. Zauważam też, że marketingowcom NV nie wierzę. Dalej piszę, że nie wiem jak jest, tak samo jak inni nie wiedzą, chyba że ktoś uzna gadanie marketingu Nvidii za prawdę objawioną. Wtedy 5070tka ma wydajność 4090 na przykład, a MFG oznacza poprawę wydajności. To jest po prostu inne wykorzystanie dostępnych zasobów. Tak jak obniżenie detali w grze i przejście na wyższą rozdzielczość. Tak jak podwyższenie detali w grze przy przejściu na niższą. Fanboye AI upscallerów w całym necie wiwatuje na postęp, a ja nie. I tyle.
-
-
I co jeszcze? Frytki też przynieść jaśnie panu? To jest forum PC. Na szczęście nie jest zrobione pod komórki kosztem funkcjonalności dla użytkowników PC i przeglądających na monitorach. Gdzie? Zero razy byłem proszony. Sam zacząłem zwijać z szacunku do forumowiczów i nadal to robię gdy uważam, że coś może zaśmiecać offtopem czy dygresją. Natomiast nikt inny tego nie robi, o kwestiach szacunku nie wspominając. Dopierdolki troli, bufonów i pajaców próbujących się ze mnie naśmiewać to nie "proszenie". Już pisałem - ja scrolluję 3/4 w wątkach które regularnie odwiedzam. Często straszne pierdoły typu ktoś omawiający ułożenie kabli czy omawiający jak mu karta wygląda w kompie. Zwinąłem miniaturkę do Video, dodałem kilka odstępów, żeby tekst nie był zbitą ścianą, którą trudno czytać. Napisałem w związku z tematem wątka, to nawet nie był offtop. Moim zdaniem zrobiłem co mogłem. Nie podoba się to dodaj do ignorowanych, a nie płacz mi tutaj, bo musiałeś ruszyć palcem siedząc na kiblu.
-
-
My się nie znamy. Weźmy na to taki engine od Rayman Legends: - gotowy, więc tani - łatwy port na handheldy, na Switche 1 i 2, na Steam Decka i mu podobne, na komórki, na PS4.5 (AKA 6) portable, na Xone i PS4 - już ludki ze społeczności 3D Vision zrobiły moda do 3D, więc można też wydać na VRy i MRy. Na okulary nie-VR nawet - wystarczyłoby poszukać z 5 kompetentnych osób, a jakby nie dopuścić do odejścia/zwolnienia oryginalnego twórcy to nawet mniej - to gra 2.5D. Bez realizmu, bez pracy nad kompilacją shaderów, bez materiałów z 20 warstwami, bez optymalizacji cieni. TANIO. - rynek chętnie by przywitał side-scrollowanego platformera na wysokim poziomie. ryzyko dla Ubisoftu = 0 szanse finansowego sukcesu = 100% efekt w postaci poprawy wizerunku Ubi - obecny Ale nie. Po co. To nie gra jako usługa, a Rayman nie jest szowinistyczną męską świnią, którą trzebaby zmienić na postać kobiecą. Ray-woman i historia o tym, jak kobiety miały przesrane w baśniowej krainie raczej by nie przeszła... chociaż... Powiem tak: Lepsze anulowanie niż rozwalenie marki jak ostatni Prince of Asia, albo Metroid Prince, albo Prince of Pokemons (bo to by pasowało lepiej do gry nazwanej Prince of Persia) Ci debile nawet Splinter Cella anulowali. Nie lubię skradanek, nie grałem w żadnego Sama Fishera poza jedynką na Klocku w 2002r. Ale ta gra ma mnóstwo fanów i seria była bardzo popularna i lubiana. Ale nie. Lepiej poczekać 20 lat aż fani serii wymrą, a potem zmienić Sama w Sami, zmienić jej kolor skóry na taki bardziej opalony kolor, wydać w 2035-tym i pomarudzić, że "ewidentnie ludzie już nie chcą gier SP"
-
Rok 2030: To ostatnia Nviiiidiaa... Więcej nie dostanieeeemy Koniec rastra powieeeemy A Radeon szajs To ostatnia Nviiiidiaaa Więc odłóż ją dla mniee I drugą jak ta paaadnie A Radeon szajs
-
Polityka w Polsce i na Świecie - wątek ogólny
VRman odpowiedział(a) na Spl97 temat w Dyskusje na tematy różne
Dosłownie minuty temu napisałem, że wcale nie jest pewne, że trumpiści oddadzą władzę, bo Demokraci są tak nędzni i tak odpychający, że nawet Vance może wygrać prezia a inne ruskie dupolizy parlament. Newsom nie jest nielubiany. Go prawa strona postrzega dokładnie tak dobrze jak lewa postrzega Trumpa. Nic. Kompletnie NIC się nie nauczyli po wyborze Clintonowej i Kamali. Absolutnie nic. Aż się mi na dole okularów niemal pojawiają żółte napisy z teorią spiskową, że ktoś to robi specjalnie, żeby nie było na kogo głosować. Newsom to jest porażka. Nie uczą się od naszych, a by mogli. Wystarczyło wyciągnąć jakiegoś ex-kibola, którego nikt nie zna i cyk - wygrał. A Demokraci nie rozumieją, że żaden ze znienawidzonych polityków z ich obozu nie da rady przeciągnąć na swoją stronę tych po środku i tych po prawej, którzy ostatnio głosowali na Trumpa na zasadzie "byle nie Kamala". -
Wojny i konflikty zbrojne na świecie
VRman odpowiedział(a) na Camis temat w Dyskusje na tematy różne
Nie bądź taki pewien. Wcześniej mówili, że Trump na pewno nie zostanie preziem USA. Potem że traci kasę na kampanię, bo drugi raz go za cholerę nie wybiorą, nie ma szans! Demokraci to skorumpowana grupa cwaniaków, pajaców i szkodników. Trumpiści nie mieliby szans gdyby ludzie mieli sensowną alternatywę w wyborach. Ta sama metoda u nas. Wybierz międzi pisem a KO. Cholerą a Dżumą. Jak władzę przejmą ruskie wdupowłazy typu J.D. Vance czy Marjorie Taylor Greene, to ta rada zostanie. Dlatego powtarzam - najważniejsza wojna toczy się teraz nie na Ukrainie i nie przy użyciu pocisków i bomb. Najważniejsza wojna to wojna informacyjna. Lepiej przegrać militarnie Ukrainę ale przejąć np. rządy w USA niż wygrać Ukrainę militarnie. Widać mocodawcy pacynek jak Trump czy Orban (na Kremlu czy Pekinie, to mniej ważne) wierzą w długoterminowy sukces wojny informacyjnej. -
X3D nie mają żadnej mitycznej, ukrytej wady - AMDip. Rozejrzymy się. Poziom jakości programowania dookoła woła o pomstę do nieba. Błąd na błędzie, debilizm na debilizmie, olewka na olewce. Nowe komputery mają bałagan z zarządzaniem wątkami (nawet na procach bez e-cores i bez rodziału na 2 CCD), często coś trzeba robić na ślepo, bo nie wiadomo co robią inni - OS, sterowniki, API, silnik gry, DRMy w tle. To jest bajzel i żeby go nie było, wszyscy musieliby uznać, że brak stutteru i PC gaming są bardzo ważne. Niestety nawet tu w tym wątku widać ignorancję pomieszaną z durnotą, a co dopiero tłumaczyć krawaciarzowi w korpo, który w nic nigdy nie grał, że ktoś narzeka, że mu z 300fps spadło do 150fps na moment, albo że coś przytnie jak się idzie. Przecież "grać się da w 20fps, ja tak przeszedłem kiedyś masę gier i się świetnie bawiłem!". Jeden będzie grał tak bardzo na limicie GPU, że nie zobaczy niczego. Inny uzna, że on nie widzi u siebie, to inni pewnie sobie wymyślają problem. Jeszcze inny będzie "testował" na monitorze VA i myszką z Biedronki za 9.99zł i powie "nie mam żadnych stutterów!" Nisza z niszy z niszy z niszy - to posiadacze procków X3D Przecież tu wystarczy kwestia skonfigurowania kodu gry i wszystkiego innego, żeby się pojawił problem. Jak zabraknie woli (czy to u producenta OSu/API, czy developera gry, czy producenta procesora, czy producenta DRMu czy kij wie czego tam jeszcze) to robi się stutter. Przecież bywało, że konfiguracja cache'u w procu nie została uwzględniona przez twórców gry, żeby zaczęły się jaja. W drugą stronę - widziałem nie raz, że gra chodzi dobrze tylko na tym, na czym akurat siedział pan programista robiący kod gry. Jak taki ma tylko 9800x3D, to może być problem na Intelach. Jak ma 12900K to może być stutter na 9800X3D. Przecież w korpo nikt nie pozwoli programiście "marnować" czas na optymalizację w obrębie micro-stutteru, bo problemem nazywają tylko to, co skutkuje spadkiem poniżej 30fps. A, jeszcze funkcje automatycznego sterowania zegarami i funkcje oszczędzania energii. To zawsze powodowało problemy i przez pierwsze 8 lat tego nie ogarnęli, co sprawia, że ja na zawsze pozostanę podejrzliwy. Od C2D czytam na forach, że nie ma z tym problemu. A potem wychodzi, że jest. Przez 2006-2014 zawsze był, wbrew temu co wypisywali "spece" z for. To jest po prostu kwestia uznania czegoś za ważny problem vs. olania. I dlatego raz X3D wypada super, a innym razem jest tragedia jak w tym filmiku z Overwatchem 2 i 14900k kręcącym 200% wydajności 9800X3D w lows.
-
Oj tam, zdarza się. To na pewno niechcący. Taka mała firemka, takie drobne sumy. Normalne, że się pomylili i zrobili "overbook". Przecież nie zrobiliby tego specjalnie. Tymczasem DLSS 4.5: https://www.youtube.com/watch?v=ReuL0ei39vE Ładnie marketingowcy Nvidii zrobili ludziom wodę z mózgu. Nawet tu na forum "to super postęp jest! Niewielka strata na nowych kartach!" A tu na 5070Ti mamy w 4K spadki o - ~10% w avg - w następnej grze 12-13% w lows i avg - następna gra i znowu widać ~10% Nvidia dała z tym 4.5 tyle, że wygląda jakby nie zrobiła nic, tylko przesunęła suwaczek, przestawiła jakiś algorytm na inny, cięższy, ale lepszy - więcej obliczeń, sporo więcej poboru prądu, lepszy efekt. Cały internet klaszcze uszami, że taki wspaniały postęp jest. Niech żyje nowy wspaniały DLSS 4.5, który nie ma wad. Wcześniej prawie nie miał wad 3, ale zaczął mieć po premierze 4, a potem 4 był praktycznie bez wad, no cud miód i orzeszki... ale teraz już ma wady, bo 4.5 jest super. No i spadek wydajności jest nieważny, bo Nvidia powiedziała, że 4.5 to jest do performance i ultraperformance. Z takimi marketingowcami to powinna do gry wrócić konkurencja typu S3, wystarczyłoby powiedzieć, że to karta do 240p i gitara. Jak ktoś testuje wyżej to nie umni. Niestety pokrywa się to z wynikami z innych źródeł. Na kartach typu 5070Ti jest cholernie duży koszt użycia 4.5 w 4K (jak na samą różnicę między DLSS 4 a 5, jakby ktoś zrobił bez AA vs 4.5 to dopiero by szczęki opadły) i karta kończy się w zasadzie na 1440p jeśli ktoś nie chce istotnej straty wydajności. Na 5070 w ogóle jest porażka bo pewnie potwierdziłyby się doniesienia o dobijaniu do 15-19% straty całkowitej wydajności, co oznacza, że czas liczenia 4.5 jest drastycznie dłuższy niż 4 nawet na kartach jakie za chwilę zajmą cenową półkę "około 3000zł", ale i tak fanboye DLSSów będą wypisywać pierdolety, że to tylko kilka procent a na starych kartach 15-20%. No nie nazwę 5070 starą kartą. No i że postęp jest! W sumie to mogą dalej przesunąć suwak w serii 6000, a na DF i tak będzie klaskanie uszami i dziękowanie za postęp i ogólnie AI w grach Żeby nie było: Fajnie, że jest taka opcja, sam czasem pewnie skorzystam z 4.5. Rozumiem, że obraz z 4.5 ma często mniej wad niż 4. Nie hejtuję, nie troluję. Po prostu ręce mi opadają jak czytam nawet na tym forum, jak ludzie się do tego "postępu" brandzlują. Ci ludzie (wszyscy, na wielkich redditach i YT, nie że tylko ludzie na tym forum) nawet nie wiedzą, że Nvidia obserwuje reakcje i te reakcje nakłaniają ją do jeszcze większej bezczelności w następnych seriach. Dostaniemy odgrzewaną Adę w roku 2028, ale się podkręci Ajaje, podkręci koszt DLSSów,potem znowu i potem wyjdzie, że 7050 64bit jest tak szybki jak 4090, bo "przecież nikt nie gra dziś bez DLSSu, więc porównania tylko z DLSS są OK" i że w ogóle to mniej prądu bierze i jest zajebisty postęp i nie ma co narzekać.
-
A widziałeś karty w MSRP na start w serii 5xxx? Karta po 5 latach od premiery karty na gównianym procesie Samsunga, który już wtedy cholernie odstawał, bo był niczym innym jak pudrowanym, gównianej wersji 10nm, które było tak złe, że powinno się nazywać 18nm a nie 8nm Mi tam zwisa ile karta pobiera. Jestem ciepłolubny. Jakby dali 5090 bez AI na 12nm z 1000W poboru ale za 2000zł to bym kupił Co nie zmienia faktu, że orbitujące ceny 5060ti 16GB przekraczały barierę 2000
-
Dużo AI. Ale za mało czaszek
-
Gościa nie szanuję, bo nie raz gadał jak idiota. Ma przerost ego i nieświadomość, że może czegoś nie wiedzieć i gadać bzdury. Ogólnie to już ze 2 lata temu odkrył supertajną wiedzą o tym, że AMD jest do dupy, ale niestety poważni recenzenci nie wiedzą jak wykazać te straszne problemy, które są na AMD ale nie na jego Intelach. Z drugiej strony zauważam, że na tym filmiku mówi też trochę z sensem: gdy mówi, że kit z tym że jest drop do 250fps czy 300fps co wydaje się spoko, bo on to wyraźnie czuje, że się bardziej męczy i że "być może rozpuściło mnie granie na 480 i teraz chcę mieć tą jakość obrazu w ruchu". Cokolwiek jest prawdą w temacie problemu w tej grze, to gość na pewno ma rację w tym, że to nie jest kwestia pomijalna. To, że zaobserwował to akurat on, nastawiony na multi i na e-sport, to przypadek, bo sterowane myszką gry SP wypadłyby dokładnie tak samo tylko.. jakoś tak mało która gra SP leci w 500fps. Ostatnio jest postemp i 50fps na topowych kompach
-
Szkoda, że nie ma szans na uwolnienie kodu Battlefielda 2. W tydzień modderzy by zrobili wersję VR zjadającą tą toporną amatorszczyznę. Mimo wszystko to jednak najlepszy Battlefield na standalone VR, bo po prostu innego nie ma, więc będę się łudził, że a) w ogóle gra kiedyś wyjdzie z EA b) że przejdzie taką cud przemianę jak No Man's Sky, na co jest szansa 1 do 10000.
-
Już 2-3 lata temu pisałem, że to debile (zarząd Ubi) bo jako pierwsi skasowali dobrze się zapowiadające gry VR. No ale przecież to są fachowcy od biznesu. Oni wiedzą lepiej! No to wiedzieli i zrobili: Wincyj live services i wincyj "player engagement". Wincyj parcia na woke kosztem kompetencji. I ray-tracing. (tak, to ostatnie to może robić za coś ala zasmażka OTTO)
-
Zapomniałem, że nie umiesz odpuszczać. Dobra, to ja to zrobię
-
Tak. Bo wtedy to był top. Najwyższa półka w gamingu. A teraz czym jest gówniane 26.5" w porównaniu do np. 49" 21:9? Czym jest 1440p w porównaniu do 6K? Tamten monitor miał G-sync, 3D Vision 2, ULMB. 144Hz. A po 11-tu latach oni wyskakują z ceną jakby nadal był rok 201x. Oczywiście, że OLED a nie LCD, ale to przecież nie zmienia sytuacji gdy OLEDy 1440p 240Hz są po 1800 (promocje) przez 2100 (takie se) i 2500 (bardzo fajne monitorki) Przegięli pałę z ceną jak cholera i nie ma co się o to kłócić. W ogóle nie ma się co kłócić Sam pisałem w tym lub innym wątku, że Pulsar pewnie będzie w chorej cenie, ale ostatnio pojawiają się sygnały, że będzie za 2xxx, co jest przegiępiem pały, ale nie skandalem. Przynajmniej oferuje coś, czego absolutnie żaden monitor (poza starociami jak mój) nie oferuje - dobry obraz (choć nie żyletę) w ruchu bez konieczności trzymania FPSu powyżej 400fps. To przynajmniej ma sens. Za 1900-2500 jest kilka różnych modeli na różnych technologiach, jeśli Ci ten nowy Gigabanding OLED nie pasi No własnie, ale tu się płaci, a nie dostaje. Nie ma nawet tych 720 w natywnej. Jakby było 1000Hz - OK, monitor idealny w ruchu, pierwszy bez stroboskopu/BFI osiągający takie coś. Pewnego rodzaju mini-przełom, "checkpoint". Wtedy bym tej ceny (aż tak) nie wyśmiewał. I jakie 70% jeśli 1440p 240Hz 27" OLED kosztują z marżą 2200-2500? Tu jest nowy panel i jak pisałem, elektronika droższa o góra 100$ na cały monitor. Jak mam płacić 1000 za AI które wykryje że mnie nie ma, to chyba wolę nacisnąć przycisk wychodząc Zresztą to można zrobić bez AI. Na LCD. Na OLEDach zawsze różnica będzie aż do 1000Hz, potem zresztą też, ale mniejsza i nie wiem czy OLED (jako technologia) będzie na tyle szybki, żeby ogarnąć więcej. Tylko że to się nie liczy tak, że 60+60=120 więcj 240+60 to taka sama różnica. Tu chodzi o czas trwania klatki, czyli frame persistence. Przy 120Hz masz 8ms, a przy 240Hz masz 4ms. Przy 480Hz masz 2ms, a przy 540 masz tylko 11% mniejsze rozmycie, gdy 480>960 dałoby o 2x mniejsze rozmycie, albo inaczej - obiekt w ruchu zachowałby ostrość przy 2x szybszym ruchu. Dlatego 540 zamiast 480 jest o kant dupy potłuc, choć już 480> ~700 dałoby bardzo wyraźną poprawę, co zresztą widać na testach dual mode 720Hz, tylko co z tego jak nikt dziś nie będzie grał w 720p, a jak jest (jak ja) bardzo wymagający odnośnie ruchu to wybierze Pulsara choćby miał cholernie kwaśną minę buląć pierdylion monet za zabytkową technologię LCD. Nie no, nie przesadzaj. Gra się w 1080p - to się zgodzę. A poza tym dla mnie Hz i jakość obrazu w ruchu to najważniejsze parametry a lamię tak, że w profesjonalnym e-sporcie mógłbym grać tylko jako element rozsmieszający. Nawet na poziomie zwykłem jestem już zbyt stary i zbyt mający problemy ogólno-zdrowotne, żeby rywalizacja miała jakikolwiek sens. A mimo to będę pierwszy do polecania OLEDa 720Hz zamiast 500Hz jak tylko będzie to w natywnej albo np. 1440p na ekranie 2880p, a dopłata to będzie kilka stów czy np. tysiak przy cenie 5K. Sam pomysł na więcej Hz jest super. Pchanie tego w formie dual-mode 720p to jak podpinanie haka do Fiata 126p i reklamowanie go jako ciągnik siodłowy z drobną gwiazdką (że naczepa jest ze włókna węglowego, a ładunkiem balony z helem)
-
Nawet się bym zgodził prawie* ale nie z ostatnim zdaniem. A żaden bonus w postaci niczego to mi już od dawna dają RT mi zwisa a PT nie użyję poniżej 5090tki, a i to pewnie nie długo bym poużywał, zanim bym przestawił ustawienia gry na HFR (120fps+) lub przełączył na grę VR. AI nie dawało nic do premiery DLSS4, bo 1,2 i 3 dla mnie mają wartość zerową. Także niech sobie zabierają te AjAj i wsadzą w kurtkę.
-
Piszesz tak, jakby proc się nie liczył w 4K wcale. To po co w ogóle pytać, po co porównywać, po co zmieniać? Jak ktoś by chciał grać w 4K na 3060 12GB to pewnie pomiędzy Zenem 5600 a 9800x3D nie zobaczy PS. Masz komputer do grania w 4K a w stopce monitor 1440p 240Hz. Oczywiście na 9070XT w 4K różnic nie zobaczysz w większości gier, ale nawet na niej będą momenty gdy fps poleci przez CPU nawet w 4K. HU robiło o tym filmik. A ja od 2005r. trąbię, że lepiej jak zabraknie GPU niż CPU w grach, bo to zupełnie inaczej "widać i czuć". To się bardziej stosuje do dużych różnic, bo 13600 i 14600 to nadal bardzo spoko procki póki co, ale ogólnie wymagania gier rosną, optymalizacja coraz częściej leży, coraz więcej gier na UE. Do tego nie każdy musi grać tak samo. Na przykład ja wolę niską rozdziałkę ale HFR, a do VR to na dobrą sprawę przydałoby się coś 2x szybszego od 9800XD.
-
Ale w newsie masz 1100$ a nie żadne 900. Właśnie, 240Hz jest normą a teraz i tak zostanie bo za tyle to ludzie się co najwyżej pośmieją. I nie. 1440p w 26,5" to nie jest żaden top. 1440p 27" za 3199 to kolega kupował w 2014tym. Nie OLEDa oczywiście, ale z modułem g-sync. Inflacja oczywiście robi swoje, ale mamy na rynku 240Hz OLEDy za 2200zl. Jasne, że za nowość się doi, to normalne, ale niech to ma sens. Odlecenie w kosmos z marżą na ponad 200% w modelu dalekim od topki, sensu nie ma. A mi przeszkada nie jako nabywcy, a ogólnie. Takie coś hamuje rozwój i źle wpływa nie tylko na klientów/graczy ale samą branżę Apropo "nowości": Sierpień 2024. Róznicy 480 vs 540 nie zobaczy absolutnie nikt. Dual mode jest o kant dupy potłuc. Zostaje tylko nowej generacji panel. Trochę mało jak na cenę wyższą od ceny dwóch porządnych monitorów o identycznej niemal specyfikacji, ale na generację starszym panelu i 240Hz.
-
Można też grać w 8K i co z tego? O tej różnicy w podejściu już godzinami gadali na Hardware Unboxed, to odsyłam tam, bo nie ma co potwarzać tego samego. Wydajność procesora się ocenia po testach jak najmniej obciążających GPU, z wyjątkiem automatów obniżających detale po wykryciu niższej rozdziałki - nawet 480p by było lepszym testem niż 4K, choć jestem w 100% pewien, że absolutnie nikt na 7800x3d nie będzie grał w 480p.
-
5 kafli za żenujące 26,5" 1440 jesteś w stanie zrozumieć? Nowe powłoki itp. - no Gigabyte też miał nowoczesnego WOLEDa, z bandingiem, oczywiście, ale miał nową generację panelu. I wystartował za 2000-2200zł. AI w monitorze? na co to komu. To jest 27", usprawnienia mogą być, ale nie są przełomowe. Nie zamiatają konkurencji. Nie ma np. 600cd jasności na całym ekranie. Nie ma 1000Hz w natywnej. Nie ma zaawansowanej elektroniki i softu, który np. dodałby CRT beam simulator. No kurde NIC to gówno nie ma a do(wali)li 1100$. Ale za to widać że się napracowali, żeby to gówno ładnie wyglądało. Jeszcze niech postać z chińskich bajek tam się na tyle monitora wyświetla i niech sprzedają ten monitor z lustrem, żeby kupujący grający na biurku przy ścianie mogli to w ogóle zobaczyć.
