-
Postów
1 077 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez oldfashioned
-
Tylko ta koretka wynika z prostego mechanizmu cenowego, a nie z tego ze RAM stal sie tanszy. Retailerzy przez chwile sprzedawali przy rosnacych cenach sporo (bo kazdy chcial kupic zanim pociag odjedzie) > rynek sie nasycil i sprzedaz zwolnila. Retail teraz zbijaja ze swojej marzy zeby 'dalej' utrzymac sprzedaz (slupki sie przeciez musza zgadzac). Nie bylo zadnych sygnalow do tej pory zeby ceny w jakikolwiek sposob spadly na trasie surowce > producent > dystrybutor. To po prostu retailowcy zbijaja ze swojej wywindowanej marzy.
-
Nie pisz tak bo zaraz Cie ktos wysmieje
-
Na szczescie kazdy ma swoj rozum i swoj portfel, a na dodatek sam musi kliknac 'kup'.
-
Feniks wstal z popiolow czy ostatnie tchnienie? Zotac 5090 -100e, 3499 > 3399
-
Ja mam w chacie cale oswietlenie na lampkach philips hue, popularna alternatywa jest govee ktore jest znacznie tansze. Na zdjeciu jest hue lightstrip przyklejony do biurka, ale jakis bardzo stary, to bodajze 2019 to kupowalem i ciagle hula. cos takiego, ale tutaj widze ze juz v4
-
Ciagle byla mowa o percepcji kontrastu, a nie o kontrascie. Ale kolko rozancowe wie lepiej
-
Poprawa percepcji kontrastu =/= poprawa kontrastu. Nie podbijesz kontrastu samego w sobie na ekranie, ale Twoje oczy beda go inaczej (lepiej) postrzegaly.
-
I vice wersa, kolko wzajemnej adoracji. Powiedz mi rzeczowo, co w informacjach tam podanych mija sie z prawda? Poza wlasna opinia, podaj jakies zrodlo.
-
https://en.wikipedia.org/wiki/Bias_lighting Ziew.
-
Bias Lighting vs Kadajo bias lighting > podbija percepcje kolorow > podbija percepcje kontrastu > redukuje zmeczenie oczu = poprawia komfort najlepiej oczywiscie sprawdza sie przy jasnych wyswietlaczach, wiec wbrew temu co piszesz, przy OLEDzie rowniez 'dziala'. Zbyt jasne pomieszczenie =/= bias lighting. No i oczywiscie z glowa, co innego grac ze delikatnym swiatlem za monitorem, a co innego miec za nim okno.
-
Jak w sporcie, niedlugo beda wytyczne jaki sprzet jest niedozwolony. To uderzy tylko w 4fun gamerow, ktorzy beda musieli na publicu sie strzelac z takimi agentami.
-
Fizjologia mowi, ze swiatlo za monitorem/tv podnosi ogolny komfort i stabilizuje percepcje kontrastu. No chyba ze wszyscy okulisci sie myla
-
Backlight to podstawa, zdecydowanie pozytywnie wpływa na komfort oczu, ja od dawna nie korzystam z kompa bez światełek.
-
https://github.com/NVIDIA/DLSS/blob/main/doc/DLSS_Programming_Guide_Release.pdf @SebastianFM 1. Wyzej pisalem, ze nie wiem jaka jest skala artefaktow, bo sie tym nigdy nie interesowalem -> ale logiczne jest, ze one moga wystapic, w dokumencie w rozdziale 3.9 masz wytlumaczenie ze latency moze powodowac ghosting. 2. Cyferki z ich Guide bezposrednio pokazuja spadek wydajnosci, bardziej raw'owo niz oficjalne statementy, ale w statemencie tez napisali: 'Please note that GeForce RTX 20 and 30 Series GPUs lack native FP8 support, so Models M and L carry a heavier performance impact for these GPUs. Those users may therefore prefer to remain on Model K (DLSS 4), for an optimal balance of performance and image quality. With the NVIDIA app's DLSS Overrides, you control the Model, and the balance between image quality and performance for your PC.' @Kadajo Korzysta z tych samych technik na kazdej karcie przeciez, ale do tego dochodzi zmienna sterownikow i mocy tej karty. Jak sie karta dlawi to moga wystapic artefakty, simple as that. Starsze karty dlawia sie na DLSS 4.5 No i znowu, dokument Nvidii mowi, ze latency wywolane przez bottleneck obliczeniowy moze powodowac artefakty. @tomcug To samo co napisalem do Kadajo, przetestowales pewnie dziesiatki kart, pewnie niejedna lub dwie upaliles/przegrzales 'grajac'/'testujac' pod korek -> skoro w takim wypadku obciazenie karty moze spowodowac artefakty, to czemu obciazenie przez DLSS nie moze? No i skad sie bierze koszt dlss 4.5 na starych gpu? Mi tam mozesz nie wierzyc, ale w dokumencie podlinkowanym wyzej masz napisane to samo w 2.4 czy 3.1.2. No i sam teraz napisales ze jednak moze byc wieksza widocznosc artefaktow skalowania korzystajac z 4.5 na starszych GPU XD
-
@MaxaM No ale brak mocy to jest wlasnie bezposredni skutek tego, ze nie obsluguja natywnie FP8. Traci sie boost ktory daje FP8 wzgledem FP16 i doklada dodatkow overheada bo przeciez karta musiala to przeliczyc. Nvidia sama pisala wprowadzajac FP8 ze to jest 'jedyny sposob' na podwojenie przepustowosci bez spadku jakosci wizualnej. No a teraz sama pisze ze zeby DLSS 4.5 dzialal stabilnie to trzeba miec karty z natywna FP8.
-
@tomcug Tylko co ma precyzja matematyczna do efektywności modelu AI w runtime? W tym przypadku puszczanie obliczeń FP8 na ścieżce FP16 to żaden plus, tylko czysty overhead. DLSS 4.5 jest zoptymalizowany pod architekturę z natywnym FP8, więc rzutowanie tych danych na starsze karty, które fizycznie ich nie obsługują, to po prostu dodatkowa, zbędna robota dla GPU. Identyczna sytuacja jak w Data Science: upcasting modelu nie przywraca utraconych informacji, bo wagi i tak są już obcięte do niższego formatu – marnujesz tylko cykle zegara na mielenie zer. W efekcie każda dodatkowa milisekunda stracona na casting danych (FP8 > FP16) zwiększa latenc i model "przestaje sie wyrabiac" wzgledem silnika gry > stad dropy rzedu 20% performance na starszych kartach. No i właśnie z tego desyncu biorą się potencjalne artefakty, o których wspominałem, a których „wyższa precyzja” FP16 w żaden sposób nie naprawi.
-
"While the core algorithm aims for consistency, a 30-series card running DLSS 4.5 might look different (often with more visual artifacts or performance cost) than a 40-series card running the same version, simply due to hardware limitations. The core image quality is generally the same; differences arise from GPU generational hardware (Tensor Cores), VRAM, driver optimizations, system bottlenecks, and how newer DLSS versions handle older hardware, leading to varying performance impacts and sometimes subtle visual trade-offs like sharpness vs. ghosting" Czyli ta sama wersja DLSS nie wyglada tak samo na dwoch roznych kartach. Nie wiem jaka to jest skala, bo mnie to nigdy nie interesowalo, ale jest to logiczne ze nowsze modele (4.5) moga powodowac problemy na starszych kartach. Tak jak wyzej opisane potencjalne artefakty - blurrowanie twarzy.
-
A nie jest tak, ze nowsze modele zdecydowanie lepiej wygladaja na nowszych kartach (40x0, 50x0) przy relatywnie nowszych produkcjach, na ktorych juz poprzednie modele dzialaly 'dobrze'? Problemy sie zaczynaja jak ktos chce odpalic nowy model na starszych kartach, bez znaczenia na gre, ewentualnie nowszy model w produkcjach w ktorych i 4.0/3.0 mialo sporo artefaktow. Nie robilem badan empirycznych obviously, ale tak to wyglada patrzac obecnie na reddita/yt. Oczywiscie nie liczac jakis pojedynczych przypadkow, gdzie ktos ma gorszy obraz czy artefakty na np 5070ti w Indiana Jones'ie.
-
Z jednej strony wiadomo, ze tak jest, z drugiej - co mieli powiedziec?
-
Z tym problemem byly jedynie masowo pierwsze batche, pozniej to "naprawili". Oczywiscie nadal moze trafic sie lewa sztuka. Edit. Doczytałem resztę i widzę ze juz ta informacja sie pojawiła.
-
Dzieki za wyjasnienie! Teraz zadaj sobie pytanie, czemu "wielkie ekrany kinowe" sa ultrawide. Buzka
-
Ceny wróciły bo wróciła podaż po lockdownach i postoju fabryk/łańcuchów dostaw. Opłacało sie zeby podaż wróciła. Teraz? Nvidia ma w rzyci rynek detaliczny i to sie juz nie zmieni, dopóki hurt bedzie mial większą marze.
-
No ale tez badzmy powazni, troche inna skala makro w kontekscie lanuchow dostaw wszystkiego vs jakis krzemowych plytek. Wtedy ze wszystkim byl problem, teraz tylko ulica ma problem - nvidka kreci coraz lepsze wyniki mimo naszego bolu rzyci. Nvidia ma sie dobrze, po prostu sra na malo oplacalny biznes - ich NIC nie boli.
