Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)
10 godzin temu, Kadajo napisał(a):

Ja tylko dodam ze wyostrzenie nieostrego obrazu nic nie daje tylko wprowadza jeszcze więcej artefaktów i fałszywych kontur które powoduje ze obraz wygląda tylko gorzej.

Właśnie w tym sęk, że nieostra gra ma różne przyczyny bycia nieostrą. Akurat wyostrzone mydełko wygląda lepiej. Z kolei gra z artefaktami, które już wyglądają chropowato to ok, masz rację. Pamiętam teraz drzewa w NFS HEAT bez TAA. Nie dało się tego oglądać i wyostrzenie by nic nie dało. Z kolei gier z mydłem raczej jest więcej.

Edit: Wiem. Totalnie zapomniałem NAJGORSZĄ GRĘ NA ŚWIECIE z mydłem. To Mafia 3. Ona miała masę bardzo złych efektów, ale reshade robi z tej gierki żyletę. Wielu ludzi tą mafię porzuciło nie tylko bo czarny bohater, nie tylko bo odejście od koncepcji włoskiej mafii, ale właśnie że gra wyglądała jak gawno nawet na max ustawieniach i nie dało się tego poprawić. Ale kilka filtrów dodać z reshade i wyglądało to już bardzo dobrze.

To moje ustawienia: 

 

YVG4tqm.png

 

Gra tak wyglądała tylko na screenach. Ale w grze nie jest tak. A to jest połączenie i dodatkowego AA i ostrości jednocześnie. A to jedynie Full HD, więc naprawdę nieźle dało się poprawić.


Dla porównania nie mam screenów bez reshade, ale niektóre wideo dają pewne porównanie 

 

Edytowane przez Keller
Opublikowano
16 godzin temu, X360 napisał(a):

Wyostrzanie z poziomu monitora/TV to zupełnie inna rzecz. Tam masz prosty filtr podkręcający krawędzie globalnie, niezależnie od sygnału. To działa bardziej prymitywnie i często właśnie powoduje artefakty.

Za bardzo generalizujesz lub podajesz nieaktualne informacje.

"When a Samsung TV or monitor is in Intelligent Mode, it can analyze its surroundings, what you’re watching, and your usage patterns to provide the best possible viewing experience. Whether you have cartoons playing in the background or you’re watching an action movie where you want to hear every detail, the TV can automatically fine-tune its settings. This feature is available on select Samsung OLED TVs, QLED TVs, and the Odyssey Ark."

https://www.samsung.com/us/support/answer/ANS10001583/

 

Opublikowano
44 minuty temu, SebastianFM napisał(a):

Za bardzo generalizujesz lub podajesz nieaktualne informacje.

„W trybie inteligentnym telewizor lub monitor Samsung analizuje otoczenie, oglądane treści i wzorce użytkowania, aby zapewnić najlepsze możliwe wrażenia wizualne. Niezależnie od tego, czy w tle odtwarzane są kreskówki, czy oglądasz film akcji, w którym chcesz usłyszeć każdy szczegół, telewizor może automatycznie dostosować ustawienia. Ta funkcja jest dostępna w wybranych telewizorach Samsung OLED, QLED i Odyssey Ark”.

https://www.samsung.com/us/support/answer/ANS10001583/

 

" może automatycznie dostosować ustawienia"

Już w tym, co sam napisałeś, masz odpowiedź- to całe „może automatycznie dostosować ustawienia” to po prostu kolejna sztuczka opisana jako AI, która ma rzekomo robić cuda-niewida. W praktyce to tylko algorytm podkręcający parę parametrów na ślepo. Brzmi nowocześnie, daje marketingowi pożywkę, a realnych korzyści z tego niewiele.

U mnie w OLED-zie LG też są tryby obrazu „AI Picture”, „AI Brightness”, „AI Genre Selection” i cała reszta tego wynalazku. Po włączeniu tego oglądać się nie da -obraz staje się przesadnie agresywny, kontrast jest przekopany, kolory lecą w stronę jaskrawej papki, a jasność skacze w zależności od sceny jakby panel dostał zadyszki. Zamiast pomagać, to psuje to, co i tak można ustawić ręcznie lepiej i stabilniej.

Więc tak: AI w TV to w większości marketing, a „automatyczne dostosowanie” działa tylko na papierze. W praktyce zwykłe, normalne ustawienia dają o wiele lepszy i przewidywalny efekt.

  • Upvote 1
Opublikowano

@X360, widzisz, ja piszę o Samsung a ty o LG. Napisałem ci, żebyś nie generalizował.

Ja nie korzystam z wyostrzania, niedługo będę miał nowy telewizor Samsung to z ciekawości sprawdzę, jak wygląda kwestia wyostrzania.

A tak w ogóle to jest gdzieś o tym informacja, jak działa wyostrzanie na kartach NVIDIA, czy na pewno tak jak wcześniej napisałeś?

Opublikowano (edytowane)
19 minut temu, SebastianFM napisał(a):

@X360, widzisz, ja piszę o Samsung a ty o LG. Napisałem ci, żebyś nie generalizował.

Ja nie korzystam z wyostrzania, niedługo będę miał nowy telewizor Samsung to z ciekawości sprawdzę, jak wygląda kwestia wyostrzania.

A tak w ogóle to jest gdzieś o tym informacja, jak działa wyostrzanie na kartach NVIDIA, czy na pewno tak jak wcześniej napisałeś?

Jeśli naprawdę chcesz wiedzieć, jak działa wyostrzanie na kartach NVIDIA, to musisz poszukać w patentach. Tam masz opisane wszystko krok po kroku: wykrywanie krawędzi, dobór lokalnego wzmocnienia, filtrację detali i mieszanie z oryginałem, a także ograniczanie artefaktów. To dokładnie pokrywa się z tym, co NVIDIA stosuje w swoich sterownikach i funkcji Image Sharpening

A tak z ciekawości, kupujesz TV OLED Samsunga?

Edytowane przez X360
Opublikowano
9 minut temu, sideband napisał(a):

magic-henning.gif

 

Tak tak genialnia niesamowita technologia i sami wyrzucili to z CP :hihot:

Nie lepiej napisać, że jesteś ślepy i po prostu nie przeszkadza Ci gówno obraz :hihot:

Problemów ze wzrokiem nie mam, TV mam profesjonalnie skalibrowany przez Maćka Kopera, więc wiem, co widzę. Twoje komentarze pokazują niestety, że kompletnie nie rozumiesz elementarnych podstaw obrazu – od kontrastu, przez kolorystykę, po wyostrzanie i odwzorowanie szczegółów. Wygląda na to, że oceniasz jakość obrazu na podstawie własnych, przypadkowych wrażeń, zamiast faktycznych parametrów. Możesz oczywiście mieć swoje subiektywne odczucia, ale proszę – nie przedstawiaj ich jako wiedzy, bo w tym przypadku mijają się całkowicie z rzeczywistością. Zanim zaczniesz kogokolwiek pouczać, warto poznać podstawy, inaczej wygląda to… cóż, dość komicznie.

Jeśli masz monitor + TV i ustawiasz w Windows opcję duplikowania ekranów, NVIDIA automatycznie aktywuje wyostrzanie, bo wtedy traktuje sygnał jako standardowy dla jednego wyświetlacza. A jeśli np. używasz tylko jednego ekranu albo nie włączysz duplikacji/rozszerzenia, opcja może „znikać” w panelu – nie dlatego, że NV ją usunęła, tylko dlatego, że sterownik nie uznaje konfiguracji za kompatybilną.Wystarczy mieć dwie aktywne wyjścia lub odpowiednią konfigurację, a opcja pojawia się z powrotem.

  • Upvote 1
Opublikowano (edytowane)

Myslicie, ze w zwiazku z zapowiadamem pogromem cenowym w 2026 to dobry pomysl zeby zakupic teraz 5080, synowi dac moaja obecną 4080S a jego 3080 strixa postawic na polce i poczekac na wzrost cen w 2026 i wtedy ja sprzedac

 

Chodzi mi o to ze jakby mi sie spalila ta 4080S to bede w czarnej d... w 2026 jesli rzeczywiscie te ceny maja tak isc do goru i ma byc tak mala dostepnosc... szykuje sie chyba kolejny 2020...

Edytowane przez aureumchaos
Opublikowano (edytowane)

Myślę, że nie ma sensu, 5080 jest niewiele wydajniejsza od 4080S bo to średnio 15-20% zaledwie i to jak grasz w 4k bo ~1440p to będzie bliżej 10% :E , a 3080 to dalej fajna karciocha dla młodego, mój syn też na takiej leci i nie narzeka  :E Moim zdaniem na tym co masz czekać do nowej generacji, dla ciebie z 4080, aby był jakiś w miarę sensowny kop wydajności z 4080 to minimum 5090 wrzucić :E 

Edytowane przez lukadd
Opublikowano

No tak, tak ja wiem o wydajnosci ale nie o wydajnosc sie tu rozchodzi. Chodzi o awarie, jak mi padnie i ceny maja byc w 2026 jak w 2020 przez te dramy o pamiec i pierwiastki jak irt ktory podrozal o 1500%, nawet xiaomi juz pisze ze podnosi ceny na przyszly rok na wszystkich modelach i ze tanio juz bylo. Wiadomo strasza tez bo chca wycisnac ile sie da na bance AI. 

Syn nie narzeka na wydajnosc tez. Tylko od czasu do czasu pala sie te walniete zlacza na przyklad... Uwiebiam grac wiec bez karty nie wytrzymam i wtedy zaplace krocie w 2026 zeby cos miec...

 

Hmm.. moze i troche panikuje a moze dmucham na zimne zanim zrobi sie gorace... Sam nie wiem wlasnie.... 

 

5090 nie kupie bo tam sie na pewno zjara zlacze, gdyby nie to to bym juz dawno kupil. 

Opublikowano (edytowane)

Te palące złącza to tak sporadyczne przypadki, że jeszcze mniejsza szansa, że 9800X3d ci się zjara nawet na Asrocku :E 

 

A jeśli o awarie chodzi to ile GPU ci padło w życiu? Ja bym się takimi pierdołami nie przejmował. Ale jak się przejmujesz to bierz, będziesz miał wtedy jeszcze 3080 w szufladzie :E 

Ja sam mam tyle gierek na liście do ogrania i z tego cała masa to nie wymagające gierki, że mając w szufladzie RTX 2070 by mi stykną na przeczekanie nawet roku czy i więcej grając w indory :E 

Edytowane przez lukadd
  • Thanks 1
  • Upvote 2
Opublikowano (edytowane)
43 minuty temu, aureumchaos napisał(a):

5090 nie kupie bo tam sie na pewno zjara zlacze, gdyby nie to to bym juz dawno kupil. 

Chyba jak go specjalnie podpalisz %-)

Panikujesz jakby co druga karta się paliła.

Na forum pewnie z kilkadziesiąt sztuk jest i nikt się nie skarżył, że ma ognisko w skrzynce. 

Edytowane przez Kanzu
  • Haha 1
  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Dasz screena ze swoimi ustawieniami hud? Chciałbym takie ostre ładne kolorki co ty masz Chyba, że to mi telefon amoledem tak wypukla
    • Witam, proszę o pomoc w doborze podzespołów pod nowy PC, ponieważ spontanicznie... chociaż kusi od dłuższego czasu... myślę o zmianie mojego leciwego zestawu (i7-6700k, 16GB DDR4, GTX 1080) na coś nowszego, co mi może znowu posłuży lata. Spontaniczna decyzja, bo racjonalnych powodów wstrzymywałem się z tym już długo (mało czasu na granie), ale ceny RAM odlatują, a mi sie udało spontanicznie "ostatnim rzutem" kupić je jeszcze w akceptowalnej chyba cenie. Dodatkowo  "ludzie gadają", że inne rzeczy jak dyski, GPU też poleca w góre, wiec możliwe, że ostatni dzwonek na zakup czegoś w "przyzwoitych" pieniądzach.  Zestaw głównie do grania + ewentualnie zabawa w obróbka/montaż foto/wideo, ale do tego mam tez MB Pro M4 Pro z 48 GB RAM. Część rzeczy zostaje, z obecnego zestawu, bo niedawno kupowane lub jeszcze nadaje sie do użytku - obudowa, chłodzenie custom LC, wentylatory, dyski SSD M.2, itd. Obecnie używam monitora 4K MSI MAG 321UPX QD-OLED. Myślę nad poniższymi częściami: AMD Ryzen™ 7 9800X3D MSI MAG X870E TOMAHAWK WIFI - tutaj może coś innego jeszcze zaproponujecie  CORSAIR DOMINATOR TITANIUM RGB DDR5 64GB (2x32GB) DDR5 6000MHz CL30 (CMP64GX5M2B6000Z30) - ilość na wyrost pewnie, ale spontanicznie już kupione 5 listopada na Amazon za 1399PLN, zanim ceny juz kompletnie odleciały. Mam możliwość zwrotu do 31.01.2026, ale nawet jakby te RAMy były kiepskie, to teraz za tę cenę już raczej nic lepszego i w takiej ilości nie kupię). NZXT C1200 Gold ATX 3.1  / CORSAIR RM1000x -  wybrane z podpiętego tutaj na forum tematu z polecanymi zasilaczami. Moc zawyżona pewnie, ale lubie cisze, wiec chce żeby wentylator sie "nudził", a nie wiem jeszcze w jakie GPU bede celował. GPU - tutaj nie wiem czy czekać na modele SUPER od nV (chyba maja bys opóźnione?), czy kupować co jest, bo przez sytuacje z RAM, ceny GPU tez moga poleciec znowu ostro w górę. Patrząc na ceny chyba celowałbym w coś typu RTX 5070Ti lub Radeon  RX 9070 XT. Kompletnie nie znam obecnie rynku, wiec proszę o jakieś propozycje solidnych modeli GPU (cena/jakość, względna cisza).
    • Jasne, ten MSI Center chyba też może coś szczerze przeszkadzać, z tego co czytałem to więcej złego robi niż dobrego, z Latencymon jeszcze nie miałem okazji korzystać na obecnym zestawie. Jeżeli chodzi o ustawienia graficzne to nie robi to jakoś większej różnicy, w gierki typu Valorant/LOL/Fortnite gram na najniższych, w War Thunder testowałem na niższe było delikatnie tylko lepiej przez to że pewnie mniej shaderów musiało się doczytywać. ( tak jak mówię na ultra bez problemu mam 200+ fps tylko ten micro stutter o 2-5 fps w dół )  Sprawdzałem na locked 60 fps też są spadki np do 47. Jeżeli chodzi o blokowanie klatek to mam vsync, czyli 144 fps idealnie do monitora, gdy robię limit fps ręcznie na 144 lub 3 mniej to powstaje screen tearing i obraz się rozjeżdża, efekt taki jakby monitor był przecięty na pół przy mocniejszych ruchach myszki albo mimo że mam te stałe fps to nie ma wcale płynności obrazu. Dzięki za linki do tematów innych, czytałem już je i raczej średnio co mi pomoże patrząc że to kompletnie inny procek, chipset itd. 
    • Być ładnym i się tak oszpecić... nie wiem czym to jest spowodowane, czy faktycznie strzępkiem mózgu czy ogólnym stereotypom że kobieta bez "lifitingu" jest brzydka.
    • Zacznij od formata i zainstalowania podstawowych rzeczy, msi center i tam tylko sterowniki do chpisetu i nic więcej, stery do grafy trochę starsze i testuj. Żadnych light, razerów i co przyjdzie Ci jeszcze do głowy, tym bardziej programów monitorujących, bo to też potrafi działać negatywnie na gry jak i na psychikę  .W obecnym stanie możesz jeszcze wrzucić ss z latencymoon. Czy w ww grach różnicę robią ustawienia graficzne? Tzn. czy jak dasz wszystko na low to jest taki sam efekt jak na Twoich ustawieniach? Czy jak ograniczysz liczę klatek do 60fps, to też jest problem? Ja wiem że w grach online trzeba mieć więcej, ale z ciekawości możesz zobaczyć. Oczywiście blokujesz klatki o te 3 mniej, niż masz odświeżanie monitora? A tak na marginesie możesz poczytać  https://forum.ithardware.pl/topic/8975-stuttering-latencymon/ https://forum.ithardware.pl/topic/8444-stuttering-w-grach/#comments tylko tutaj są procki od AMD czy ludzie sobie z tym poradzili to nie wiem, trzeba się zagłębić, aaa jeszcze mamy jednego kolegę którego stuttery już długo męczą i sobie z tym nie poradził, też na AMD.      
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...