Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano (edytowane)
10 godzin temu, Kadajo napisał(a):

Ja tylko dodam ze wyostrzenie nieostrego obrazu nic nie daje tylko wprowadza jeszcze więcej artefaktów i fałszywych kontur które powoduje ze obraz wygląda tylko gorzej.

Właśnie w tym sęk, że nieostra gra ma różne przyczyny bycia nieostrą. Akurat wyostrzone mydełko wygląda lepiej. Z kolei gra z artefaktami, które już wyglądają chropowato to ok, masz rację. Pamiętam teraz drzewa w NFS HEAT bez TAA. Nie dało się tego oglądać i wyostrzenie by nic nie dało. Z kolei gier z mydłem raczej jest więcej.

Edit: Wiem. Totalnie zapomniałem NAJGORSZĄ GRĘ NA ŚWIECIE z mydłem. To Mafia 3. Ona miała masę bardzo złych efektów, ale reshade robi z tej gierki żyletę. Wielu ludzi tą mafię porzuciło nie tylko bo czarny bohater, nie tylko bo odejście od koncepcji włoskiej mafii, ale właśnie że gra wyglądała jak gawno nawet na max ustawieniach i nie dało się tego poprawić. Ale kilka filtrów dodać z reshade i wyglądało to już bardzo dobrze.

To moje ustawienia: 

 

YVG4tqm.png

 

Gra tak wyglądała tylko na screenach. Ale w grze nie jest tak. A to jest połączenie i dodatkowego AA i ostrości jednocześnie. A to jedynie Full HD, więc naprawdę nieźle dało się poprawić.


Dla porównania nie mam screenów bez reshade, ale niektóre wideo dają pewne porównanie 

 

Edytowane przez Keller
Opublikowano
16 godzin temu, X360 napisał(a):

Wyostrzanie z poziomu monitora/TV to zupełnie inna rzecz. Tam masz prosty filtr podkręcający krawędzie globalnie, niezależnie od sygnału. To działa bardziej prymitywnie i często właśnie powoduje artefakty.

Za bardzo generalizujesz lub podajesz nieaktualne informacje.

"When a Samsung TV or monitor is in Intelligent Mode, it can analyze its surroundings, what you’re watching, and your usage patterns to provide the best possible viewing experience. Whether you have cartoons playing in the background or you’re watching an action movie where you want to hear every detail, the TV can automatically fine-tune its settings. This feature is available on select Samsung OLED TVs, QLED TVs, and the Odyssey Ark."

https://www.samsung.com/us/support/answer/ANS10001583/

 

Opublikowano
44 minuty temu, SebastianFM napisał(a):

Za bardzo generalizujesz lub podajesz nieaktualne informacje.

„W trybie inteligentnym telewizor lub monitor Samsung analizuje otoczenie, oglądane treści i wzorce użytkowania, aby zapewnić najlepsze możliwe wrażenia wizualne. Niezależnie od tego, czy w tle odtwarzane są kreskówki, czy oglądasz film akcji, w którym chcesz usłyszeć każdy szczegół, telewizor może automatycznie dostosować ustawienia. Ta funkcja jest dostępna w wybranych telewizorach Samsung OLED, QLED i Odyssey Ark”.

https://www.samsung.com/us/support/answer/ANS10001583/

 

" może automatycznie dostosować ustawienia"

Już w tym, co sam napisałeś, masz odpowiedź- to całe „może automatycznie dostosować ustawienia” to po prostu kolejna sztuczka opisana jako AI, która ma rzekomo robić cuda-niewida. W praktyce to tylko algorytm podkręcający parę parametrów na ślepo. Brzmi nowocześnie, daje marketingowi pożywkę, a realnych korzyści z tego niewiele.

U mnie w OLED-zie LG też są tryby obrazu „AI Picture”, „AI Brightness”, „AI Genre Selection” i cała reszta tego wynalazku. Po włączeniu tego oglądać się nie da -obraz staje się przesadnie agresywny, kontrast jest przekopany, kolory lecą w stronę jaskrawej papki, a jasność skacze w zależności od sceny jakby panel dostał zadyszki. Zamiast pomagać, to psuje to, co i tak można ustawić ręcznie lepiej i stabilniej.

Więc tak: AI w TV to w większości marketing, a „automatyczne dostosowanie” działa tylko na papierze. W praktyce zwykłe, normalne ustawienia dają o wiele lepszy i przewidywalny efekt.

  • Upvote 1
Opublikowano

@X360, widzisz, ja piszę o Samsung a ty o LG. Napisałem ci, żebyś nie generalizował.

Ja nie korzystam z wyostrzania, niedługo będę miał nowy telewizor Samsung to z ciekawości sprawdzę, jak wygląda kwestia wyostrzania.

A tak w ogóle to jest gdzieś o tym informacja, jak działa wyostrzanie na kartach NVIDIA, czy na pewno tak jak wcześniej napisałeś?

Opublikowano (edytowane)
19 minut temu, SebastianFM napisał(a):

@X360, widzisz, ja piszę o Samsung a ty o LG. Napisałem ci, żebyś nie generalizował.

Ja nie korzystam z wyostrzania, niedługo będę miał nowy telewizor Samsung to z ciekawości sprawdzę, jak wygląda kwestia wyostrzania.

A tak w ogóle to jest gdzieś o tym informacja, jak działa wyostrzanie na kartach NVIDIA, czy na pewno tak jak wcześniej napisałeś?

Jeśli naprawdę chcesz wiedzieć, jak działa wyostrzanie na kartach NVIDIA, to musisz poszukać w patentach. Tam masz opisane wszystko krok po kroku: wykrywanie krawędzi, dobór lokalnego wzmocnienia, filtrację detali i mieszanie z oryginałem, a także ograniczanie artefaktów. To dokładnie pokrywa się z tym, co NVIDIA stosuje w swoich sterownikach i funkcji Image Sharpening

A tak z ciekawości, kupujesz TV OLED Samsunga?

Edytowane przez X360
Opublikowano
9 minut temu, sideband napisał(a):

magic-henning.gif

 

Tak tak genialnia niesamowita technologia i sami wyrzucili to z CP :hihot:

Nie lepiej napisać, że jesteś ślepy i po prostu nie przeszkadza Ci gówno obraz :hihot:

Problemów ze wzrokiem nie mam, TV mam profesjonalnie skalibrowany przez Maćka Kopera, więc wiem, co widzę. Twoje komentarze pokazują niestety, że kompletnie nie rozumiesz elementarnych podstaw obrazu – od kontrastu, przez kolorystykę, po wyostrzanie i odwzorowanie szczegółów. Wygląda na to, że oceniasz jakość obrazu na podstawie własnych, przypadkowych wrażeń, zamiast faktycznych parametrów. Możesz oczywiście mieć swoje subiektywne odczucia, ale proszę – nie przedstawiaj ich jako wiedzy, bo w tym przypadku mijają się całkowicie z rzeczywistością. Zanim zaczniesz kogokolwiek pouczać, warto poznać podstawy, inaczej wygląda to… cóż, dość komicznie.

Jeśli masz monitor + TV i ustawiasz w Windows opcję duplikowania ekranów, NVIDIA automatycznie aktywuje wyostrzanie, bo wtedy traktuje sygnał jako standardowy dla jednego wyświetlacza. A jeśli np. używasz tylko jednego ekranu albo nie włączysz duplikacji/rozszerzenia, opcja może „znikać” w panelu – nie dlatego, że NV ją usunęła, tylko dlatego, że sterownik nie uznaje konfiguracji za kompatybilną.Wystarczy mieć dwie aktywne wyjścia lub odpowiednią konfigurację, a opcja pojawia się z powrotem.

  • Upvote 1
Opublikowano (edytowane)

Myslicie, ze w zwiazku z zapowiadamem pogromem cenowym w 2026 to dobry pomysl zeby zakupic teraz 5080, synowi dac moaja obecną 4080S a jego 3080 strixa postawic na polce i poczekac na wzrost cen w 2026 i wtedy ja sprzedac

 

Chodzi mi o to ze jakby mi sie spalila ta 4080S to bede w czarnej d... w 2026 jesli rzeczywiscie te ceny maja tak isc do goru i ma byc tak mala dostepnosc... szykuje sie chyba kolejny 2020...

Edytowane przez aureumchaos
Opublikowano (edytowane)

Myślę, że nie ma sensu, 5080 jest niewiele wydajniejsza od 4080S bo to średnio 15-20% zaledwie i to jak grasz w 4k bo ~1440p to będzie bliżej 10% :E , a 3080 to dalej fajna karciocha dla młodego, mój syn też na takiej leci i nie narzeka  :E Moim zdaniem na tym co masz czekać do nowej generacji, dla ciebie z 4080, aby był jakiś w miarę sensowny kop wydajności z 4080 to minimum 5090 wrzucić :E 

Edytowane przez lukadd
Opublikowano

@aureumchaos 4080S vs 5080 to lewdwo kilka % różnicy.

Miałem 4080S bo dostałem jako wymianę po aawarii 4080 bez S od PNY francja.

Sprzedałem 4080S całkiem nieźle i dopłaciłem 5080 za 4200 zł.

A i tak dosyć kontrowersyjny maanewr.

Zyskasz GW, kilka % wydajności i najnowszy MFG. 

  • Upvote 1
Opublikowano

No tak, tak ja wiem o wydajnosci ale nie o wydajnosc sie tu rozchodzi. Chodzi o awarie, jak mi padnie i ceny maja byc w 2026 jak w 2020 przez te dramy o pamiec i pierwiastki jak irt ktory podrozal o 1500%, nawet xiaomi juz pisze ze podnosi ceny na przyszly rok na wszystkich modelach i ze tanio juz bylo. Wiadomo strasza tez bo chca wycisnac ile sie da na bance AI. 

Syn nie narzeka na wydajnosc tez. Tylko od czasu do czasu pala sie te walniete zlacza na przyklad... Uwiebiam grac wiec bez karty nie wytrzymam i wtedy zaplace krocie w 2026 zeby cos miec...

 

Hmm.. moze i troche panikuje a moze dmucham na zimne zanim zrobi sie gorace... Sam nie wiem wlasnie.... 

 

5090 nie kupie bo tam sie na pewno zjara zlacze, gdyby nie to to bym juz dawno kupil. 

Opublikowano (edytowane)

Te palące złącza to tak sporadyczne przypadki, że jeszcze mniejsza szansa, że 9800X3d ci się zjara nawet na Asrocku :E 

 

A jeśli o awarie chodzi to ile GPU ci padło w życiu? Ja bym się takimi pierdołami nie przejmował. Ale jak się przejmujesz to bierz, będziesz miał wtedy jeszcze 3080 w szufladzie :E 

Ja sam mam tyle gierek na liście do ogrania i z tego cała masa to nie wymagające gierki, że mając w szufladzie RTX 2070 by mi stykną na przeczekanie nawet roku czy i więcej grając w indory :E 

Edytowane przez lukadd
  • Thanks 1
  • Upvote 2
Opublikowano (edytowane)
43 minuty temu, aureumchaos napisał(a):

5090 nie kupie bo tam sie na pewno zjara zlacze, gdyby nie to to bym juz dawno kupil. 

Chyba jak go specjalnie podpalisz %-)

Panikujesz jakby co druga karta się paliła.

Na forum pewnie z kilkadziesiąt sztuk jest i nikt się nie skarżył, że ma ognisko w skrzynce. 

Edytowane przez Kanzu
  • Haha 1
  • Upvote 1

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Jak kupiłeś 9800X3D za te 1700 ziko no to spoko opcja.   Pod 1440p nie warto dokładać do 5080 bo 5070 Ti radzi sobie tam bardzo dobrze. Pod 4K już bardziej, bo tam się bije o każde ~ 10 klatek, a tyle mniej wiecej wynosi różnica w tych najbardziej wymagajacych grach  Około 15% wydajniej.   Co do gwarancji i water blocka, to szczerze mówiąc nie wiem. Możesz podpytać support Gigabyte, ASrocka czy Asusa. MSI chyba z góry odpada bo tam jest na bank plomba na śrubce od chłodzenia.   Modele do rozważenia (nie patrzac na kwestie gwarancji):   9070 XT:   https://www.ceneo.pl/181537757 https://www.ceneo.pl/181537757 https://www.ceneo.pl/181670804 https://www.ceneo.pl/181461988 https://www.ceneo.pl/181517097 https://www.ceneo.pl/181516996 https://www.ceneo.pl/182098189 https://www.ceneo.pl/181517389   5070 Ti:   https://www.ceneo.pl/183156250 https://www.ceneo.pl/181517101 https://www.ceneo.pl/186686530 https://www.ceneo.pl/181847056 https://www.ceneo.pl/181019477 https://www.ceneo.pl/181537752 https://www.ceneo.pl/183582145 https://www.ceneo.pl/182059955 https://www.ceneo.pl/186253857   5080:   https://www.ceneo.pl/182059955 https://www.ceneo.pl/182098188 https://www.ceneo.pl/182419776 https://www.ceneo.pl/181008713 https://www.ceneo.pl/182345258 https://www.ceneo.pl/184744266 https://www.ceneo.pl/179994601 https://www.ceneo.pl/179994603   Wydajnosc 4K 5080 vs 5070 Ti:          
    • kilkanaście sekund i 96-99 stopni cpu.    To bardzo wysoka temp po kilkunastu sekundach, doraźnie ustaw sobie power limit PL1 = 125 i PL2 = 130 (spadek boost będzie i tak tu mały) lub niżej, jeśli temp nadal będą wysokie.    A przede wszystkim sprawdź zamontowanie coolera na CPU, czy nie wygięty cpu, płyta od spodu, a cooler równomiernie dokręcony.  bo za szybko coś Ci ta temperatura wzrasta zdecydowanie, jakby cooler nie przyjmował ciepła dobrze. 
    • Sprawdź czy Ci karta dobrze siedzi w slocie i czy wtyczki kabli dobrze siedzą w GPU i zasilaczu. Miałem niedawno podobne objawy na swojej RTX3070Ti. Po kilku minutach dowolnej w dowolnej grze ciemny ekran, choć w głośnikach było słychać że komp w tle nadal normalnie chodzi. Już byłem przekonany że GPU pada, kombinowałem z napięciami, zmniejszałem OC pamięci, reset do ustawień fabrycznych, itd. Nic nie pomagało. W końcu poprawiłem ułożenie karty na podpórce i podociskałem wtyczki (mimo że nie czułem by były źle dociśnięte). Wszystkie problemy jak ręką odjął.   Ostatnio zmieniłem też w końcu obudowę- z Fractala Design Nano S na Deepcool CH260. Efekt- średnio minus 10 stopni na hot-spocie i pamięciach, mimo że we Fractalu podczas grania miałem otwarty panel boczny, a Deepcool normalnie pozamykany, z dokładnie tymi samymi wentylatorami przełożonymi z Fractala (1x120mm tył, 1x140mm top). Także na pewno warto mieć budę w której karta ma "czym oddychać". Jest to szczególnie ważne przy konstrukcjach z TDP powyżej 250W. 
    • Witam mam pytanie czy jest ktoś w stanie mi ocenić czy wszystko współgra tutaj z częściami itp czy nic nie bedzie sie przegrzewać ani nie będą spadki przez złe dobranie komponentów poniżej podsyłam listę z góry dziękuję za pomoc 😁    https://www.x-kom.pl/lista/3tbb6mlbr
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...