-
Postów
2 655 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez maxmaster027
-
Jak grasz w 4k natywnej to spokojnie weźmie wiecej, podobnie jak puscisz Nomada łyknie Ci pod 500W. Sam u siebie widze, że ok jakis doom z DLSS quality w 4k z FGx3 240W, ale juz cyberpunk na tych samych ustawieniach 270W a jak dasz DLAA to jeszcze wiecej 280-290 jak w Avatarze 4k Z tym, że u mnie ta wydajnosc nie jest stockowa a 10-12% lepsza. Wiec to wszystko zalezy od gry. Żeby ta karta brała do 400W musiałbys zejsc ponizej 0.9, one maja 70% power limit wiec jak zrobisz UV i ustawisz PL 70% to te 400-420W bedziesz mial, ale tez zegar moze czasami spadac.
-
Ale może sobie obniżyc rozdzielczosc czy ustawienia, wiec sobie sprawdzil. Poza tym, mozna w ten sam sposob zrobic to na samej karcie 5000 i to wszystko. Mówie Ci ze tak zrobiłem, dałem te wyimaginowane 100fps i dalej uważam że x3 ze 117fps jest lepsze.
-
Masz game bar on naciskasz w trakcie gry przycisk windows + G pokazuje Ci sie okno i tam mozesz włączyc nagrywanie. Defaultowo zgrywa obraz w fullHD 25fps wiec przy 4k kompilacja do fullhd troszke wiecej zabiera tracisz moze z 6%. Ale to jest bez znaczenia bo spr i potem piszesz ile straciles. Potem instlujesz sobie darmowy kompilator video. np Format factory https://www.instalki.pl/download/programy/windows/multimedia/konwersja-audio-video/format-factory/ Tu masz przytnij, tu dajesz wylacz a w 1 wybierasz co z tego video chcesz przyciac Jak juz masz przyciete video. wrzucasz je raz jeszcze naciskasz ustawienia Dajesz limit rozmiaru 100mb 720p jak masz dluze wideo jak niedlugie 2min mozesz zostawic spokojnie 1080p i kompilujesz. Zajmuje to dosłownie pare sekund, a sama kompilacja trwa moze 5-10s bo robi sie na GPU. Masz gotowe video wrzucasz tutaj Obraz mozna tez zgrywac innymi sposobami, ale ten jest po prostu najprzyjemniejszy i naprostrzy. Jezeli masz ochote to sciagasz np. flowframes, albo real video enhancer mozesz sobie video upłynnic do 50fps w przeciagu 2min. Ale to dla siebie bo tutaj bedzie mialo zbyt duzy rozmiar @Grolshek Wydaje sie duzo, ale nie zajmuje w rzeczywistosci wiecej anizeli skladanie screenshotow
-
cieżko mu racji nie przyznać, też tak uważam
-
Wyszło że ja to napisałem xd no ja czegos takiego bym nie napisał. Oficjalnie solidarnie z graczami co maja 4090 i 4080 x3 i x4 absolutnie nie uzywam tylko x2. A prawda jest taka, że 100fps to pobożne zyczenie. Tam w czesniej te drugie video co wrzucilem, to jest z cyberpunka w naprawde takiej naszpikowanej scenerii gdzie FPS procesora i karty mocno dropi, i to jest Wszystko na maxa w 4k z DLSS quality najpierw x4 potem x3 i specjalnie grałem z frameView bo pokazuje latency i przy zmianie na x3 spadło 45-65ms naprawde jak TV ma 5ms inputlag tego opoźnienia nie czuc. Mozna to lubic można nienawidzieć. I co wazniejsze 4080 czy 4090 to przeciez swietne karty, nikt nie pisze o nich nic złego, a wice wersa non stop
-
jezeli masz 89fps obecnie przy 370-380W po UV na zegary default 2800mhz nie zrobisz przy 370W 100fps z tego.
-
WIem, że lubisz retro, ale co nie chcesz zadnej karty kupic? Czy miales cos na oku jaki masz budżet na karcioche?
-
No po co bo sie fajniej oglada. Jest troche mniej fps 4% ubija, ale to ja sobie przemnoże Mozesz tutaj do 100mb wrzucic, wiec czemu nie skorzystac. Tak czy siak poswiecisz na to dokladnie tyle samego czasu, czy zrobisz screena czy wrzucisz film to jest czasowo bez znaczenia.
-
Seria super jest refreshem, mnie np. interesuje bardziej ile bedzie w RTX 6000 vramu. Czy w koncu nvidia machnie ten vram x2, szczerze jezeli karty beda bardzo wydajne to niekoniecznie.
-
Dobrze, 100fps z x2 na 4090 jak najbardziej możliwe te karty sa poteżne przy 500-520W i konkretnym OC ponad 3ghz mocnym procu wierze ze sie da. Z tym, że znowu 117FPS na tych ustawieniach z x3 puscilem wczoraj masz 260-270W. Poza tym, wiesz jest custom resolution kazdy moze sobie stworzyc rozdziałke obnizyc lekko zegar na 5070Ti czy 5080 i pograc z x2 przy 95-100fps, napewno w takim dogetown spadnie do 80. Natomaist i tak rozgrywka bedzie po prostu lepsza na kartach z serii 5000. Bys musiał wtedy po prostu porownywac bez FG, mowiac ze tak sie nie gra. Znowu ile ma w w 1440p DLAA 4090 49fps, wiec po OC mocnym pewnie 54, to nie sa grywalne ustawienia w doge town spadnie Ci do 40-42Fps a 500W tez nie mało wcale energii. Wiec choćbys sie dwoił i troił nie znajdziesz warunków grywalnych w ktorych 4090 bedzie lepiej sie prezentowal w cyberpunku. Nie bede juz wrzucał video czy filmikow bo nie ma potrzeby. Pamietam natomiast ze jakos w 2021r na poczatku roku wyszla ta gra kupilem w przedsprzedazy wiec nie jest to najnowszy tytuł, wiec też karty z serii 4000 radza sobie w nim stosunkowo bardzo dobrze wzgledem kart z serii 5000. Jeżeli chciałbys grac bez FG musiałbys użyc ustawien po prostu ultra w 4k ze 100% TAA, a na takich ustawieniach wąskim gardłem staje sie przepustowosc w ktorej 4090 po oc mem i 5080 po oc mem maja obie 1152GB/s wiec tutaj FPS bedzie w okolicach 80 na obu kartach.
-
Masz 4k?
-
@Grolshek Wrzuc tutaj filmik z Jungli jak sie przechadzasz tam od startu gry, jak to wyglada na 4080tce, bo to z tego co mi wiadomo najcieższa lokacja w grze, czyli wlasnie na starcie.
-
Karta graf. SPARKLE Intel Arc B580 GUARDIAN 12G – już za 1 150,93 zł | wysyłka w 24h https://www.sferis.pl/karta-graf-sparkle-intel-arc-b580-guardian-12g-i465906?utm_campaign=przejscia_ceneo&utm_source=ceneo&utm_medium=referral&ceneo_cid=e331de85-6b69-b9e3-25ed-c812ee41214d Ciekawei jak sie na tym gra. Jaka jest roznica wzgledem 4070Ti albo 4070Super. Pomijajac fakt wydajnosci, jest to 12GB vram nowe w takiej cenie, w sam raz jezeli ktos mniej gra, lub głownie esport.
-
To jest jedyny grywalny scenariusz dla 4090, w 4k DLSS quality jest ten sam FPS relatywnie i jest on w wiekszosci aren niegrywalny na obu kartach. Tak wymagajacy jest nowy DOOM. Natomiast CP77 ma nizsze wymagania. I bez problemu mozna grac w 4k z DLSS quality. Nawet z DLAA w 4k z pt masz wtedy PS5 experience. Cyberpunk 2077 (C) 2020 by CD Projekt RED 2025-06-26 19-19-39~1.mp4 Wrzuce ostani raz , masz video 270-280W~ CP bierze wiecej energii, zobacz sobie jak to wyglada w rzeczywistosci a nie na wykresach. Cyberpunk 2077 (C) 2020 by CD Projekt RED 2025-06-26 19-23-29~1.mp4
-
Słuchaj, nie chce sie z Toba sprzeczać ponieważ uważam 4090 za wyjatkowo dobra karte. Natomiast jedyne co Ci moge to pokazac jak to wyglada w rzeczywistosci co innego wykresy. Dla Ciebie specjalnie wyciałem ten fragment z ustawieniami 4k ultra nightmare PT MAX DLSS P z FGx2, i identycznie ustawienia dałem u siebie, tak samo okolo 4% FPS zabiera nagrywanie wiec mozna powiedziec ze jest porownanie 1 do 1. Z tym że to jet 5080 UV/OC vs 4090 default. Dlatego 5080 w tym porownaniu je 100W mniej. 4090 default 4k DLSS P 4090 x2.mp4 5080 UV/OC na 230-240W w tej grze, wczesniej masz video z tym samym zegarem z x2 pobor pradu jest kapke mniejszy DOOM The Dark 5080 4k P x2.mp4 Specjalnie dla Ciebie te porównanie zrobiłem, żebys nie musiał wklejac tutaj video z wykresami które dosc mocno odchodza od rzeczywistosci. I tak 4090 mozna podkrecic itp zgadza sie nie mniej jednak W bedzie żarło wiecej wiec to taki sredni interes raczej zrobisz UV tak zeby wydajnosc byla mniej wiecej w okolicach default i zarła po prostu mniej energii
-
Ja próbuje> ja nic nie probuje. Ja wkleiłem 3 screeny z wydajnoscią, która wybrał uzytkownik 4090 (i chyba ta realna wydajnosc niektorych rozjuszyła, że trzeba było sie posiłkować YT i wykresikami). Będąc pewien bo miał 5080 z max OC i tam 77FPS, a tu sie okazało że jest wiecej. Poza tym dostałes video odemnie wiec nie musisz sie posiłkowac panem Owenem. Ja nigdy nie twierdziłem że 5080 jest lepszy czy tez szybszy w sytuacji default vs default. Tylko po UV/OC obu kart jest to po prostu lepsza karta do gier (która oczywiscie pozostawia wiele do życzenia). Przyjmuje do wiadomosci, że sie z tym nie zgadzasz, nie mam z tym problemu. Jedynie do sposobu w jaki to oznajmiasz. Jeżeli chodzi o mnie to majac do dyspozycji np 5k zł, prawdopodobnie gdybym wczesniej nie miał 5080 wybrałbym zdecydowanie 4090, natomiast teraz jeżeli miałbym wybrać jedna z kart to bezapelacyjnie 5080 chociażby ze wzgledu na znacznie nizszy pobor prądu dodatkowo jes x3 i OC/UV bedace blisko wydajnosci 4090. Natomiast odchodzac juz od tych dywagacji, najlepszym obecnie GPU jest 5070Ti poniewaz w cenie 3400-3500zł jest ono najbardziej opłacalne i jeszcze długo sie to nie zmieni, 5070Ti z ramem 24GB tez nic nie zmieni w tej kwestii.
-
RTX 2000 to najlepsza seria, ale w laptopach krypto waluty i szał, tuż po premierze RTX 3000 jakies 2-3tyg spowodowały wzrosty cenowy 3080 do blisko 9-10k a taki 2070 czy 2080 kosztowaly jeden po 4.5-5k drugi po 5.5-6k zl. Ja pamietam wtedy kupilem lapka w okolicach 6k z 2070 GPU takie samo jak te desktopowe za 5k, a mam jeszcze całego lapka extra. (tam chyba 2RT cores brakowalo). Wiec to był najlepszy czas na kupno laptopa, teraz dla przykładu laptopy sa w odrealnionych totalnie nie opłacalnych cenach.
-
Dokładnie tak jest. I nie o Vram chodzi, chociaż to też, ale o CUDA żeby nie dac chociaż 13-14tys CUDA w 5080 to jest naprawde odklejka. Tak samo 5070Ti powinno miec wiecej CUDA od day 1. Natomiast Raster jako tako sie skończył teraz wszedzie praktycznie RT albo PT, kazda gra jednak ma to FG, juz RTX 4000 to była gruba przesada cenowa. 4400zł za 4070Ti 6000-7000zł za 4080 i 10k zł za 4090 w momencie premiery wcale lepiej nie wygladało to niż przy premierze RTX 5000 poza tym, ze ich po prostu było wiecej, po prostu były tak drogie, że ludzie czekali na obniżki. Do tego sprowadza sie hegemonia i monopol, rozdajesz karty i jak ktos nie chce siadac do stołu i grac wedle twojego rozdania to nara. Dobra już sie nie tłumacz, każdy wie jak Ty sie odnosisz do drugiej osoby
-
@VRman Na takiej, że odwzorowałem warunki 4090tki i wiem jaki ma FPS poniewaz jest na YT, nagrywajac w ten sam sposob był FPS podobny w 4k DLSS Q PT MAX a w 4k DLSS P PT MAX fps na 5080 był wyższy. Masz tutaj film. Wiec mówiłem że jeżeli tak wyglada wydajnosc 4090 to 5080 po UV jest podobnie szybkie albo szybsze tyle w temacie. PT MAX 4 DLSS P x3 330.mp4 Masz wydajnosc moj 5080 przy 240-250W na x2 masz FPS 1:1 z nagrywaniem taki sam jak na youtube,a(te powyzej) Video z x3 na identycznych ustawieniach co YT (4k DLSS P max ustawienia z PT) masz tych FPS po prostu wiecej. Innymi slowy nie masz najmniejszych szans miec nawet podobna rozgrywke na 4090 tym bardziej przy 240-250W. Dlatego jak ktos pisze kocopoły po prostu działa mi to na nerwy, bo wiem ze nie ma pojecia o czym mowi. Może i masz racje. W kazdym badz razie, niezbyt fajnei sie czyta tego typu teksty pod swoim adresem, tym bardziej, ze ja nikogo epitetami nie obrzucam, przynajmniej staram sie
-
Panie poważny. Ja nie wymyślam scenariuszy. Tylko tutaj wczesniej ktos pisał że ma 5080 i 4090 dlatego pokazałem te screeny. Wiec sie do tego dostosowałem i odniosłem. A teksty typu "kompromitowac" " nie pajacuj.." "ma z tego beke" To chyba taki brak argumentow z twojej strony. Ten screen z 89.64FPs 4090 to było po OC geniuszu.
-
@Tornado3 @VRman @Phoenix. Nikt nie kwestionuje w tym, że 4090 bedzie szybsza ( przynajmniej w starszych grach nie mowie o nadchodzacych), szczegolnie jezeli rozkrecic jej potencjał do 500W. Phoenix wrzucasz link do materiału gdzie 4090 ciagnie 420-450W~ srednio jest szybsza o 20-23% od 5080 ktore ciagnie 300-330W I tak bedzie o ten kopiący moze nei tak mocno ale jednak dobry trunek z % szybsza. Natomiast realnie do 4k po 20% OC pamieci ta różnica drastycznie maleje, wiec porównywanie karty default do default jakis tam sens ma jak najbardziej, niestety pokazuje że realia sa inne. Dałem wam screeny i tam macie róznice wydajnosci. Wiec tutaj w Cyberpunku to tak wyglada. W Doomie i innych nowych gierach opartych o UE 5 czy 5.6 powinno to wygladac jeszcze lepiej na RTX 5000. I tak ja wiem, że nie wolno porownywac wydajnosci x2 do x3. Ja nawet oficjalnie nigdy nie wlaczyłem MFGx3 ani x4 tylko solidarnie z ludzimi ktorzy zakupili 4090 gram tylko i wylacznie na x2.
-
No ale Ty mowisz cały czas o wykresach. A ja o realnej wydajnosci. Poza tym juz pomijajac te kwestie. Tutaj juz prezentował ktos wydajnosc 4090 oczywiscie na jego warunkach czyli na takim Edge na jakim da sie cos uzywac i funkcjonuje na granicy grywalnosci na 4090. I tak sie sklada ze zapisalem sobie te screeny. Wiec nawet w najbardziej niekorzystnych scenariuszach te 9-20% to jest bajka chłopie. 4090 z oc rdzenia 5080 od jurka nie wiem ile on tam mial watow 300? 310W? I moje najsłabsze ale też zato najoszczedniejsze 250-270wacikow. Wiec daj sobie juz spokój z tymi 20% bo w rzeczywistosci ta wydajnosc bedzie jeszcze nizsza poniewaz ten na 4090 zrobi sobie UV na 300-350W i zrowna sie to wydajnoscia i w dodatku nie moze wlaczyc FGx3 wiec gra na x2 mowiac ze x3 jest złe niedobre. Takie jakie na poczatku było x2
-
Ponieważ bedziesz miał nowe default z wyzszym OC. wiec jak dodasz 250Mhz + wieksze TDP o 60W bedziesz miał te 6-7%
-
Nie maja takiej potrzeby. Bo 5080tki maja duzy zapas potencjału zostawiony. Bedziesz miał wyższe TDP 420W ~ ten sam chip ale taktowany wyzej zapewne +200-250mhz. Wiec oczywiscie wydajnosc w obrebie 16GB vram bedzie taka sama po tuningu obu wersji, natomiast out of the box 5080 24GB będzie szybszy o te 6-7% i zblizy sie na wykresach do 4090 a w najnowszych grach sie z nim zrówna albo wyprzedzi. Inna sprawa że 3GB kosci beda wiecej prundu brały i beda sie bardziej grzac ich potencjał OC to równiez wielka niewiadoma, obecnie dla niemal kazdej 5080 to jest 20% OC pamieci, pytanie czy wersje 24GB tez beda miały ten zapas mocy.
-
Myslalem, ze jakis milioner robi promocje A tak na serio, to w teorii nizsza cena 2700-2800 jest mozliwa, te GPU niby pochodzilo z reklamacji, ale i tak taka cena zastanawiajace 2000zl za dzialajaca 5070Ti wydaje sie fake'em
