-
Postów
4 382 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
4
Treść opublikowana przez VRman
-
oś czasu "Fajnie, że tak tanio" "To powinno się nazywać Refresh "Boże, czy Ty to widzisz..." CES2025>---------[]-------------------------------------[]------------------[]--------------------------------------->PREMIERA >---[] jesteśmy tutaj
-
Sprzętowy frame pacing? Co to niby jest sprzętowy frame pacing? Co znowu marketingowcy Nvidii nawymyślali? Poniżej jest trochę nie na temat. Kilka myśli o przyszłości GPU w kwestii rasteryzacji.
-
128ROP, 336TMU w 5080 176ROP, 512TMU w 4090. 72MB cache vs 64MB To jest w zasadie wszystko co się liczy dla rasteryzacji i we wszystkim tym 5080 wypada blado na tle 4090. Jest architektura będąca w rasterze pewnie bez istotnych zmian + podobna efektywna przepustowość pamięci. Proces technologiczny tej samej generacji, a w przypadku 4090 był przeskok z kupiastego 8nm, który był pudrowanym 10nm i to w gorszej, Samsungowej wersji, od razu na wtedy najnowocześniejszy proces TSMC. To jest skok o w zasadzie niemal dwie generacje na raz vs. skok o pół generacji teraz. TDP 5080 też jest niżej 4090. Musiałby być cud, żeby 5080 się znalazła w połowie pomiędzy 4080s a 4090, o przegonieniu nie mówiąc.
-
Mam dwa pytania. Całego laba tu skopiowaliście? (fajnie, jeśli tak i brawo) Drugie do autora wątka. I jak się dalej potoczyło? Jak ten nowy OLED?
-
Dużo lepsze to i tak może być mniej niż choćby 4xxx. Szczególnie z full RT/Path Tracing Ktoś się może orientuje lepiej w tych kwestiach PT na AMD? Są choćby jakieś demka gdzie PT działa na Radeonach? Jak wygląda sprawa gier? Czy wypuszczenia Radków tak samo dobrych w PT jak RTXy od razu by naprawiło sytuację czy wszystkie gry z PT są zespawane z zamkniętymi dla Nvidii funkcjami i nadal choćby przez to będzie brak supportu albo katastrofalna wydajność? Radka nie planuję, ale fajnie jakby marketingowo 9xxx sobie radziły znacznie lepiej, jeśliby naprawili i koślawe FSR 3 (4 ma szansę być na pozioimie DLSS2 lub wyżej) i RT jednocześnie. Konkurencyjność by mocno wzrosła i wsystkim by to wyszło na dobre. Widziałem dziś w filmiku Hardware Unboxed testy, z których wynika, że AMD nadal nie bardzo ogarnia sterowniki pod gry z DX10/11. Poddali się czy ktoś coś wie o zapowiedziach, że jeszcze będą walczyć? Intel najwyraźniej kompletnie olał DX11, więc pewnie AMD też już położyło łaskę.
-
W VR wcale nie tak rzadko 4090 wyprzedza 4080 o ok 50%, czasem 30, ale czasem i ponad 55%. Nawet w grach 2D potrafi dobijać do 50%. Zakładając, że 5080 będzie szybsza o np. 15%, to będziemy mieli np. 100fps 4080, 115fps 5080 i 150fps 4090. Chcę się mylić, w końcu ten RAM GDDR7 powinien sporo dać, ale.. no niestety, wszystkie sygnały na niebie i ziemi sugerują, że w rasterze jest w serii 5xxx. A, Indiana Jones ma raytracing pociachany (po tonie wypowiedzi developerów w wywiadzie na DF widać, że nie chcą dać opcji włączenia go wszędzie bo nie chcą wkurzać ludzi tym jak mało klatek by wtedy uzyskiwali w grze nawet na 4090), a i tak karty 16GB zaczynają ocierać się o krawędź. Jednak 24GB na 4090tce to istotny plus. No chyba, że ktoś kupuje karty za 6K do pogrania rok i potem zmienia. Jak ktoś ma 4090 to moim zdaniem nierozsądne jest sprzedawać teraz. Jak ktoś nie ma, a by chciał, to lepiej niech poczeka aż wszystko już będzie wiadomo o prawdziwej wydajności 5xxx.
-
Możliwe, ale możliwe jest też (nie wnikam o ile mniej możliwe) że 5090 będą jak 9800x3d, pojawi się trochę, zaraz wywieje, ceny skoczą i z np., 11500zł za pierwszy sensowny model poza FE, które padną ofiarą właścicieli botów, zrobi się 12-13tys. 4090 wycofywane z produkcji od dawna, więc coraz trudniej dostępne. Zniechęceni wynikam i problemami z dostępnością ludzie wykupują co lepsze oferty na allegro i nagle najtańsza używana od sensownego sprzedającego, to 8000zł. To są układy, o których Nvidia wiedziała, że będą niewiele szybsze od 4090 i układy duże, których sprawne wersje idą pewnie do AI. To sugeruje, że będzie tych GPU tyle co kot napłakał, jeśli Nvidia od razu planowała zrobić z tego "halo product" dla PRu. Z drugiej strony rozczarowanie może być tak duże, że nikt tego nie będzie chciał i będzie aż nadto w sklepach.
-
Ja też bym wolał prawdziwe, ale mamy co mamy. Oczywiście, że bez AI się by dało poprawić wydajność, ale Nvidia po prostu nie widzi potrzeby, żeby robić GPU do gier. Skoro i tak już inwestują tyle w AI, to wystarczy powiedzieć działowi marketingu, że mają tak to przedstawić, że niby to super sprawa dla graczy i pora na CSa. Jasne, że rozwój jest wolniejszy i droższy, ale jak coś kosztuje 50$ + 200$ marży, to wzrost ceny z 50 na 100$ nie musi oznaczać zmiany ceny z 250 na 500$ za GPU. To tylko przykład, oczywiście, nie mówię, że Nvidia ma 400% na każdym GPU. Jednak jeśli za taki sam chip mogą zarobić więcej dając chip klientom kupującym dla AI, to Nvidia po prostu nie widzi powodu, żeby się wysilać. Intel kuleje w DX 9/10/11 i ich dział discreet GPU ledwo zipie, AMD już nawet nie udaje, że walczy, to po co się wysilać. Apropo. Ktoś liczył ile segment AI zjada powierzchni takiego 4070 czy 4090? W 5xxx pewnie jeszcze więcej. A tu jest coś o GDDR7 i tam jest mowa o obniżonym czasie dostępu (latency). To mi brzmi zbyt pięknie, żeby było prawdziwe. Pamięci projektowane pod maksymalną przepustowość nigdy nie miewają poprawy w latency a tu nagle mają mieć? Bardzo ciekawe. Oby się potwierdziło.
-
Jasne, ale chodzi o to, że jeśli jednak ten FG będzie działał świetnie przy wyższych ilościach klatek, to będzie w grze w 120fps możliwa różnica między prawdziwymi klatkami rozmytymi w ruchu, a wygenerowanymi i ułomnymi klatkami, ale za to bez rozmycia w ruchu. I tutaj nawet z kilkoma artefaktami może być sumarycznie znacznie lepiej, a input lag w grach typu Wieśmin czy RDR2 nie będzie aż tak wielkim problemem jak startujemy ze 120fps (prawdziwych) przed FG.
-
Po to: https://blurbusters.com/massive-upgrade-with-120-vs-480-hz-oled-much-more-visible-than-60-vs-120-hz-even-for-office/
-
Hmm. Nie oglądałem tego nawet dokładnie, bo jednak test na żywo to zupełnie inna sprawa, ale właśnie mi zestrzeliłeś prawie cały entuzjazm Zostaje nadzieja, że przy sygnale 120fps zamiast 20-30fps, będzie zupełnie inaczej, choć podobne nadzieje miałem z FG w DLSS3 i się potem rozczarowałem.
-
RTX 5090 i 5080 – premiera 30 stycznia w x-kom!
VRman odpowiedział(a) na x-kom temat w Nowości i promocje w x-kom
Jakoś DDR5 potrafią mieć w sklepach opis z MT/s zamiast MHz. Musiałbym być idiotą chcąc zabłysnąć wiedzą, którą posiada tutaj każdy user. Zwyczajnie razi w oczy tego typu pomyłka, bo to trochę na poziomie MediaMarktów sprzedających 20 lat temu Pentiumy 6GHz (bo dual-core 3GHz) Mogę się trochę zgodzić, że to czepialstwo. -
Zmiana upscallingu zwykłego będzie niezbyt istotna, przynajmniej dla mnie (bo nie lubię DLSS) ale to właśnie ten Frame Gen może się okazać bardzo przydatny posiadaczom OLEDów 240, a szczególnie 360 i 480/500Hz. FG w DLSS4 ma realne szanse to zmienić. W grach gdzie i tak powyżej 120fps nie wyciśniesz przez CPU, zrobinie z tego 480fps nawet z artefaktem widocznym tu i tam, da ogromną poprawę jakości obrazu w ruchu na OLEDzie 480Hz bez włączania BFI i rezygnowania z HDR i ogólnej jasności. Input lag przy prawdziwych 120fps też nie powinien być aż tak straszny w grach innych niż strzelanki online itp. Framegen z 30-40fps mnie kompletnie nie interesuje, z 20fps po prostu śmieszy, ale z 90-150fps już jak najbardziej może to mieć sens, o ile obraz będzie akceptowalny, czyli zupełnie inny niż w FG w DLSS3.x czy FSR FG.
-
RTX 5090 i 5080 – premiera 30 stycznia w x-kom!
VRman odpowiedział(a) na x-kom temat w Nowości i promocje w x-kom
-
Żulernia z Allegro, OLX, PCLab i ITH
VRman odpowiedział(a) na adashi temat w Dyskusje na tematy różne
Zapomnij. Nie w okolicach premiery. Chyba, że stanie się cud i AMD zaskoczy. Ale w maju/czerwcu to już być może, chyba, że marketing DLSS4 zrobi swoje i Twoja poleci na wartości. Ogólnie to jak wyjdzie, że DLSS4 Ci się by przydał to zmieniaj, ale jak nie, to pewnie różnica w wydajności będzie za mała, żeby się w ogóle zastanawiać. Wtedy poczekaj do kostek 3GB i na wprowadzenie serii Super, czyli +50% pamięci do każdego modelu. Przynajmniej wtedy z 24GB RAMu będziesz miał bardziej "future proof" -
Przestańcie się kłócić o ten input lag, bo raz, że nie wiadomo jak to wypadnie w praktyce, a dwa, że widzę tutaj niektórzy się kompletnie zaplątali. 7ms to nie jest lag z DLSS4. To tylko różnica względem FG na serii 4xxx. Całościowo jest znacznie więcej, o czym nawet gość w filmiku Digital Foundry mówi - najpierw czekasz jedną klatkę i potem sklejasz z tego klatki pośrednie a dopiero generowanie tych pośrednich trwa odrobinę dłużej jeśli chcesz ich 3 zamiast 1, ale czas generowania klatki jest sporo mniejszy niż czekanie na prawdziwą klatkę i potem wykonywanie wszelkich obliczeń. Przy generowaniu 3 klatek zamiast 1, nie trzeba wykonywać trzykrotnie nawet 100% tych obliczeń co przy generowaniu pierwszej, nawet pomijając już fakt, że najwięcej czasu zjada czekanie na tą prawdziwą klatkę na początku. Poza tym lag będzie inaczej wyglądał przy FG 50-200fps a inaczej 150-600fps. Na razie nic nie wiemy i bez sensu się o to kłócić. Jak z DLSS3 ja pozostanę optymistą aż nie dowiem się po premierze, że jest jednak źle. Z DLSS3 optymizm skończył się u mnie bardzo szybko, ale z DLSS4 jest szansa, że zamiast "tak jak myślałem, nie ma to sensu" powiem "nareszcie jakiś DLSS, który się do czegokolwiek nadaje". Testy CS2 na 9800x3d pokazują 250, to nie wiem gdzie Ty te 400 widziałeś, chyba, że mówimy o czym innym np. 0.1% vs 1% lows. Poza tym zgoda, że w tej grze jest dużo klatek i tak się najlepiej gra. Na pewno lepiej się będzie grało w AVG 400fps ze spadkami do 250 niż AVG 200 ze spadkami do 150, to jasne. Heh Jak ja często widuję takie wypowiedzi. Ktoś widzi kilka komentarzy, generalizuje, potem widzi kilka innych, znowu generalizuje i nagle wielkie zdziwienie "czemu ludzie wczoraj mówili to, a dziś im się odwidziało?!" A to po prostu byli inni ludzie. W internecie jest jednak trochę więcej niż 5 osób, które się o czymś wypowiadają. Ghosting przeszkadza tym którym przeszkadzał i nie przeszkadza tym, którym nie przeszkadzał. Ewentualnie może zacząć przeszkadzać tym, którym nie przeszkadzał. Tu nie ma żadnej magii i przyzwyczajania się. Za to są trendy i coraz więcej głupoty, bo jak widać marketing NV jest całkiem skuteczny jeśli chodzi o te wszystkie "rozmydlacze". Dlatego widzisz coraz więcej wypowiedzi w necie, że DLSS i ghosting nie przeszkadzają i jest super. Jeśli FSR 2 ludzie potrafią oceniać jako "OK" to dla takich DLSS jest cudownie ostry i nie ma piksela ghostingu nigdzie i nigdy No i zapewniam Cię, że żaden z graczy, który ostro krytykował DLSSy czy FG nie zmienił zdania do poziomu "jak można było grać bez tego". Najzwyczajniej na świecie ile graczy, tyle opinii. Z drugiej strony trzeba zauważyć, że od czasów DLSS 1 była spora poprawa z DLSS2 i jest jakaś nadzieja, że teraz zobaczymy podobny przełom z FG, czyli przejście z "to jest bezużyteczny idiotyzm" do "to ma wkurzające wady, ale w pewnych sytuacjach może być przydatne". Możliwe, że FG w 4.0 będzie nieporównywalnie lepszy od FG3.x A jeśli okaże się być do dupy, to jeszcze zdążymy na to ponarzekać w oparciu o konkretne info, a nie jakieś śmieszne filmiki youtuberów jak Linus. PS. A gość z przedpłatą nie wygląda mi na oszusta. edit: nie wiedziałem, że o forumowicza chodzi . Oczywiście nikomu nie radzę wchodzić w takie układy typu najpierw kasa, a potem licz na łaskę sprzedającego, że jednak wyśle. Rzeczy powyżej wartości 100zł to na OLX się kupuje tylko z odbiorem osobistym i sprawdzeniem na miejscu.
-
Pierwszy będę wylewał pomyje na artefakty i inne problemy z FG, ale trzeba być uczciwym i napisać to: Mógł pomylić wady o których mówi z dwoma innymi, nie mającymi nic wspólnego z generowaniem klatek. Dowodził braku swojej wiedzy ignorancji wiele razy. Może jakby tam był Steve z Hardware Unboxed, to jeszcze by miało sens posłuchać co mówi, ale nie Linus. Zresztą nawet jeśli, to i tak jest nadal nadzieja, że ten generator będzie przydatniejszy niż DLSS3.x
-
Ostatnio jak Nvidia nie czuła oddechu konkurencji na karku, to na bezczela graczom walnęła proces Samsunga będący upudrowanym 10nm jak dostępne już było TSMC 7nm. Przyznam, że nie szukałem, a może ktoś widział jakieś sensowne info o różnicach w procesie 3nm vs. 4nm w przypadku układów o charakterystyce gamingowych GPU, a nie tylko ogólnie? Jak różnica jest typu 10% to Nvidia może po prostu kompletnie olać ten proces skoro nikt z AMD lub Intela i tak im nie podskoczy w GPU do gier. Dadzą kostki GDDR7 3GB, jakieś AI które rewolucyjnie potrafi posprzątać ikonki na pulpicie i przewidzieć zużycie kabli w myszce i klawiaturze i starczy.
-
Taka dygresja: 4nm vs. 5nm to różnice mniejsze niż jeszcze kilkanaście lat temu były w obrębie tego samego procesu po jego usprawnieniu. Nawet oficjalnie nie było o takich usprawnieniach mowy. Z których zdaje się (mogę się mylić) tylko jedna się nadaje do gamingowych GPU Zobacz na slajdy TSMC. Ja im się przyglądam od lat z uwagą i widać bardzo jasno, że gamingowe GPU pojawiają się zazwyczaj 2 albo 2.5r. po tym gdzie zaczyna się pasek nowego procesu na slajdzie. Tymczasem ta masowa produkcja dotyczy tylko procesu, który raczej jest optymalizowany pod urządzenia low-power jak chipy do komórek. Niestety po newsach o tym, że Samsung ma potężne problemy z GAA, po tym jak pojawiły się plotki że i u Intela nie idzie to jak mieli nadzieję, pojawiły się niedawno informacje, że Apple rezygnuje z 2nm. Mieli zacząć tego używać na koniec 2025. Jeśli problemy z usyskiem sprawnych chipów z wafla są tak duże w przypadku tak malutkich chipów, to znaczy, że na yield na poziomie akceptowalnym dla kart dla graczy możemy musieć czekać jeszcze wiele lat. Znowu. Slajdy marketingowe. Jak je poanalizujesz kilka lat to znajdziesz sporo schematów. Na przykład taki, że od GDDR5 nigdy nie pojawiła się w kartach do gier pamięć jaką zapowiadano jako najszybszą. Widziałeś GDDR5 10? A miała być. A GDDR6 24? Przecież to było sporo przed premierą serii 4xxx a jednak nic nie wyszło poza chyba 22,2 a na początek nawet zaledwie 20. Teraz też były dostępne 32 i ile dostaliśmy w 5090? 28. 36 to max, teoretyczna maksymalna wydajność jeśli ktoś chce do zastosowań, gdzie żyłowanie napięcia ma sens. Na kartach 512bit nie ma sensu najwyraźniej, a i 4090tka z 384 sugeruje, że trzeba te 15-20% odjąć. Mamy też zapowiedzi 40tek, ale tak samo jak z GDDR6 24 i GDDR6x 28, nigdy ich na karcie do gier nie zobaczysz. Chyba, że na kartach 64bit jak Nvidia wyskoczy z pomysłem aby kartom za 350$ czyli rtx6060, dać taką szynę i po dwie kostki 3GB lub 4GB To już ma mniejsze znaczenie. Bardziej nam rynek psuje teraz szał na AI i ograniczone ilości waflów u TSMC jakie Nvidia alokuje. Używać nowego procesu do kart dla graczy? "A komu to potrzebne? A dlaczego?" Ja napiszę pesymistyczny scenariusz, dla równowagi: początek 2026: 2nm TSMC zaczyna być przydatne do smartfonów. Problemy z uzyskiem sprawiają, że dopiero na koniec 2027 proces zaczyna mieć sens dla GPU poniżej 5000$ Mijają kolejne 2 lata zanim ten bardzo drogi proces lub inny jego wariant, nadający się lepiej do GPU tego typu (wysoki zegar i pobór prądu) okrzepnie na tyle, że Nvidia lub AMD całkiem już skupione na AI, łaskawie nam zaoferują w końcu karty zrobione w tym procesie. Konkurencja w postaci Samsunga i Intela do tego czasu spada na margines lub plajtuje. Na koniec 2029 dostajemy w końcu prawdziwą nową generację po ADA 4xxx. Ale Nvidia używa układów max 200mm2 i seria 7080 czy 9080 dostaje szynę 128bit i wypada w rasterze gorzej nawet od PS6 mimo 10x wyższej ceny. Na kanale Digital Foundry tłumaczą, że to nic nie szkodzi, bo AI, AI i AI. Kaczyński zostaje prezydentem w 2030r.. Dobra, może aż tak źle to nie.
-
Nie no, trochę nietrafny opis. To po prostu timewarp obrotów kamery. Niestety już pojawiają się głosy (osobiście nie zamierzam oceniać inaczej niż na żywo) że wcale to takie cudowne nie jest To jest stara technologia w VR, gdzie jest oczywistością od chyba niemal dekady Przewagi to akurat raczej nikomu nie da. W grach typu CS2 czy Valorant i tak leci się w 400-500fps z 0,1% lows powyżej 200fps. Właśnie prędzej poprawi to zabawę zwykłym graczom, którzy na 10 godzin grania trafią przeciwnika raz czy dwa razy więcej. Prosi potrafią przewidywać w ułamku sekundy do tego stopnia, że gościu w 60Hz miał wyniki jak w 240Hz inni prosi. Po prostu się przyzwyczaił i brał poprawkę. Owszem, to było w śmiesznym filmiku na kanale Linustechtips, ale porównać wyniki kilku graczy pro, to chyba nawet oni tam potrafią
-
https://www.roadtovr.com/scientists-mini-vr-headset-mice-study/ A niektórzy narzekają, że headsety np. Pimaxa są za duże
-
Poczekajmy aż będzie wiadomo jak w ogóle sobie ten framegen poradzi. Jeśli tak samo tragicznie jak DLSS3.5 to nie ma sensu nawet tego włączać, ale jeśli różnica w artefaktach, ghostingu itp. będzie naprawdę ogromna, to choć nie poprawi to niczego w responsywności (a nawet ją pogorszy) to jednak już takie 120 fps interpolowane do 400-500fps, na OLEDach 480 zaoferuje naprawdę dobrze widoczne korzyści w jakości obrazu w ruchu. Nawet na OLEDach 240Hz może dać jakąś różnicę, choć nie tak wielką jak na 480Hz.
-
Trochę dziwię się niektórym, że pytają o upgrade 4080 do 5080. Jest sporo sygnałów, że wydajność w rasterze będzie tylko symbolicznie wyższa. Tymczasem łysy z Braz.. znaczy z DF mówi coś ciekawego: wydajność nie będzie już poprawiana, za to będzie ulepszana poprzez AI. Czyżby on wiedział coś więcej dzięki swoim dobrym kontaktom z Nvidia? Cały filmik jaki dodali, wygląda jak marketing na poziomie prezentacja garnków albo Telezakupów Mango. Ludzi głębiej wchodzących raczej Nvidia na świecie nie znalazła, więc może gość coś wie.
-
W przypadku "normalnych" kart może coś założyć by można, ale np. FE 5090 może nie mieć wiele wspólnego z cechami FE 4090. I to nie tylko w kwestii chłodzenia czy kultury pracy. Bez fusów z herbaty się na razie nie da robić żadnych założeń. Zaraz, zaraz. To istniały w ogóle karty w wersji Noctua bez ceny z kosmosu?
-
Ja jakąś widzę. Tylko że mi tak zależy na ładniejszych włosach w grach jak na symulacji naprężenia gumek w gaciach dla postaci w grach RPG. No bez przesady, żeby się jarać taką pierdołą. Może kobiety mają prawo, bo wygląd, ciuszki i fryzury to ich żywioł. Ale gracze? Przy różnicy której prawie nie ma? Dokładnie tak. Co po supergrafice, jak postacie (całe, nie twarze) w grach z 2001 potrafią mieć lepszą i przyjemniejszą dla oka animację, a najpiękniejsze gry psują imersję bo jakiś pterodaktyl lata tak, że po sekundzie nie widzę tam Pterodaktyla, a drucik - "animation path" po którym przesuwa się nieudolnie obracany obiekt. W Indiana Jones nawet na 4080 trzeba dla pięknego oświetlenia wyłączyć ruchy roślinności, bo karta nie wyrabia przy PT, co zabija połowę imersji mocniej niż brak włączonego PT. Wracając do nieudolnych animacji. Czekam aż AI pomoże, bo w połowie gier animatorów powinno się za efekty ich pracy wywalić z roboty. Albo ich szefów, którzy nie dali im wystarczająco dużo czasu. W każdym razie tych co są za to odpowiedzialni. A może po prostu dobrą animację potrafi zrobić 1% animatorów i porównuję do pracy geniuszy. Po przeczytaniu 700 stron książki o podstawach animacji da się zrozumieć, że to nie jest łatwy zawód i nie trzeba mi pisać "to zrób to lepiej". Tylko jeśli na grę jest 300 baniek dolarów, to chyba powinno się zainwestować w dobrych fachowców, a nie psuć ludziom zabawę biegiem z kijem od szczotki we wiadomo czym. Najbardziej w grach indie to razi. Fajna grafika, nawet potencjalnie fajna gierka, ale animacje jak z gierek na przeglądarkę z lat 2000-2005. Może jak AI zacznie z tym pomagać to się poprawi i to będzie dużo ważniejsze z punktu widzenia graczy, niż jakieś tam bardziej naturalne włosy pod pachami. I chodzi mi tu teraz tak o animacje twarzy, gdzie rewolucja już puka do drzwi ("i bardzo ... dobrze") jak i właśnie animacje postaci i obiektów w grze. Wszystkiego. PS. Jest kilkadziesiąt stron tego wątku dziennie. Czytam może 5%. Skąd na reddicie wątek pytający o 200-300$ droższe niereferenty 5xxx? Coś się pojawiło w sklepach czy jak? Jak to tyczy 5090 to luz, ale jak 5080 to porażka. Albo może autor wątka to idiota, który zobaczył placeholdery?
