Send1N 667 Opublikowano 13 godzin temu Opublikowano 13 godzin temu No i niechcący w głównym temacie nvidii mamy offtop o drzewie genealogicznym tego jeszcze chyba nie było od przynajmniej 15 lat przy świętach pite było to może bany się nie posypią 6
Zhao 82 Opublikowano 13 godzin temu Opublikowano 13 godzin temu 2 godziny temu, Send1N napisał(a): 15 lat przy świętach pite było to może bany się nie posypią Ja tam nie piłem więc uważajcie ;P Edit: Temat lekko przeczyszczony - szacunek dla wszystkich babć i dziadków 1
JeRRyF3D 593 Opublikowano 13 godzin temu Opublikowano 13 godzin temu @Zhao to trudno będzie Ci się tu odnaleźć przez najbliższe 24h 1
ODIN85 650 Opublikowano 8 godzin temu Opublikowano 8 godzin temu 5 godzin temu, Doamdor napisał(a): Daleko do premiery tej karty graficznej, która zapewne będzie kosztować jedyne 2499zł. Warto byłoby wymienić w końcu ten monitor na WQHD. Nie ograniczaj się do jednego sklepu. Lecz nie ma się co napalać, bo może być wielkie rozczarowanie. Zawsze możesz zabrać na raty, tak jak to robił litwicki. Ale zdajesz sobie z tego sprawę że czasem to wychodzi taniej niż za gotówkę jak dają ratę luja dwie gratis? Potem i tak to można prędzej spłacić.
areczek1987 43 Opublikowano 8 godzin temu Opublikowano 8 godzin temu (edytowane) Edytowane 8 godzin temu przez areczek1987 1 1
Radziuwilk 113 Opublikowano 7 godzin temu Opublikowano 7 godzin temu (edytowane) Nvidia mogla sie zdecydowac albo 5070ti albo 5080. Zygac sie chce od tych 15 modeli kart. Mamy 4 4070tki LOL. Ciekawe czy pobija rekord i zrobia 5x 5070tek Bedzie 4x 5060, 5x5070, 4x 5080. O co im chodzi!?! 5 fps lub mniej roznicy miedzy modelami. Typowa zagrywka marketingowa jak z 4080 i 4080 super. Byle tylko kaske wyciagnac i dac jak najmniej. Dali by troche wydajnosci to by ludzie sie poprzenosili na 2K. Kiedys sie w miare sprawnie skakalo z rozdzialki na rozdzialke, a jak stanelo na 1080p to szkoda gadac. To wina wlasnie NV, bo monitory 2K sa juz bardzo tanie. Ja raczej kupie nowego radeona, bo polityna NV to ciagle plucie nam w twarz jak nie cena to kotlety, teraz ram w 5070. AMD przynajmniej daje od czasu do czasu jakies bonusy jak np rx 5600ti/5700, ryzen 3600, open FSR... Edytowane 7 godzin temu przez Radziuwilk 1
Doamdor 248 Opublikowano 7 godzin temu Opublikowano 7 godzin temu 13 minut temu, SmogSmok napisał(a): Płytka dla GB202 https://videocardz.com/newz/nvidia-geforce-rtx-5090-pcb-leak-reveals-massive-gb202-gpu-package Jedno złącze zasilania. 2
Maxforces 37 Opublikowano 7 godzin temu Opublikowano 7 godzin temu Godzinę temu, ODIN85 napisał(a): Ale zdajesz sobie z tego sprawę że czasem to wychodzi taniej niż za gotówkę jak dają ratę luja dwie gratis? Potem i tak to można prędzej spłacić. Ja zdaje sobie sprawe. Kazdy kraj ma rozne regoly, od 20 lat jade na kresce i jakos zyje placac podatek z marsa. 1
Phoenix. 568 Opublikowano 6 godzin temu Opublikowano 6 godzin temu (edytowane) Jedno złącze ? Meh Edytowane 6 godzin temu przez Phoenix.
Radio Tirana 151 Opublikowano 6 godzin temu Opublikowano 6 godzin temu Skoro 5070 ma pobór o 25% większy, to 3000 Mhz na rdzeniu pęknie jak nic. Szykują się gorące karciochy 🔥
RTX5090 77 Opublikowano 5 godzin temu Opublikowano 5 godzin temu 6 minut temu, Radio Tirana napisał(a): Szykują się gorące karciochy Niekoniecznie. Moja seryjna 4090 na powietrzu (TDP 450W) miała coś około 70 stopni. W serii40 układy chłodzenia były aż ponadwymiarowe.
Phoenix. 568 Opublikowano 5 godzin temu Opublikowano 5 godzin temu (edytowane) 15 minut temu, Radio Tirana napisał(a): Skoro 5070 ma pobór o 25% większy, to 3000 Mhz na rdzeniu pęknie jak nic. Szykują się gorące karciochy 🔥 To może oznaczać, że superek nie będzie bo więcej cuda to więcej poboru i będzie takie Ampere v2. Ale skoro 5070ti ma tylko 50W więcej przy sporo większej ilości cuda to ta zwykła 5070 musi być wyżyłowana do granic możliwości Edytowane 5 godzin temu przez Phoenix.
Radio Tirana 151 Opublikowano 5 godzin temu Opublikowano 5 godzin temu 4 minuty temu, Phoenix. napisał(a): to ta zwykła 5070 musi być wyżyłowana do granic możliwości Najwidoczniej była to jedyna opcja, by 6144 CUDA w Blackwellu doskoczyło do poziomu 4070 Ti (może nawet 4070 Ti Super). Bo że to nie dorówna 4080 to chyba nikt nie ma wątpliwości
galakty 474 Opublikowano 5 godzin temu Opublikowano 5 godzin temu Może faktycznie Superek nie będzie, skoro już 5070Ti ma 300W (więcej niż 4070Ti)
RTX5090 77 Opublikowano 5 godzin temu Opublikowano 5 godzin temu w tej serii tak naprawdę tylko 5090 coś tam wrzuci ekstra. 8 GB więcej ramu na 512 bitowej magistrali, sporo więcej CUDA i RT i innych jednostek, dużo szybsze GDDR7.
Phoenix. 568 Opublikowano 5 godzin temu Opublikowano 5 godzin temu 7 minut temu, galakty napisał(a): Może faktycznie Superek nie będzie, skoro już 5070Ti ma 300W (więcej niż 4070Ti) Ja myślę że nie będzie superek ale w mojej ocenie to dobrze, kupujesz raz a porządnie na dwa lata, a nie po roku masz psikusa, że wychodzą karty oferujące więcej za tyle samo lub mniej. 3
PiPoLiNiO 442 Opublikowano 4 godziny temu Opublikowano 4 godziny temu 2 godziny temu, SmogSmok napisał(a): Płytka dla GB202 Ło matko. Toż to ogromne 🤯🤯🤯🤯
Spl97 395 Opublikowano 4 godziny temu Autor Opublikowano 4 godziny temu 10 godzin temu, Stjepan napisał(a): 16GB jeszcze na długo starczy w 1080p. Przy takim "ogarnięciu" game dev-ów daję od 4 do 6 lat i po tym czasie 16 GB spotka to samo co teraz 8 GB. 9 godzin temu, Doamdor napisał(a): Zawsze możesz zabrać na raty, tak jak to robił litwicki. Powtórzę jeszcze raz, że Litwicki swoje flagowe karty nie brał na raty, a wręcz brał je na kredyt i miał potem problemy ze spłacaniem kredytów. 4 godziny temu, ODIN85 napisał(a): Ale zdajesz sobie z tego sprawę że czasem to wychodzi taniej niż za gotówkę jak dają ratę luja dwie gratis? Potem i tak to można prędzej spłacić. Dodatkowo biorąc na raty, jest możliwość od razu zrobienia pierwszej wpłaty, co też zmniejsza później wysokość raty do spłacania. 2 godziny temu, SmogSmok napisał(a): Płytka dla GB202 Dla zaoszczędzenia kosztów nadal jadą na możliwie jak najkrótszym PCB, to sprzyja w przyszłości awariom 2 godziny temu, Doamdor napisał(a): Jedno złącze zasilania. Możliwe, że jednak zapowiadane 600 W będzie przesadzone i tyle to mogą mieć co najwyżej Strixy, a niższe modele, to mogą mieć TDP (co za tym idzie również PL) ustawione niżej.
Aruuus77 5 Opublikowano 4 godziny temu Opublikowano 4 godziny temu Rzeczywiście wczoraj sprawdziłem to warzone z dlss brał ponad 17gb vram 😁 i to na niepełnym 4K. Z kolei GoWR bierze max 7.5 czasami.
TheMr. 457 Opublikowano 4 godziny temu Opublikowano 4 godziny temu Superek nie będzie bo w 2026 wyjdzie 6xxx na 3nm. GPU mają rok opóźnienia. GPU siedzą na 4/5 nm kiedy telefony za rok będą wchodzić w 2nm.
Phoenix. 568 Opublikowano 4 godziny temu Opublikowano 4 godziny temu 1 minutę temu, TheMr. napisał(a): Superek nie będzie bo w 2026 wyjdzie 6xxx na 3nm. Napewno nie do gier Fajne porównanie telefon vs karta do grania jakby to miało coś wspólnego 🤣
Spl97 395 Opublikowano 4 godziny temu Autor Opublikowano 4 godziny temu 7 minut temu, TheMr. napisał(a): Superek nie będzie bo w 2026 wyjdzie 6xxx na 3nm. Jeżeli przyszła nowa seria ma wyjść w 2026 roku, to na pewno w późnym 2026 roku (Q4 2026).
Phoenix. 568 Opublikowano 4 godziny temu Opublikowano 4 godziny temu Obecnie cykl wydawania sprzętu się raczej wydłuża. Kiedyś co roku cpu wychodziły, teraz trzeba czekać 2lata.
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się