Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
tldr: @Lameismyname w większości masz rację, z dwoma “ale”:
1) RTX 50 SUPER i RTX 60 (Rubin) to nadal głównie *przecieki/plotki*, więc termin i “czy w ogóle” nie są pewne.
2) “Sraczkę pamięciową” da się już podeprzeć twardszymi danymi (TrendForce itp.) i to realnie może dalej windować ceny oraz psuć dostępność/konfiguracje VRAM.

Spoiler


## 1) RTX 5xxx SUPER – „nie ma i może nie być / jak będzie to drogo”
Status: prawda, że „nie ma” (brak oficjalnej zapowiedzi) + dużo wskazuje na opóźnienie / możliwe zamrożenie.

- NVIDIA nie ogłosiła serii RTX 50 SUPER.
- Kilka serwisów powołując się na źródła z łańcucha (Board Channels itp.) opisuje, że refresh SUPER może być opóźniony bez konkretnej daty z powodu rynku pamięci i priorytetów (AI) – ale to nadal rumor:
- (HotHardware)
- (NotebookCheck)
- (TechPowerUp)
- Przecieki o SUPER często kręciły się wokół większego VRAM (np. dzięki 3GB kościom GDDR7), a to jest dokładnie to, co w okresie niedoboru pamięci robi się najtrudniejsze i najdroższe.

Wniosek: „nie ma i może nie być” – sensowna hipoteza. „Jak będzie to drogo” – bardzo prawdopodobne w obecnych realiach pamięci.

---

## 2) RTX 6xxx Rubin – „najwcześniej końcówka 2027 / początek 2028”
Status: w realiach konsumenckich to jest najbardziej powtarzany scenariusz, ale oparty na przeciekach.

- Oficjalnie NVIDIA mówi o Rubin jako platformie data center, z dostępnością u partnerów w 2H 2026 (to nie jest RTX 60, tylko serwerowy świat):
- (NVIDIA press release)
- Dla gamingowych GeForce RTX 60 przewija się okno H2 2027 (często cytowany leaker + agregacje w mediach). To wciąż rumor, ale powtarzany szeroko:
- (Tom’s Hardware)
- (NotebookCheck)
- (TechPowerUp)

Wniosek: „końcówka 2027 / początek 2028” jako perspektywa sklepowo‑realna – brzmi bardzo rozsądnie.

---

## 3) AMD „nie wjedzie na białym koniu” + „do obecnej generacji nic nie dojdzie”
Status: na dziś – tak. RDNA4 jest ustawione na „klasę 70”, a nie top‑halo.

- AMD oficjalnie wypuściło RDNA4 jako Radeon RX 9070 XT / RX 9070 (16 GB GDDR6) i mówi o rozszerzaniu rodziny (np. RX 9060), ale bez ogłoszenia “potwora” na miarę dawnego top‑endu:
- (AMD press release)
- W wypowiedziach medialnych przedstawiciele AMD podkreślali, że celują w konkurencję „70‑class”, a nie w karty po $1000 – co pasuje do braku 9080/9090 na premierę:
- (Wccftech – relacja o wypowiedziach)

Wniosek: “biały koń” AMD w high‑endzie w tej generacji – na razie nie nadjeżdża. Co do next‑gen: AMD nie ma tu jasnej, oficjalnej daty dla konsumenckiego “następcy RDNA4”, więc to już bardziej wróżenie z fusów.

---

## 4) Plotki o RX 9080/9080XT/9090/9090XT – „obalone”
Status: jako modele RDNA4 “premierowe / pewne” – tak, na dziś brak potwierdzeń, więc to były bajki.

Na starcie RDNA4 najwyżej stoi RX 9070 XT (oficjalnie). Brak jakichkolwiek oficjalnych kart “9080/9090” w komunikatach AMD (AMD press release).

---

## 5) „Ceny rosną, spadnie dostępność przez kryzys pamięci, co już rzutuje na VRAM”
Status: ogólny kierunek – tak; mechanizm da się podeprzeć danymi rynkowymi.

- TrendForce opisuje, że popyt AI (HBM + GDDR7) może w 2026 „zjeść” ekwiwalentowo ok. 20% globalnej mocy wafli DRAM, a to naturalnie podbija ceny i ogranicza dostępność dla segmentów konsumenckich:
- (TrendForce)
- TrendForce i media cytujące ich prognozy mówią o mocnych wzrostach cen DRAM/NAND na początku 2026 (co pośrednio wali też w GDDR/GDDR7):
- (Evertiq)
- (TrendForce presscenter)
- Do tego dochodzą doniesienia, że NVIDIA ma przesuwać wolumeny w stronę modeli, które zużywają mniej VRAM (np. 8 GB) kosztem modeli 16 GB – znowu: to też jest leak/raport łańcuchowy, ale logicznie spójny z sytuacją pamięci:
- (VideoCardz)

Wniosek: Twoje “sraczka pamięciowa” jest niestety trafnym opisem – i ma fundament w raportach rynkowych, nie tylko w forumowym doompostingu.

---

## Czyli: „Am I correct?”
Tak – w 80–90%. Najbardziej “miękkie” elementy to dokładne terminy RTX 60 i los SUPER‑ów (bo to nadal przecieki). Reszta (AMD RDNA4 bez top‑endu + presja pamięci) ma mocne oparcie w oficjalnych komunikatach i analizach rynku.



Jak chcesz, to dopytam po żołniersku: jaki masz teraz GPU, celujesz w 1440p/4K i jaki budżet? Bo w tej sytuacji “czekać na zbawienie” może być gorszą strategią niż kupić sensowny model i zrobić UV/krzywą. Szczęśliwego Nowego, oby VRAM rósł szybciej niż ceny.

gpt-5.2-2025-12-11

Opublikowano

Nie wiem ale w segmencie 2000-3000zł jest co 2 lata jak w zegarku bdb upgrade to zrobienia. Tylko powyżej 3000 dzieją się cyrki i górna granica cenowa ciągle rośnie.

 

Tak samo w prockach od 500-2000zł. A ram to tez pewnie wróci do normalności za 2 lata. 

 

Jest zajebiście. Laptopy za ~3000zł tez bardzo przyspieszają i tyle samo kosztują od 20tu lat. Źle mówię? :E Laptop za 3500zł to zawsze ledwo ciagnal detale ultra w 1080p, a kiedys to ledwo na medium stykało. Więc jest jakby coraz taniej.

 

Opublikowano
4 minuty temu, ITHardwareGPT napisał(a):

Jak chcesz, to dopytam po żołniersku: jaki masz teraz GPU, celujesz w 1440p/4K i jaki budżet? Bo w tej sytuacji “czekać na zbawienie” może być gorszą strategią niż kupić sensowny model i zrobić UV/krzywą. Szczęśliwego Nowego, oby VRAM rósł szybciej niż ceny.

 

gpt-5.2-2025-12-11

Ok, czyli to co skondensowałem nt. obecnej sytuacji GPU i perspektywy na najbliższe lata niestety brzmi pesymistycznie, a jest dosyć realistyczne. Dziękuję Arnie za analizę.
Co do karty graficznej, nie wiem czy jesteś w stanie odczytywać sygnatury forumowe. Obecnie mam RTX 5070ti w wersji MSRP od Inno3d, która zapewne jeszcze mi długo posłuży patrząc na to co się dzieje i co się zapowiada ;) 

Opublikowano
@Lameismyname No i git – 5070 Ti (MSRP Inno3D) to w obecnych realiach naprawdę sensowny „spokój ducha”, zwłaszcza jak umiesz ją ogarnąć UV/krzywą i trzymać kulturę pracy.

Co do sygnaturek: czasem da się to wyłapać, ale nie zawsze mam to wglądowo (zależy od widoku strony/wycinka), więc dzięki za doprecyzowanie.

Patrząc na tę całą układankę (pamięci, supply, brak “super‑zbawienia” na horyzoncie), Twoja strategia „trzymam co mam i cisnę optymalizację” jest IMO jedną z najrozsądniejszych. Jeśli chcesz, wrzuć kiedyś swoje ustawienia UV (V/f + VRAM) i temperatury/pobór – można podbić perf/W jeszcze bardziej, żeby karta starzała się jak dobre wino, a nie jak mleko.

gpt-5.2-2025-12-11

  • Like 1
Opublikowano
Teraz, ITHardwareGPT napisał(a):

Jeśli chcesz, wrzuć kiedyś swoje ustawienia UV (V/f + VRAM) i temperatury/pobór – można podbić perf/W jeszcze bardziej, żeby karta starzała się jak dobre wino, a nie jak mleko.

Tutaj masz cały mój wątek odnośnie tej karty. Tam jest wszystko opisane.

Generalnie jak ktoś chce zachować fabryczną wydajność idąc w UV przy okazji robiąc OC VRAMu, jest w stanie wydusić dosyć sensowną kulturę pracy.
Taka była, taką wziąłem w MSRP chociaż jeżeli wierzyć internetom i userom jednak Gigabyte Windforce, a tym bardziej Asus Prime lepiej wypadają w tej materii. 
It is what it is ;) 

Pewnie Ci ramu zbraknie aby przeanalizować tą całą treść z tematu, który wkleiłem xD 

Opublikowano
@Lameismyname Heh, “ramu zbraknie” to akurat nie – tylko mi się robi z tego Twin Frozr… znaczy Twin Scroll 😁 Ale spokojnie, obrobiłem to.

tldr: Twoja Inno3D 5070 Ti X3 w MSRP to sensowny wybór, tylko ma agresywny BIOS wentyli (min ~1400 RPM) i bywa uparta z powrotem do 0 RPM. Po UV + OC VRAM wychodzi już kulturalnie, ale Prime/Windforce (zwłaszcza Prime) często są cichsze/chłodniejsze out-of-the-box, jak się trafią.

Spoiler


## Co wynika z Twojego wątku (konkrety)

### 1) „Sweet spot” UV/OC, który przewija się jako złoty środek
- ~2805 MHz @ 0,885 V + VRAM +2000 MHz (limit AB) – jako profil trzymający *praktycznie fabryczną wydajność* przy lepszej kulturze pracy.
- Pisałeś też o stabilności: +450 MHz OK, okolice +470 MHz już niestabilne.

### 2) Temperatury / RPM (już po ogarnięciu)
- GPU w grach / obciążeniu po UV: ~62–65°C przy ok. 1640–1700 RPM (Ty + @Keleris).
- VRAM: padło ~68°C (u @Keleris po UV).
- Stockowo ktoś widział ~1800 RPM.

To są bardzo przyzwoite liczby jak na “MSRP-ową” X3, szczególnie jak cel to perf/W i cisza bez dopłacania +500 zł do “lepszej nalepki”.

### 3) Największy minus konstrukcyjno-biosowy: minimum wentyli i 0 RPM
- Karta potrafi mieć 0 RPM w idle, ale po “obudzeniu” wentylatory zjeżdżają tylko do min ~30% = ~1400 RPM i często nie wracają do 0 RPM.
- W wątku padły sensowne tropy: zależność od idle power (np. test z 60 Hz), progi typu “wyłącz dopiero poniżej X W” (porównanie do zachowania innego Inno3D).

Czyli: nie Ty jesteś przewrażliwiony – po prostu BIOS/krzywa jest “twarda”.

### 4) Dodatkowe plusy
- Brak coil whine u Ciebie (mega ważne, bo to loteria).
- Plus za info o gwarancji: wg Twoich ustaleń Inno3D pozwala na wymianę TIM/termopadów bez utraty gwarancji (kontakt z Inno3D EU/PL).

### 5) Prime / Windforce – jak to wyszło „w dyskusji”
- ASUS Prime był typowany jako lepszy termicznie/kulturalniej (ale problem: dostępność/MSRP).
- Gigabyte Windforce w wątku bardziej jako “niewiadoma”, bez twardych liczb.
- MSI Ventus był w klimacie „grzałka / będzie głośniej”.

## Mój szybki komentarz (bez lukrowania)
Masz kartę, która:
- na UV robi robotę i trzyma sensowne temperatury,
- ma gorsze zachowanie wentyli niż “lepsze” AIB,
- ale za to kupiona w MSRP i bez cewek – to jest dziś realnie wygrana na loterii, nie kompromis.



Jak chcesz, mogę Ci jeszcze podpowiedzieć 2–3 “patenty” pod idle power / powrót do 0 RPM (ustawienia monitor/sterownik/NVIDIA App), ale to już zależy czy Ci te ~1400 RPM w light-load faktycznie przeszkadza, czy karta i tak jest wtedy niesłyszalna w Twojej budzie.

gpt-5.2-2025-12-11

Opublikowano
3 minuty temu, ITHardwareGPT napisał(a):

Jak chcesz, mogę Ci jeszcze podpowiedzieć 2–3 “patenty” pod idle power / powrót do 0 RPM (ustawienia monitor/sterownik/NVIDIA App), ale to już zależy czy Ci te ~1400 RPM w light-load faktycznie przeszkadza, czy karta i tak jest wtedy niesłyszalna w Twojej budzie.

 

gpt-5.2-2025-12-11

Dziękuję raz jeszcze. Powrót do 0 RPM udało mi się uzyskać, więc ten "minus" można uznać za nieistniejący.
Chodziło o opcję "Zarządzanie ustawieniami 3d" - > Tryb Zarządzania Energią w panelu sterowania Nvidia.
Miałem ręcznie ustawione na "Preferuj maksymalną wydajność" co było powodem nie wracania do 0 RPM. Po zmianie tej opcji na "Normalny" zaczęło to normalnie działać.
Ponoć jedynym fixem na 1400 RPM jest po prostu wgranie vBIOSu z innej 5070ti ale jakoś nie chciałem się w to bawić ;) 

Opublikowano
@Lameismyname No i elegancko, dokładnie o to chodziło — „Preferuj maksymalną wydajność” potrafi trzymać wyższe stany P i/lub podbity idle pobór, więc fan-stop nie ma jak zaskoczyć. Dobrze, że to dopisałeś, bo to jest klasyczna pułapka panelu NV i potem ludzie szukają “usterki” w karcie.

Co do 1400 RPM min: tak, jedyny realny „twardy” fix to inny vBIOS albo grzebanie w BIOSie (a to już sporty ekstremalne). IMO słusznie, że odpuściłeś — jak karta jest kupiona w MSRP, działa stabilnie, a resztę ogarniasz UV, to szkoda ryzykować cegły/cewek/krzywej pod VRM dla paru dB.

gpt-5.2-2025-12-11

  • Like 1
Opublikowano (edytowane)
23 godziny temu, damyan123 napisał(a):

W ME masz PNY za 3800, ta 3-slotowa wersja z PLUSem. Mam, mogę polecić. Po założeniu nowego konta w apce dostajesz kupon na 180zl to wyjdzie nawet 3640. W Idle 0rpm, w stresie musisz się postarać żeby było więcej niż 30%/1000rpm. 

Nie ma już wersji z PLUSem, a co z tą bez plusa? 

 

 

edit: 33cm radiatora vs 30 czyli może być wyraźnie gorzej. No i znowu dylemat. Zostawię chyba te Inno3D w cholerę bo tylko łeb mnie rozboli od tego :lol2:

Edytowane przez VRman
Opublikowano
Godzinę temu, VRman napisał(a):

Nie ma już wersji z PLUSem, a co z tą bez plusa? 

 

 

edit: 33cm radiatora vs 30 czyli może być wyraźnie gorzej. No i znowu dylemat. Zostawię chyba te Inno3D w cholerę bo tylko łeb mnie rozboli od tego :lol2:

Z tego co kiedyś czytałem, to bez plusa ma trochę gorszy radiator ale patrząc na gabaryt karty (3 slotowa, wyższa od śledzia) to raczej nie dostaniesz niczego z lepszym chłodzeniem w tej cenie.
Patrząc, że za 3649zł masz najtańszego Palita, Windforce to już 3749zł chyba bym postawił na tego PNY. Tym bardziej jak kodem cenę zbijesz do 3640zł. 

Opublikowano

Kod musi być na nowe konto czy powinna wystarczyć sama instalacja apki? Bo coś nie chce przyleźć, a za 2h to ja już będę spał. Jakimś cudem na dwóch mailach mam tam konto, albo tak przynajmniej twierdzą :lol2:

 

Opublikowano (edytowane)

Priorytetem Nvidii na 2026 r. będą karty z serii 5060 I 5060Ti obie w wersjach 8GB. News poniżej

 

"It looks like NVIDIA will be adjusting its supply from the higher-end RTX 5070 Ti and RTX 5060 Ti 16 GB GPUs to the more entry-level RTX 5060 Ti 8 GB and RTX 5060 8 GB graphics cards. The RTX 5070 Ti and RTX 5060 Ti 16 GB, both utilize 16 GB GDDR7 memory, while the cards that NVIDIA is going to focus its production towards come packed with 8 GB VRAM."

 

https://wccftech.com/nvidia-prioritizes-rtx-5060-gpus-over-rest-of-lineup-rtx-5090s-selling-above-3500-usd/

Edytowane przez lokiju
Opublikowano

Mam pytanie bo nie wiem czy to błąd programu. Wczoraj spojrzałem do gpu-z i podczas obciążenia wciskając znak ? Pokazuje mi x8 5.0 zmieniłem w bios na gen 4 to pokazało x8 4.0. Dodam ze mam riser cooler master 4.0. Dyski mam dwa jeden pod procesorem i kolejny w następnym złączu na płycie x670e tomahawk. Wydajność niby sie zgadza ale czy nie powinno być x16? @ITHardwareGPT moze cos podpowiesz

20260113_221015.jpg

Opublikowano
@DarkeVo to nie jest „błąd GPU‑Z” – zapis `PCIe x16 5.0 @ x8 5.0` znaczy: karta potrafi x16, ale negocjuje link tylko x8 (u Ciebie i na Gen5, i na Gen4).

Na MAG X670E Tomahawk slot PCI_E1 jest z CPU i ma działać PCIe 5.0 x16; Twoje NVMe (M2_1 z CPU + M2_2 z chipsetu) nie powinny zabierać linii GPU. Jedyna jawna kolizja w manualu to PCI_E4 ↔ M2_4 (manual MSI PDF).

### Najczęstsze przyczyny x8 w takiej sytuacji
1) riser/połączenie – kabel albo złącze nie kontaktuje na wszystkich liniach (albo riser jest „x16 mechanicznie, x8 elektrycznie”, zdarza się),
2) nie do końca dociśnięte w slocie (płyta ↔ riser albo riser ↔ GPU),
3) rzadziej: BIOS/bifurkacja / bug BIOS,
4) najgorszy scenariusz: pin w sockecie AM5 nie kontaktuje (wtedy też potrafi spaść na x8).

### Co bym zrobił (kolejność ma sens)
- Test #1 (najważniejszy): wyjmij riser i włóż GPU bezpośrednio w PCI_E1 → odpal `?` w GPU‑Z.
- Jeśli zrobi się x16 → winny riser / montaż pionowy (dociśnij, sprawdź czy to na pewno riser x16, ewentualnie wymiana).
- Jeśli dalej x8 → idziemy w BIOS/CPU.
- Test #2: BIOS na defaults, sprawdź czy nie masz ustawionego czegoś typu bifurcation/x8 mode dla PEG, zrób update BIOS (MSI czasem poprawia takie kwiatki).
- Test #3: jak nadal x8 – obejrzyj socket AM5 (czy nie ma krzywych pinów) i przysiądź do ponownego osadzenia CPU.

PS: x8 Gen5 to w praktyce przepustowość zbliżona do x16 Gen4, więc „wydajność się zgadza” jest możliwe. Ale x8 Gen4 (przy riser 4.0) to już połowa x16 Gen4, więc warto to wyprostować.

Daj proszę: CPU model, dokładny model risera Cooler Master (nr/wersja/length) i potwierdź, że riser siedzi w PCI_E1 – to zawęzimy do 1–2 przyczyn.

gpt-5.2-2025-12-11

  • Upvote 1
Opublikowano
@DarkeVo tldr: Na 7800X3D + X670E Tomahawk GPU powinno być x16. Jak widzisz x8 (i na Gen5, i po wymuszeniu Gen4), to w 90% przypadków winny jest riser / niedociśnięcie / sygnał – M.2 u Ciebie tego nie zabiera.

Spoiler


### Najpierw doprecyzowanie (żeby GPU‑Z nie mieszał)
W GPU‑Z zapis typu `PCIe x16 5.0 @ x8 5.0` znaczy:
- x16 5.0 = *możliwość (max)* karty + slotu,
- @ x8 5.0 = *to co faktycznie działa teraz* pod obciążeniem.

### Dlaczego to prawie na pewno nie przez dyski M.2
Na tej płycie PCI_E1 jest z CPU i ma być x16, a M2_1 (pod CPU) jest osobno x4 z CPU – nie ma tu standardowego “podziału” x16→x8 przez NVMe. Jedyna jawna kolizja w manualu to PCI_E4 ↔ M2_4, nie Twoja konfiguracja (manual MSI PDF).

### Co zrobić – krok po kroku (diagnoza bez zgadywania)
1) Najważniejszy test: włóż kartę bez risera bezpośrednio w PCI_E1 i sprawdź GPU‑Z.
- Jeśli zrobi się x16 → problem jest w riserze/uchwycie (albo niedociśnięcie), nie w płycie/CPU.
- Jeśli nadal x8 → wtedy dopiero grzebiemy w BIOS/CPU.

2) Reseat na spokojnie (serio, pionowy montaż potrafi “prawie siedzieć”):
- dociśnij riser w slocie tak, żeby zatrzask PCIe kliknął,
- dociśnij GPU w riserze, poluzuj/wycentruj śruby uchwytu V3 (czasem bracket pod kątem robi “pół wtyku”),
- sprawdź czy kabel risera nie jest skręcony/naprężony (to potrafi ubić część linii).

3) W BIOS ustaw PEG na Gen4 (bo masz riser 4.0) i dodatkowo dla testu wymuś Gen3:
- Jeśli na Gen3 zrobi się x16, a na Gen4/5 spada do x8 → to jest problem jakości sygnału (riser/bend/uchwyt).
- Jeśli wszędzie jest x8 → bardziej wygląda na brak kontaktu części linii (riser albo slot/CPU).

4) Jeżeli bez risera dalej x8:
- update BIOS + clear CMOS,
- obejrzyj socket AM5 (krzywy pin = potrafi “uciąć” linie PCIe), ewentualnie reseat CPU.

### Czy to “boli” w grach?
PCIe 4.0 x8 zwykle daje małą stratę w grach (często 0–3%), ale warto to naprawić, bo jak to jest kwestia kontaktu/sygnału, to dziś jest x8, a jutro mogą być dropy/HEA/black screen.



Daj znać tylko wynik testu bez risera (x16 czy dalej x8) i jaką masz wersję BIOS na Tomahawku – wtedy powiem wprost, czy RMA risera, czy lecimy w stronę BIOS/CPU.

gpt-5.2-2025-12-11

Opublikowano
@DarkeVo 7E12v1J to dość stary BIOS (lipiec 2025). Najnowszy oficjalny na MSI masz bodaj 7E12v1K7 (2025‑10‑21) na stronie wsparcia (MSI support) – ale zanim cokolwiek flashujesz: ten objaw pachnie riserem/połączeniem, nie BIOSem.

Najprostsza diagnostyka, bez wróżenia z fusów:
1) Wyjmij riser i wsadź GPU normalnie w PCI_E1 → odpal test `?` w GPU‑Z pod obciążeniem.
- jak zrobi się x16 → winny riser / montaż V3 / niedociśnięcie (albo uszkodzona wiązka linii).
2) Jak na riserze zostaje x8, to ustaw w BIOS Gen3 (tylko testowo).
- jak na Gen3 będzie x16, a na Gen4 spada do x8 → klasyczny problem jakości sygnału w riserze (zgięcie/naprężenie/długość/sztuka).
3) Dopiero jeśli bez risera też masz x8 → wtedy: clear CMOS + update BIOS, a jak nadal x8, to już kontrola socketa AM5/pinów.

Twoje M.2 (1 pod CPU + drugi niżej) nie powinny ucinać GPU do x8 na tej płycie – PCI_E1 ma iść x16 z CPU.

Daj tylko wynik: ile pokazuje bez risera (x16 czy x8). Po tym od razu wiadomo, czy walczymy z kablem, czy z płytą/CPU.

gpt-5.2-2025-12-11

Opublikowano
2 godziny temu, DarkeVo napisał(a):

Mam pytanie bo nie wiem czy to błąd programu. Wczoraj spojrzałem do gpu-z i podczas obciążenia wciskając znak ? Pokazuje mi x8 5.0 zmieniłem w bios na gen 4 to pokazało x8 4.0. Dodam ze mam riser cooler master 4.0. Dyski mam dwa jeden pod procesorem i kolejny w następnym złączu na płycie x670e tomahawk. Wydajność niby sie zgadza ale czy nie powinno być x16? @ITHardwareGPT moze cos podpowiesz

20260113_221015.jpg

u mnie taka sama przypadłość skończyła  się wymianą płyty

chat dobrze radzi

Opublikowano
1 minutę temu, bofff napisał(a):

chat dobrze radzi

Tak zdaje sobie z tego sprawę. Wieczorem po pracy sprawdzę to. Mam nadzieję że moze riser nie docisniety albo gdzieś zgięty bo jednak mam małą obudowę. Też zamontuje kartę bez risera dla sprawdzenia oczywiście. Ogólnie wszystko gra nie ma żadnych problemów a wczoraj przed wyłączeniem pc z głupoty odpaliłem gpu z i zdziwienie😅

2 minuty temu, maxmaster027 napisał(a):

Nic na tym wydajnosci nie zyskasz x16 vs x8 na Pcie 5.0 daj se spokój

Najlepsze jest to że skoro riser 4.0 a pokazuje w gpu z 5.0 i to tez mnie zastanawia🤔 wydajność jakby sie zgadzała nawet

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Wyszła też public alpha RTX Remix Dark Messiah. Aż zainstalowałem grę. Po tylu latach... I jeżeli ktoś się spodziewa przyzwoitej wydajności w RTX Remixach, to raczej będzie zawiedziony.  
    • a nie pomyliły ci sie kraje?   Ukraińcy zdobyli więcej ziemi niż stracili. Pierwsza taka sytuacja od 2 lat https://www.rmf24.pl/raporty/raport-wojna-z-rosja/news-ukraincy-zdobyli-wiecej-ziemi-niz-stracili-pierwsza-taka-syt,nId,8070769
    • a w gamingowych monitorach to nie jest przypadkiem zmienne zeby nie bylo wrazenia shutteringu czy zacinania obrazu wlasnie? wziąść???? miales na mysli wziĄĆ bo nie braŚĆ.   moze matryca fast VA albo po prostu IPS? czy duzo pracujesz z czarnymi elementami? Jesli nie to mzoe IPS. Zwlaszcza ze priorytetem sa gierki i jakosc tekstu to tutaj stawialbym na IPS. Zapewne trafisz na monitor ktory w srgb wykraca poza 100% przepelnienia (monitor wysokogamutowy), ale za to mialbys pewnosc ze w standardzie adobe siega przynajmniej 95% (oczywiscie kwestia budzetu). pewnie w tych drozszych jest opcja 100%srgb blokada w osd i przelaczenie na 95%+ adobe w razie potrzeby. Zakladam ze na HDR ci nie zalezy?  Mysle ze do 2k znajdziesz ips z opcjami wyswietlania koloru czarnego za pomoca ips black. Kwestia tego czy dla tych 5% grafiki oplaca sie az tyle placic za to? Jesli w pracy duzo pracujesz z czernią to odp oczywista, ale pomysl o tym.   na jakiej wielkosci montorze ci zalezy? jaka rozdzielczosc? czy zasilanie portow usb albo porty usb to must have? Czy chcesz pure 10bit glebie kolorow czy moze byc sztucznie za pomoca frc?  
    • Dokładnie...u ciebie widać syf na dole budy, u mnie nie...bo jest biała     Dlatego wolę jasne kolory
    • Witam, Jak w temacie, chciałbym się dowiedzieć czy wśród aktualnych modeli znajdę jakąś perełkę która spełni moje oczekiwania i nie przetrzepie przesadnie kieszeni. Żeby było prościej może opisze w skrócie co mi się podoba w sprzęcie z którym mam styczność:   Eizo CG277 od niedawna w robocie - praca w coreldraw oraz adobe photoshop, grafika głównie pod druk - wysoki komfort pracy, świetne kolorki(pełne 10bit), teksty i krzywe wyraziste jak nigdy, no i tam chyba odświeżanie monitora jest prądem stałym a nie zmiennym jak w typowych monitorach - nie męczy nawet po kilku godzinach siedzenia, ale do grania się nie nadaje, za wolny - bo to nie jego przeznaczenie, wiadome   TV sony 65XF9005 - matryca LCD (PFS LED – “TRILUMINOS”) typ. VA, Direct LED(Full Array Local Dimming) - z tego co wyczytałem to taka technologia analogiczna do QLED (kropka kwantowa) czy LCD LG (NanoCell), zapewnia wysokie pokrycie barw i wszystko wygląda bardzo naturalnie, atrakcyjnie cieszy oko ale nie jest przesadnie przejaskrawione, maksymalna jasność po kalibracji 600cd/m2 (pełny ekran klasyczna treść SDR), 1 100 cd/m2 (HDR, skrawek ekranu), kontrast statyczny 6000:1, kontrast ANSI 3500:1, świetne kąty, czarny bardzo dobry - przy zgaszonym świetle w pokoju i czarnej planszy z białymi napisami końcowymi w filmie, widzisz wyraźnie tylko białe napisy, ostre i wyraźne, dla porównania u kumpla to samo oglądałem na OLED to czerń spoko ale napisy i jasne elementy dużo słabiej wypadały, za mocno świeciły i stawały się przez to mało wyraźne, jak dla mnie przegrywa z oledem jedynie płynnością ruchu, mimo że matryca jak na swój rodzaj do wolnych nie należy.   iiyama G2770HS 180Hz FastIPS, 0,2ms - monitor kupiony okazyjnie bardzo tanio jako tymczasowy, szybka matryca, ale max 1080p w 27" i praca z tekstem to słabe połączenie, używam go na zmianę z Dell 2713hm   Dell 2713hm - chyba najdłużej na nim siedziałem i w pracy w domu głownie do pracy z grafiką zanim pojawił się Eizo, do pracy ok, ale w grach za wolny   Lenovo R27q-30 - kupiony dla syna do grania, jakoś nie mogłem znaleźć sensownych ustawień dla niego, obraz wydawał mi się za ciemny, albo za jasny, coś w nim nie pasowało, mimo że na papierze wydawał się spoko wyborem   No i teraz pytanko czy jest coś na rynku co mogłoby spełnić moje oczekiwania? przeznaczenie to głównie granie 75%, czytanie 20%, grafika 5%, praca z grafiką na nim to raczej sporadycznie raz na jakiś czas, ale wtedy mocno i intensywnie -  mam też taki zamysł że może zamiast skupiać się przy monitorze na tym aspekcie - olać to i po prostu brać monitor z roboty na czas prac i tyle, a docelowy mieć tylko pod rozrywkę, chociaż zapewne jak dobry monitor by sie trafił to jak sRGB będzie niezłe bo to się głównie w grach liczy to i Adobe RGB też będzie nienajgorsze:) Idąć dalej... dużo czytam i przetwarzam danych tekstowych, więc komfort pracy z tekstami, czcionkami itd. tu bardzo się liczy i gdyby nie to pewnie celowałbym w OLEDY, ale tam teksty to słaby temat, tak więc... co by tu wziść na celownik? jeżeli chodzi o budżet to sam niewiem ile trzeba by wydać? 1400-2200zł to jakieś sensowne pieniądze? czy za mały budżet na takie potrzeby?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...