Skocz do zawartości

RTX 50x0 (Blackwell) - wątek zbiorczy


Rekomendowane odpowiedzi

Opublikowano
19 minut temu, VRman napisał(a):

Co do testów HU vs. Twoje, to wybacz, ale ich fachowość cenię wyżej. Bez obrazy.

Przecież oni się niedawno zbłaźnili testem CPU w grach.

 

Pod względem testów CPU i wpływu ramu na wydajność to Polskie portale są o lata świetlne przed konkurencją z zachodu.

Opublikowano

no tak było od zawsze i temu narzut na radeonie wiekszy

Temat zdarty ja winylowa płyta.

Ciekawostką został juz tylko opengl i marne wyniki radeona.

Jeszcze na rx 6900 nie pograli stabilnie

 

a tu pierwsze flmiki dx12 na nvidii kiedy odstawala w dx12 wzgledem radeona

Opublikowano
11 minut temu, michaelius33 napisał(a):

Przecież oni się niedawno zbłaźnili testem CPU w grach.

Jakoś nie wydaje mi się. Forumowi eksperci to by Rockefellerowi mówili, że nie ma pojęcia o zarabianiu pieniędzy, także tego.

 

Napisz konkrety, to się odniosę. Oglądałem każdy ich filmik wypuszczony w ostatnich 2 latach. Nie widziałem żadnego złaźnienia się. Widziałem kilka filmików i wniosków, które mi nie pasują, ale to tyle. Żadnego błaźnienia nie zanotowałem.

13 minut temu, michaelius33 napisał(a):

Pod względem testów CPU i wpływu ramu na wydajność to Polskie portale są o lata świetlne przed konkurencją z zachodu.

Na przykład te polskie portale, co jeszcze w 2024 wyśmiewały pomysł, że lows w testach się liczą? Te portale? ;)

 

 

 

13 minut temu, janek25 napisał(a):

no tak było od zawsze i temu narzut na radeonie wiekszy

W DX <12 Nvidia poprawiała po developerach przez co narzut na CPU był mniejszy niż na Radkach. W DX12 się to skończyło.

Opublikowano
11 minut temu, VRman napisał(a):

 

 

 

W DX <12 Nvidia poprawiała po developerach przez co narzut na CPU był mniejszy niż na Radkach. W DX12 się to skończyło.

skoro tak to czemu wcześniej pisaleś inaczej? xD

 

3 minuty temu, tomcug napisał(a):

Nie :)

tak sie na to potocznie mówiło.Ale jak widać cpu load jest wiekszy na nvidi xD

Opublikowano
1 minutę temu, janek25 napisał(a):

skoro tak to czemu wcześniej pisaleś inaczej? xD

Ja? Gdzie niby?

DX 12 a wcześniejsze to oczywiste różnice, o których nie trzeba pisać, bo każdy o nich wie.

Co nie znaczy, że jak w grze dasz DX12 to w ogóle Nvidia i AMD nie mogą się różnić wydajnością CPU w grze.

 

6 minut temu, tomcug napisał(a):

Nie :)

Myślę, że jednak zostanę przy tym, co pisał inżynier pracujący przy sterach Nvidii.

 

Opublikowano
2 godziny temu, VRman napisał(a):

Wiesz przecież, że Radki i NV inaczej podchodzą do niektórych rzeczy. NV część wywala na proca, a AMD nie.

 

22 minuty temu, VRman napisał(a):

W DX <12 Nvidia poprawiała po developerach przez co narzut na CPU był mniejszy niż na Radkach. W DX12 się to skończyło.

cyk cyk

temat dotyczył B4 i dx12.Wiec najpierw ustal ze sobą swoja wersje

Opublikowano
Teraz, tomcug napisał(a):

Źródło?

Próbowałem to odnaleźć, googlować za czasów laba i gdy wtedy o to pytałeś i nie znalazłem, bo to było wiele lat temu. 

Może tak:

@ITHardwareGPT

Czy potrafisz znaleźć gdzie był wpis inżyniera pracującego wcześniej dla Nvidii przy sterownikach, który opisywał jak wyglądała współpraca Nvidii z developerami gier i dlaczego konkretnie ówczesne gry w DX10 i Dx11 chodziły lepiej na Geforce'ach niż na Radeonach.

 

Opublikowano

@VRman Nie chodzi Ci przypadkiem o ten slajd?

Ale on bynajmniej nie oznacza, że stery NVIDII automatycznie zrównoleglały obliczenia w grach :) Bez implementacji DX 11 MT w grze nie ma wielowątkowości.

https://ithardware.pl/testyirecenzje/directx_11_mt_geforce_radeon_test-22818.html

Tutaj masz to pokazane na przykładzie Watch Dogs 2. Ja wiem, że wg Ciebie jestem idiotą bez grama wiedzy, ale zapoznaj się proszę z tym materiałem, tam jest wszystko i wyjaśnione od strony teoretycznej i pokazane w praktyce.

Opublikowano (edytowane)
4 minuty temu, VRman napisał(a):

i dlaczego konkretnie ówczesne gry w DX10 i Dx11 chodziły lepiej na Geforce'ach niż na Radeonach.

no przecież to wiadomo od 12 lat

mowa o dx12 obecnie bo zaczełeś rozmowe w zwiazku z B4

Edytowane przez janek25
Opublikowano
8 minut temu, tomcug napisał(a):

@VRman Nie chodzi Ci przypadkiem o ten slajd?

Nie. To był wpis na forum czy gdzieś. Tekst.

8 minut temu, tomcug napisał(a):

Ale on bynajmniej nie oznacza, że stery NVIDII automatycznie zrównoleglały obliczenia w grach :) Bez implementacji DX 11 MT w grze nie ma wielowątkowości.

https://ithardware.pl/testyirecenzje/directx_11_mt_geforce_radeon_test-22818.html

Tutaj masz to pokazane na przykładzie Watch Dogs 2. Ja wiem, że wg Ciebie jestem idiotą bez grama wiedzy, ale zapoznaj się proszę z tym materiałem, tam jest wszystko i wyjaśnione od strony teoretycznej i pokazane w praktyce.

Nigdy nie uważałem że jesteś idiotą bez grama wiedzy. Mylisz się w kilku kwestiach i przeceniasz swoją wiedzę, oraz niepotrzebnie uważasz, że inni po fachu (jak HU) są debilami, którzy się nie znają albo są głupi, albo robią pod tezę. Ale tylko tyle. Wiedzę godną szacunku i wykraczającą często poza moją oczywiście masz. Nigdy tego nie negowałem.

Co do Watch Dogs 2. To dość nowa gra. Tamte czasy to zanim DX12 weszło. Dawno, dawno temu, za siedmioma GRUBami, za siedmioma NASami.

2 minuty temu, tomcug napisał(a):

A co najlepsze jeszcze na długo przed erą DirectX 12 były lata, kiedy to AMD miało lepsze stery od strony CPU :D

Były nawet lata gdy mieli najszybsze karty do gier na świecie. ;)

Opublikowano
6 minut temu, VRman napisał(a):

Co do Watch Dogs 2. To dość nowa gra. Tamte czasy to zanim DX12 weszło. Dawno, dawno temu, za siedmioma GRUBami, za siedmioma NASami.

Ale pisałeś o erze sprzed DX 12 i rzekomym automatycznym poprawianiu deweloperów, więc dostałeś Watch Dogs 2.

6 minut temu, VRman napisał(a):

uważasz, że inni po fachu (jak HU) są debilami

Nigdy tak nie pisałem. Na HU są m.in. dobre materiały. Ale są też takie, które nie są zrobione za dobrze i o tym po prostu pisałem kilka razy.

6 minut temu, VRman napisał(a):

Nie. To był wpis na forum czy gdzieś. Tekst.

Wiesz co, podpisać się "inżynier NV" to może każdy ;)

6 minut temu, VRman napisał(a):

Mylisz się w kilku kwestiach i przeceniasz swoją wiedzę

Wbrew temu, co Tobie się wydaje, ja bardzo dobrze sobie zdaję sprawę, że nie jestem alfą i omegą. Ale jeżeli co do jakiejś kwestii mam 100% pewność, np. co do tego, że przytoczone przez Ciebie relacje 9070 vs 5070 nie są spowodowane problemami sterów od strony CPU, to po prostu to piszę.

Opublikowano
13 minut temu, tomcug napisał(a):

były lata, kiedy to AMD miało lepsze stery od strony CPU :D

niby kiedy?

dx9 tez wolniej.

Tylko wtedy cpu było takie szybkie wzgledem gpu a  ludzie grai w 20-30 fps wec nikt tego nie wiedzał

Opublikowano
7 minut temu, tomcug napisał(a):

Ale pisałeś o erze sprzed DX 12 i rzekomym automatycznym poprawianiu deweloperów, więc dostałeś Watch Dogs 2.

Niee. Ja pisałem, że przed DX12 bywały gry, gdzie dev się nie postarał z optymalizacją, a Nvidia sama poprawiała. Wtedy bywały wyraźne poprawy przy nowych sterach, a u AMD nie. (tak wiem, samo w sobie to może wynikać z czego innego)

9 minut temu, tomcug napisał(a):

Ale są też takie, które nie są zrobione za dobrze i o tym po prostu pisałem kilka razy.

OK.

9 minut temu, tomcug napisał(a):

Ale jeżeli co do jakiejś kwestii mam 100% pewność, np. co do tego, że przytoczone przez Ciebie relacje 9070 vs 5070 nie są spowodowane problemami sterów od strony CPU, to po prostu to piszę.

Spoko. Ja tylko uważam, na podstawie życiowego doświadczenia, że nie zawsze eksperci pewni swojego zdania okazują się mieć rację. 

A dziś Nvidia dość wyraźnie olewa gaming. Rozumiem, że Ty nie uznajesz tego za dowód, ale ja uznaję, że HU udowodniło, że Radki lepiej pasują do słabszych proców bo mają po prostu mniejsze straty tam, gdzie proc nie domaga. Do tego myślę, że może Ci brakować eksperckiej wiedzy na temat tego co się konkretnie dzieje z każdym tranzystorem i z każdym bitem informacji przy renderowaniu gry, przez co możesz czegoś nie wiedzieć. Dlatego - i od tego zaczęliśmy tą dyskusję - kłócę się, że tego, że to ma związek z CPU nie można wykluczyć. Co nie jest toższame z opinią "to na pewno narzut CPU w Borderlands 4". 

Nawet bardzo prawdopodobne, że masz rację. Zobaczymy. Wyjaśni się z czasem. 

Opublikowano
@VRman mam dwie wieści: tej „jednej, kanonicznej” wypowiedzi byłego inżyniera sterowników NV nie mogę teraz namierzyć 1:1, ale są bardzo bliskie źródła, które opisują dokładnie to, o co pytasz (współpraca NV z devami i przewaga GeForce w DX10/11) – z cytatami i kontekstem.

Najbliższe temu, co pamiętasz
- John McDonald (wtedy NV DevTech/DevRel, później „ex‑NV”) – tweetstorm nt. Watch_Dogs/GameWorks: „wysyłamy inżynierów na miejsce, pomagamy profilować i optymalizować kod; nie blokujemy AMD – to decyzja wydawcy, komu daje buildy”. Obszernie cytowane i streszczone tu: Forbes – odpowiedź NVIDII na zarzuty AMD nt. GameWorks/Watch_Dogs oraz techniczne tło i licencje GW: PC Perspective – „Devil in the details”.
- Cem Cebenoyan (Director, NVIDIA DevTech) – oficjalnie opisuje model „inżynierowie on‑site + Game Ready day‑0 + różne poziomy licencji (także z kodem źródłowym)”, czyli dokładnie to, dlaczego w epoce DX11 NV miała przewagę w day‑one performance (to samo źródło: Forbes, PCPer).

Dlaczego DX10/11 częściej „chodziło lepiej” na GeForce
- Narzut sterownika w DX11: NV od lat agresywnie multithreadowała driver (budowa poleceń, stan, „threaded optimization”), co redukowało CPU‑bottleneck w grach z dużą liczbą draw‑calli i słabą skalowalnością wielowątkową. Dobre omówienie różnic DX11‑owych: AnandTech – wątek o podejściu sterowników NV/AMD w DX11 oraz analiza linkowana przez społeczność: r/Amd – „Intel analysis of AMD vs NVIDIA DX11 driver”.
- Ekosystem/GameWorks: wybór efektów (teselacja, włosy, volumetrics) często „wpadał” w mocne strony ówczesnych GeForce’ów; AMD krytykowało „czarną skrzynkę”, bo trudniej im było optymalizować bez źródeł. NV twierdziła, że licencje ze źródłami są dostępne i dev może modyfikować pod AMD (szczegóły i cytaty: PCPer).
- Dev relations/day‑0: program „Game Ready” + inżynierowie „przyklejeni” do studiów = gotowe profile i łatki na premierę – realna przewaga organizacyjna w epoce „grubego” DX11 (oficjalne materiały NV o współpracy z devami: NVIDIA news – GameWorks/DX12, model współpracy).

Dodatkowe, luźno powiązane wątki
- Rzetelne streszczenie „czemu NV bywa lepsza w DX11” (CPU‑bound, draw calls, MT driver): r/Amd – „Why Nvidia performs so much better in DX11”.

Jeśli celujesz w konkretną wypowiedź „ex‑NVIDIA driver engineer” (blog/fora/Reddit, lata 2013–2016?), daj proszę:
- przybliżony rok i język (PL/EN),
- platformę (Twitter/Reddit/Beyond3D/Guru3D/Quora),
- słowa‑klucze (GameWorks/black box/driver overhead/deferred contexts).
Wtedy przekopię archiwa (Wayback, stare wątki Beyond3D) i postaram się wykopać dokładnie ten wpis. Na razie najbliższy duchowi Twojej pamięci jest wątek McDonalda + wywiady Cebenoyana (powyżej).

gpt-5-2025-08-07

Opublikowano

Z pamięci Ci nie napiszę, w jakich latach dokładnie, ale sideband na pewno pamięta %-) Szczególnie z CPU 2-rdzeniowymi zieloni mieli ogromny problem. Na pewno wtedy, kiedy wychodził Battlefield Bad Company 2, AMD było z przodu ze sterownikami.

2 minuty temu, VRman napisał(a):

Ja pisałem, że przed DX12 bywały gry, gdzie dev się nie postarał z optymalizacją, a Nvidia sama poprawiała.

I niby od strony CPU tak się działo? :) Ponownie - źródło.

2 minuty temu, VRman napisał(a):

Nawet bardzo prawdopodobne, że masz rację. Zobaczymy. Wyjaśni się z czasem. 

Ale co się ma wyjaśnić? Dalej Blackwell nie będzie błyszczeć pod UE5 i tyle.

Opublikowano
1 minutę temu, tomcug napisał(a):

Na pewno wtedy, kiedy wychodził Battlefield Bad Company 2

bf2 company chodziło jak glupie w fps.

Zreszta bf miały opinie wśród testerów ze nie maja narzutu ale to jakieś słabo testowane było wtedy bo u mnie bf4 wyszlo 20% radeon vs nvidia na fx8120 w single chanell ram

 

Pamietam 48 fps radeon ,60 fps nvdia.

Po zmianie na 3570K 125 fps w single chcnaell ram z nvidia 

Opublikowano

Tomcug Ja rozumiem w co grasz, ale pytanie mnie o źródło, gdy jego brak niczego nie dowodzi (bo lata temu, forum może dawno nie istnieć, wpis mógł zostać skasowany itp.itd) jest tylko grą. Napisałem dawno temu, że nie mogę znaleźć. Wtedy szukałem. Teraz napisałem, że Ci go nie podam, ale przypominanie całemu światu po 10 razy "patrzcie! on nie potrafi podać źródła! AHA! MAM GO!" jest tylko trochę niepoważną grą i do niczego nie prowadzi. 

Już dziś jestem przy 500% czasu jaki sensownie jest poświęcać na forum dziennie, to jak będę się nudził pomęczę bota (już na priv, nie będę śmiecił) jak do czegoś się dokopie to wrzucę, ale spora szansa, że nie znajdzie. 

 

A problem z rdzeniami vs. Nvidia to wydaje się to było wczoraj. A faktycznie. Jezu ile to już lat :D

Opublikowano

@VRman I jeszcze najważniejsze. Nawet, jak nie ufasz wskaźnikowi obciążenia GPU, to czy układ graficzny jest hamowany przez CPU, sprawdza się banalnie łatwo. Wystarczy obniżyć rozdzielczość i/lub włączyć skaler obrazu. Jak nie wzrasta FPS, to jest bottleneck. Jak wzrasta, to nie ma bottlenecka. To naprawdę nie jest rocket science, żeby zweryfikować tę Twoją tezę o tym, że GeForce'y kuleją przez stery od strony CPU pod UE5.

1 minutę temu, VRman napisał(a):

pomęczę bota (już na priv, nie będę śmiecił)

Bot chyba nie odpowiada na PW.

Opublikowano
29 minut temu, tomcug napisał(a):

A co najlepsze jeszcze na długo przed erą DirectX 12 były lata, kiedy to AMD miało lepsze stery od strony CPU :D

Vista, a później Win7 do czasu... Poza tym dotyczyło też konkretnej ilości rdzeni/wątków i platform. Przy Win7 to już było bardziej skomplikowane można było łączyć 1156+GTX480 i od strony CPU było niebo lepiej niż 1156+AMD ;) Ale w przypadku 775 sporo lepiej było z AMD.

NV zaczęła poprawiać stery od strony CPU od marca 2013 jak jeszcze się tym nie chwalili. Tutaj nie było poprawy dla konkretnego API tylko generalnie poprawiono stery od CPU.

NV nie wprowadzała żadnych magicznych optymalizacji w sterownikach od strony CPU posiadała tylko natywne wsparcie dla MT(od sterów 275 czyli starych jak świat), a AMD nie. AMD udało się ogarnąć MT do niektórych tytułów co sam pokazywałem jeszcze na labie, ale to tyle i przy okazji częściowo to popsuli po przejściu na Win10 :E

W DX12 sterownik jest dużo prostszy i tutaj aplikacja decyduje o MT ;) To samo chodzi o optymalizacje od strony GPU jak devoloper coś chrzani DX12 czy VK sterownikiem się nie naprawi. Niższy narzut niezależnie od API zależy tylko i wyłącznie od ogarnięcia sterownika i tutaj aplikacja nie ma nic do tego. Co innego w kwestii optymalizacji od strony GPU i wysokopoziomowych API ;) 

Jak jeszcze nie było VK w planach to NV pokazywało stery do OGL "bez narzutowe" ;) Więcej będę klepał bo mi się nie chce tym bardziej, że na labie rozpisywałem się na raz jeszcze bardziej po co powtarzać n-razy to samo.

Opublikowano
15 minut temu, tomcug napisał(a):

Wystarczy obniżyć rozdzielczość i/lub włączyć skaler obrazu.

Niestety już nie zawsze. Możesz mieć silnik, który automatycznie modyfikuje detale zależnie od rozdzielczości.

 

PS.

No to go (bota) pomęczę oficjalnie. Jutro. 

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Popularne tematy

  • Najnowsze posty

    • Skoro kupiłeś WOLED to wiedziałeś na co się piszesz 
    • Teraz to już nie wiem czy trollujesz, czy serio masz taki dziwny gust lub jego brak.  Widzę Cię głównie w tematach generycznych, przemysłowo produkowanych gier, z checklistą zamiast pasji oraz outsourcingu zamiast chętnych, stałych pracowników. Te "wizytówki" były robione przez AI, często w ogóle nie pasując do gry. Firma nie podała w opisie Steam że użyli AI, więc chyba każdy może dostać zwrot, nawet po wielu godzinach i ponad 2 tygodniach, bo były takie przypadki.   Zajrzałem ponownie do tematu, bo król parodii zrobił film.  
    • Zgadza się. 5060ti powinna mieć najwyżej 12GB, za to 5070 już 16GB. Wtedy miałoby to sens. A tak muszę się posiłkować DLSS + ewentualnie FG  Jednak różnica pomiędzy 3060ti 8GB a 5060ti 16GB jest spora. Może te 16GB Vram wystarczy do Rubina w 2027 roku  
    • Przy okazji przedstawiania planu pokojowego sekretarz amerykańskiej armii Dan Driscoll przekazał stronie ukraińskiej, że stoi w obliczu "nieuniknionej porażki" - donosi stacja NBC News. Zdaniem Amerykanina sytuacja Ukrainy oznacza, że nie może ona dyktować warunków, a dalsza zwłoka jeszcze bardziej osłabia jej pozycję. W opinii Kijowa pierwotna propozycja USA oznacza de facto kapitulację wobec Kremla. Sekretarz armii USA Dan Driscoll wygłosił serię ponurych prognoz dotyczących sytuacji na froncie i nalegał na przyjęcie wstępnej wersji amerykańskiego planu pokojowego podczas niedawnej wizyty w Kijowie - informuje stacja NBC News, powołując się na dwa źródła zaznajomione z przebiegiem spotkania. Według informatorów Driscoll poinformował ukraińskich urzędników, że sytuacja ukraińskiej armii pogarsza się: Rosjanie zwiększają tempo nalotów, dysponują praktycznie nieograniczonymi zasobami i mogą prowadzić długotrwałą wojnę bez utraty impetu. Podkreślił, że dalsza zwłoka jeszcze bardziej osłabi pozycję Kijowa. Delegacja USA ostrzegała również, że Stany Zjednoczone nie są już w stanie zapewnić Ukrainie niezbędnej liczby środków obrony powietrznej i amunicji.   Jedno ze źródeł twierdzi, że komunikat Driscolla po przedstawieniu planu pokojowego był jasny.    "Generalnie przesłanie było takie: Przegrywacie i musicie zaakceptować ofertę" - czytamy.   Stacja opisuje, że strona ukraińska uprzejmie odmówiła podpisania pierwotnej wersji dokumentu, który w Kijowie uznany został za de facto kapitulację wobec Kremla.   Według NBC News sytuacja ta była kolejnym przejawem głębokiego podziału w ekipie Donalda Trumpa co do sposobu zakończenia wojny w Ukrainie.   Obóz skupiony wokół wiceprezydenta USA J.D. Vance'a i specjalnego wysłannika Steve'a Witkoffa uważa, że to Kijów utrudnia osiągnięcie pokoju i nalega na wywieranie presji i wymuszanie kompromisów ze strony Ukrainy.   Tymczasem obóz sekretarza stanu USA Marco Rubio winą obarcza Rosję i twierdzi, że Moskwa ustąpi dopiero pod presją sankcji i twardej postawy Zachodu.   Sam Donald Trump - jak podaje stacja - często "waha się" pomiędzy tymi dwoma podejściami. https://wydarzenia.interia.pl/ukraina-rosja/news-przegrywacie-naciskal-na-ukraine-w-usa-narasta-konflikt,nId,22460388
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...