Skocz do zawartości

[KartoGraficzny Offtop] - wątek do luźnej dyskusji o wszystkim co dotyczy GPU


Rekomendowane odpowiedzi

Opublikowano (edytowane)
18 godzin temu, Spl97 napisał(a):

Kogo żem wczoraj odkrył :E.

Lasowanie mózgu 20 minut tą samą muzyczką :mad:

 

Przy tym 6900 XT też mógłby ten kit rolować w rękawiczce a nie tłuszcz z palców dodaje. Do padów tak samo pęseta a nie paluchami.

Edytowane przez Pentium D
Opublikowano
26 minut temu, Radio Tirana napisał(a):

Brodaty majster przejmuje ten wątek. 

Chłopa nie znam, pierwszy raz go zobaczyłem jak został wrzucony na forum, oglądałem Pawła Ostrówkę, czasem Foresta, ale jego nie znałem, nawet spoko, fajnie się ogląda, tak samo jak Pawła, mimo, że się nie znam na tym to jednak czasem podpatrzę.

Opublikowano (edytowane)

Jak ktoś ma kartę Radeon bez sprzętowego RT typu RX Vega lub RX 5xxx to można pograć bez problemu na Linuxie w Indiana Jones i wielki krąg. Ja testowałem na Nobarze 41  i Vega 56 , gra dziala z emulowanym RT bez błędów graficznych. Na niskich detalach i FullHD przez większość gry około 40+ FPS z ryzenem 3600. Będę jeszcze testował na RX 5700XT czy wyciśnie coś więcej. A mówili że bez RTXa się nie da :E

Edytowane przez Palladino1990
  • Like 1
  • Upvote 1
Opublikowano

Ciekawe czy by poszło na Titan Xp. On nie ma jednostek do RT ale wspiera RT tylko że liczy wszystko na shaderach. Jak gra nie ma arbitralnego locka że musi być GPU serii RTX to przykładowo w Wieśka 3 next gen da radę pograć na Titanie z aktywnym RT, ale trzeba mieć tolerancję na cienamatic experience :E

Opublikowano (edytowane)

Wątpię, bo wtedy działała by też na pascalach typu GTX 1070 czy nawet na turingu GTX 1660 bo one programowo mają RT, a jednak w większości gier nie uruchomisz bo poziom jest dxr 1.0 a większość wymaga 1.1 . Tutaj raczej objawiają się duże możliwości sterownika mesa radv, które są o wiele lepiej zoptymalizowane dla Radeonów i ciągle je rozwijają przykładowo na takiej Vedze, gdzie na windowsie już dawno porzucili wsparcie czy RDNA 1, oraz to że wszystko leci na Vulkanie i RT można włączyć w każdej jednej grze. Pewnie na windowsie też dało by się to wszystko zrobić ale jak nie wiadomo o co chodzi to chodzi o kasę.

Edytowane przez Palladino1990
Opublikowano (edytowane)

Wrzucę jeszcze tutaj dla ciekawskich, test modelu transformer DLSS vs CNN DLSS na Ampere:

 

Dobra, zrobiłem test na sterach najnowszych z pakietu cuda toolkit i wyniki z CNN są CP2077 wersja 2.2, natomiast wyniki transformerów są z CP2077 2.21. Test na driverach 571.96.

 

CNN:

PT + TAA = 27.7 FPS = 100%

PT + DLSSQ = 49.5 FPS = 178.7%

PT + DLSSQ + RR = 51.9 FPS = 187.4%

 

Transformers:

PT + DLSSQ = 47.8 FPS = 172.6% względem TAA, ale 3.4% wolniej od CNN

PT + DLSSQ + RR = 44.5 FPS = 160.6% względem TAA, ale 12.4% wolniej od CNN 

 

Aby przywrócić wydajność na transformerach musimy zejść do DLSSB wtedy

PT + DLSSB + RR = 53.1 FPS czyli 191.7% względem TAA

 

Nie wiem skąd digital foundry wziął spadek wydajności RR o ponad 30% na Ampere.

Edytowane przez cichy45
Opublikowano
6 minut temu, cichy45 napisał(a):

Wrzucę jeszcze tutaj dla ciekawskich, test modelu transformer DLSS vs CNN DLSS na Ampere:

 

Dobra, zrobiłem test na sterach najnowszych z pakietu cuda toolkit i wyniki z CNN są CP2077 wersja 2.2, natomiast wyniki transformerów są z CP2077 2.21. Test na driverach 571.96.

 

CNN:

PT + TAA = 27.7 FPS = 100%

PT + DLSSQ = 49.5 FPS = 178.7%

PT + DLSSQ + RR = 51.9 FPS = 187.4%

 

Transformers:

PT + DLSSQ = 47.8 FPS = 172.6% względem TAA, ale 3.4% wolniej od CNN

PT + DLSSQ + RR = 44.5 FPS = 160.6% względem TAA, ale 12.4% wolniej od CNN 

 

Aby przywrócić wydajność na transformerach musimy zejść do DLSSB wtedy

PT + DLSSB + RR = 53.1 FPS czyli 191.7% względem TAA

 

Nie wiem skąd digital foundry wziął spadek wydajności RR o ponad 30% na Ampere.

Nie no, wrzucajcie odpowiednie info do konkretnych tematow, bo to pozniej ginie i porowalane wszedzie w 3dupy po calym forum :E
 

 

  • Upvote 1
  • 1 miesiąc temu...
  • 2 tygodnie później...
Opublikowano

Tak z ciekawości zapytam. Czy ktoś ma wiedzę jak obecnie wygląda sprzedaż kart graf.? Jest sporo newsów, że idzie to w AI, że ktoś wykupuje zapasy, że sklepy sobie podnoszą ceny i mnóstwo innych teorii itp. itd. Ale czy jest ktoś tutaj, kto w tym faktycznie siedzi i czy mógłby w skrócie przedstawić jak to od kuchni wygląda? Domyślam się, że raczej bez szczegółów. Aczkolwiek fajnie byłoby dostać jakąś bardziej treściwą informację.

  • Upvote 1
Opublikowano

Nie powiem nic kostruktywnego, ale z tego że czasami sobie dla zabawy hobbystycznie odpalę jakiś model AI i śledzę sprzęt z rynku wtórnego który się do tego nadaje to mam jeden wniosek. Ssanie jest olbrzymie, do tego stopnia że przykładowo Tesle P40 które jeszcze jakiś czas temu chodziły po ebayu za 100-150 dolarów (odpowiednik Titan Xp - czyli Pascal GP102 ale z 24 GB GDDR5X i bez wyjść obrazu) które dla zwykłych ludzi nie mają żadnego zastosowania - teraz ich cena skoczyła na poziom 400 - 500 USD bo mimo że są znacznie wolniejsze od nowych układów to ludzie je kupują masowo.

 

Popyt AI wpłyną również na tak stare karty jak Tesle M40, czyli oparte jeszcze na architekturze Maxwell. Wszystko dlatego że mają 24 GB Vram i da radę odpalić inferencję choćby na vulkanie. Przedtem dostępne <100 USD, teraz niewiele taniej od P40.

  • 3 tygodnie później...
Opublikowano (edytowane)

W sumie gdyby liczyć na skok 20-30% i tą samą cenę to niby nie wygląda to tak źle. :E 
rtx2080ti - rtx3080ti 12gb - rtx4080 - rtx5080 super lub ti, który pewnie też będzie za 1200$.


RTX x070 też wygląda całkiem dobrze, tylko cena wzrosła oraz skok wydajności był słabszy, niż przy rtx4080... Gdyby tylko Super był od razu zwyczajnym rtx4070...
499 - 599 (4070super też za 599) - 549$, choć to tylko teoretyczna cena i przy takich skokach, powinno to być 499$... Za 599$ to powinien być 4070ti z 16gb.

Edytowane przez musichunter1x
Opublikowano (edytowane)

@ryba Nie przeczę że przesunęli o jedną półkę, ale irytują mnie krzyki o rtx5050 w przypadku rtx5070, ze względu na same procenty.

Gdyby rtx4070 był rtx4060ti to wyglądałoby to przyzwoicie.

Rtx5070 to kolejne przesunięcie, ale to takie pół generacji, więc z tego jest rtx4060 super. :E Mogliby poczekać na kości 3gb, ale tak to częściej będą mieli nowe modele.

 

Teraz karty konsumenckie są odpadem projektowym po kartach do AI, a postępy poniżej 6nm będą marne, chyba że zmiany architektury dużo pomogą.

 

Edit. Wszyscy kochają gtx1080ti, a jego rozmiar był mniejszy od poprzednika przez 471 mm², w stosunku do 601...

Rtx4xxx był podobnym skokiem architektury, ale nie zmniejszono wielkości rdzenia flagowca.

 

Potem sobie policzę jak wyglądałoby to przy rdzeniu flagowca na poziomie ~475 mm², a szkoda że rtx4080 super to tylko 379 mm², bo tak to wziąłbym go za właściwego flagowca dla tej serii.

Edit.2 przy 475 mm² flagowca:

rtx4080 miałby 79%

rtx4070 / ti / super 61%

Rtx4060ti 39%

Rtx4060 33%

 

Baa, gdyby nie wzrosły lub nawet spadły ceny, a zaczęło się od rtx4070super jako zwykły 4070, to byłoby również przyzwoicie. Wtedy wersja 16gb nazywałaby się po prostu Ti :E

Oh teraz dopiero zauważyłem...

Rtx5090 zwiększył rozmiar rdzenia do 750mm... Gdyby było to nadal 600mm to wtedy rtx5070 miałby 43%, więc ciężko go nazwać nawet XX60.

Edytowane przez musichunter1x
  • 1 miesiąc temu...
  • 1 miesiąc temu...

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Zełeński musi wybierać miedzy życiem żołnierzy a ziemią. Po za tym wszystko bedzie zależec od tego co sie dzieje na froncie.
    • Może to stara dokumentacja i nieaktualna.Sam bios tj ich core  raczej na 99 procent pochodzą od intela. Mógłbym to jeszcze sprawdzić na Arrow lake H ale jakoś mi się nie chce. Producent ustawił na procesorze 28/64wat  pl 64/64 tau 56 tylko po co te 56 jak limity są takie same ...CPU trzyma 58 Wat ale z powodu temperatury 105 stopni ,choć w dokumentacji Intel ma 110 dla Arrow lake 
    • Mam tą samą witrynę w salonie, tylko w środku porcelana z Bolesławca Z Lego został mi się tylko Fiat 500.
    • Tutaj chyba mylisz generacje procesorów i podejście do TAU vs dana generacja CPU.  Moim zadaniem przed pisaniem szybkich twierdzeń w stylu "Co tu czytać...." to lepiej jest poczytać dokumentację od i9‑10850K   Ten procesor również używa Turbo Time Parameter (Tau) do liczenia średniej mocy dla PL2. Jednak w Comet Lake Tau jest mniej elastyczne i bardziej statyczne niż w 13./14. generacji. i9‑10850K) używa Turbo Boost 2.0 – to prawda, ale klasyczny, starszy niż w 13./14. generacji. 13./14. gen używa Turbo Boost 2.0 z Adaptive Boost Technology (ABT)   W 13./14. gen co TAU faktycznie robi ·         Tau to parametr matematyczny używany przez algorytm Intel Turbo do wyliczania średniej mocy w czasie („time-averaged power”). ·         Nie jest to zegar, który odlicza X sekund i wyłącza PL2. ·         Algorytm korzysta z Tau, ale decyzja o zejściu z PL2 zależy od średniej mocy w tym oknie, limitów prądu, mocy i temperatury. ·         Również np stany C‑states procesora mogą wpływać na średnią moc, ponieważ przejścia w i z niskiego poboru energii zmieniają chwilowy pobór CPU. Algorytm uwzględnia te zmiany przy liczeniu średniej w oknie Tau. Dlaczego „czas PL2” może się różnić bo średnia moc (wyliczana z Tau) jest dynamiczna i zależy od wielu czynników: np: 1.      Bieżące taktowanie i napięcie CPU – nawet identyczna aplikacja może generować różne chwilowe pobory energii. 2.      Temperatura początkowa CPU – cieplejszy procesor szybciej zacznie schodzić z PL2. 3.      Dynamiczne zmiany w poborze energii – drobne różnice w działaniu kodu wpływają na średnią moc. 4.      Chłodzenie i przepływ powietrza – wentylatory, temperatura otoczenia itp. wpływają na tempo osiągania średniej mocy PL1. 5.      Inne limity systemowe – np. PL1, prąd, sterowniki, interakcje z OS. 6.      Stany C‑states – wchodzenie CPU w niskie C‑states zmniejsza chwilowy pobór, co wpływa na średnią i może wydłużyć utrzymanie PL2. 7.      Wersja "różna" mikrokodu odpowiada za algorytm Turbo Boost / Adaptive Boost Technology (ABT).          a więc ten sam cpu inny mikrokod wersja UEFI, a więc inne podejście do TAU może również być.  W praktyce ·         Ustawienie Tau w BIOS = stała liczba jednostek dla algorytmu (np. 56 s, 125, 253). ·         Czas utrzymania PL2 = zmienna zależna od średniej mocy w tym oknie i wymienionych czynników. ·         Nawet przy identycznym obciążeniu PL2 może trwać różnie (np. 10 s, 20 s lub 30 s), jeśli PL1 < PL2.   Uwagi odnośnie ustawień BIOS ·         Tau = auto → mikrokod sam dobiera wartość Tau optymalną dla CPU i platformy, ale algorytm nadal używa Tau do liczenia średniej mocy. ·         Scenariusz PL1 = PL2: Jeśli ustawisz PL1 = PL2 = np. 240 W i CPU nie przekroczy limitów temperatury ani prądu, procesor może pracować praktycznie stale na maksymalnej mocy PL2. Tau w tym przypadku nadal istnieje, ale nie wymusza zejścia z PL2, bo średnia moc nigdy nie przekroczy PL2. ·         W normalnym przypadku (PL1 < PL2), PL2 nigdy nie jest absolutnie stałe – zawsze zależy od średniej mocy, limitów prądu, mocy, temperatury i np. stanów C‑states. ......i wiele innych nie wymienionych.   
    • Ja mam kilka sztuk, głównie architecture i botanicals porozkładane po całej chacie - zrezygnowałem z tego hobby jednak na rzecz innych pasji
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...