Skocz do zawartości

[KartoGraficzny Offtop] - wątek do luźnej dyskusji o wszystkim co dotyczy GPU


Rekomendowane odpowiedzi

Opublikowano
7 godzin temu, Send1N napisał(a):

Dokładnie :thumbup: 8600GT przez wielu uważana była za niewypał w tamtych czasach, potrafiła zbierać baty od 7800GTX/7900GS, Za to G80 (rodzina 8800 - później odświeżony G92) To BYŁO COŚ!, do tej pory nie było tak ogromnej przepaści wydajnościowej jaką zrobiła seria 8800 nad jedną generacją wstecz, z taką 8800GTX przegrywały dwie 7900GTX w SLI ;)  od 8600gt nawet najsłabszy model z serii (8800gts 320mb) był 2x (100%) szybszy.

Piękne czasy, pamiętam jak na poprzedniej karcie (niestety nie wiem jakiej) miałem w Crysisie demo na LOW z 20-25FPS, ojciec kupił 8800GTS 512MB i matko bosko jaki kop :E 

  • Upvote 1
Opublikowano (edytowane)

Zdecydowanie.

Najlepszy zakup, największe "wow", najwięcej radochy i zachwytów w grach tym, jakie wspaniałości potrafi wyświetlić:

1. 3dfx VooDoo

 

ale niedaleko na drugm miejscu właśnie

2. 8800GT 512MB

 

2-4x więcej pikseli przy 2x wyższym framerate'cie w porównaniu do jeszcze wtedy dość nowych i mocnych konsol.

 

Karta tak wspaniała że nawet jak zdechła z powodu bezołowiowych lutów, to i tak nie popsuło to opłacalności zakupu. Na CRT 21" i 24" w 1280x960 czy 900p ten sprzęt był bardziej prawdziwie high-endowy niż dziś 5090. Jak zestawić 900zł w sklepie 4 miesiące po premierze z 15000 4 miesiące po premierze 5090 to się aż nie chce uwierzyć, że 

- było tak dobrze

- jest tak źle

 

(niepotrzebne skreślić) ;)

 

 

Nawet dziś na monitorze CRT by się niejeden zdziwił co potrafi dobrze wykręcony C2D z 8800GT.

Szkoda, że dobre imię szkalują nieogary jak Alex z Digital Foundry który od czasu do czasu sili się na pokazywanie co taki sprzęt potrafił, ale tak się do tego zabiera, że zęby aż bolą jak się patrzy.

Edytowane przez VRman
Opublikowano (edytowane)
32 minuty temu, VRman napisał(a):

ale niedaleko na drugm miejscu właśnie

2. 8800GT 512MB

 

2-4x więcej pikseli przy 2x wyższym framerate'cie w porównaniu do jeszcze wtedy dość nowych i mocnych konsol.

 

Karta tak wspaniała że nawet jak zdechła z powodu bezołowiowych lutów, to i tak nie popsuło to opłacalności zakupu. Na CRT 21" i 24" w 1280x960 czy 900p ten sprzęt był bardziej prawdziwie high-endowy niż dziś 5090. Jak zestawić 900zł w sklepie 4 miesiące po premierze z 15000 4 miesiące po premierze 5090 to się aż nie chce uwierzyć, że 

- było tak dobrze

- jest tak źle

 

(niepotrzebne skreślić) ;)

Prawda, było lepiej.

W 2007 roku średnia krajowa wynosiła 3246 2691 zł brutto. Cena 8800GT około 900zł. 900/2691 = 0,33

Co dziś można kupić za 0,33 średniej krajowej? 0,33*8837= 2916zł. Można mieć co najwyżej lepszą wersję RTX 5070.

ale

Kiedyś topką było SLI, czyli dwie 8800GT (SLI z 3, 4 kart pomijam), a teraz odpowiednikiem 2x8800GT (SLI) jest jedna RTX 5090.

Edytowane przez wamak
Opublikowano
10 godzin temu, Send1N napisał(a):

Dokładnie :thumbup: 8600GT przez wielu uważana była za niewypał w tamtych czasach, potrafiła zbierać baty od 7800GTX/7900GS, Za to G80 (rodzina 8800 - później odświeżony G92) To BYŁO COŚ!, do tej pory nie było tak ogromnej przepaści wydajnościowej jaką zrobiła seria 8800 nad jedną generacją wstecz, z taką 8800GTX przegrywały dwie 7900GTX w SLI ;)  od 8600gt nawet najsłabszy model z serii (8800gts 320mb) był 2x (100%) szybszy.

Do czasu kiedy weszło więcej cieniowania do gier 8600GT przegoniła 7900GTX :hihot: Przy dwa razy niższym TDP.

Poza tym jakbyś porównał po oc to nie ma oczym pisać skoro po vmodzie miałem 1100mhz na rdzeniu zamiast 625Mhz :hihot:

Opublikowano (edytowane)
12 godzin temu, VRman napisał(a):

Jak to gdzie? Pełny 80tka. Nie ma modeli wyższych niż pełny chip. 

Przeczytaj jeszcze raz. Wychodzi na to, że obecną specyfikację x80 przemycasz do x60. Ok. Masz x60 po nowemu. A co z wyższymi modelami? x70, x80? Co tam wsadzisz? Kończysz hierarchię na x60 w ten sposób, przekształcając ją w top.

12 godzin temu, VRman napisał(a):

Oczywiście, że by wzrósł. Tak samo jak dziś karta lowendowa bierze więcej niż high end w czasach Rivy TNT. To niestety normalne i poborem prądu się półki nie określa. To byłoby naprawdę głupie, bo nawet ta karta jaką nazwano 5050tka pobiera o połowę więcej niż flagowiec 6800 Ultra.

Nie, nie jest głupie. To ciągnie za sobą dodatkowe koszty (zasilacz, chłodzenie etc.) i dzisiejsze wydajne pecety potrafią wyraźnie dogrzewać otoczenie. Obecne możliwości krzemu powoli się kończą i sprzęt jest głównie żyłowany aby coś jeszcze zyskać. Sama karta graficzna potrafi dzisiaj więcej zużyć energii i oddać jej następnie w postaci ciepła do otoczenia, a jeżeli cała jednostka z przed 10 lat.

12 godzin temu, VRman napisał(a):

A że nie ma co liczyć to ja wiem. Znam Nvidię  od tej strony ;)

Nie wiedziałem, że tam pracowałeś i znasz całą firmę wraz z ludźmi od wewnątrz.

12 godzin temu, VRman napisał(a):

No tak, ale czemu to ma oznaczać błąd? Poza tym przypomnę, że 6600 nie był gorszy od flagowca ATI (9700pro? 9800pro wyszedł pół roku przed 6600, nie pamiętam już jak to dokładnie było)

To po prostu nie był żaden wyczyn zrobić szybszą kartę po felernych FX-ach. To coś jakby jakiś mistrz w obojętnie jakiej dziedzinie, chwalił się, że jest lepszy od dziecka. Oczywista oczywistość.

12 godzin temu, VRman napisał(a):

oczywiście, ale co to zmienia?

Chwalisz, że było lepiej dawniej w ogólnym rozrachunku, a pokazałem, że przejścia z generacji na generację już dawno temu potrafiły dawać małe przyrosty wydajności. 7600 GT w porównaniu do 6600 GT, to nic specjalnego.

12 godzin temu, VRman napisał(a):

OK, tu masz rację. Pomyliłem się. Jest 1/3 ROPs względem 8800GTX choć 1/2 względem 8800GT na G92. TMU jest 1/2 względem G80 i 1/4 względem G92, 

Nadal patrzysz na suche dane z tabelki. One są guzik warte. Liczy się to, jaką masz realnie wydajność, a to jak jest zbudowany podzespół co ci daje? Nic. Ważna jest praktyczna wydajność, nie teoretyczna. Cyferki ze specyfikacji nie skalują się liniowo.

12 godzin temu, VRman napisał(a):

Cena nie ma nic do rzeczy. Tak samo jak 5070tki nie nazywamy 80tką tylko dlatego, że kosztuje więcej niż flagowce z 80 w nazwie wcześniej.

No teraz to aż się we mnie zagotowało. Cena nie ma nic do rzeczy? Czy ty jesteś świadom jakie byłyby dzisiaj ceny gdyby NV utrzymała trend cenowy z 2008 r. po dzień dzisiejszy? Gdyby udana seria HD 4xxx nie sprowadziła ich wtedy na ziemię, to dzisiaj w cenie RTX-a 5090 pewnie dopiero byłby RTX 5060. Przypominam - GTX 260 na premierę w 2008 r. był wyceniony aż na 449 dolarów (!). Tak, nie jest cudownie teraz z cenami, ale dopiero mogłaby być katastrofa.

Edytowane przez Pawelek6
Opublikowano
34 minuty temu, Pawelek6 napisał(a):

7600 GT w porównaniu do 6600 GT, to nic specjalnego.

Przecież to była ta sama architektura praktycznie. No przynajmniej wtedy, bo z dzisiejszego punktu widzenia to i tak różnice były większe niż pomiędzy 4060 a 5060. 

Kiepski argument a do tego pomijasz czas. Wtedy półtora roku = nowa generacja. Dziś na pewno 6.5r. a może i więcej. Nic specjalnego wtedy, szczególnie bez psucia rynku cenami z dupy, to nie był problem. A dziś jest. 

 

Resztę zostawię, bo widzę, że się kompletnie nie rozumiemy i nie ma to sensu.

Opublikowano

Tylko w praktyce 6600gt vs 7600GT jeżeli poprawnie został wykonany test bez limitu CPU to różnicę sięgają 1.6-2x :hihot: Nawet w starym HL2 jest 1.7x do przodu :hihot:

Jeszcze lepiej jak ktoś porówna 6800Ultra vs 7900GTX dorzuci jeszcze AA to różnicę dochodzą do 2.7x :hihot:

Opublikowano

Podobne roznice sa 8600GT vs 9600GT tez niezlego kopa dostala

2 godziny temu, VRman napisał(a):

Nawet dziś na monitorze CRT by się niejeden zdziwił co potrafi dobrze wykręcony C2D z 8800GT.

Szkoda, że dobre imię szkalują nieogary jak Alex z Digital Foundry który od czasu do czasu sili się na pokazywanie co taki sprzęt potrafił, ale tak się do tego zabiera, że zęby aż bolą jak się patrzy.

Przecież jest ten program, który "parodiuje" monitor CRT dzieki specjalnej nakładce i filtrowi.

Opublikowano (edytowane)
5 godzin temu, sideband napisał(a):

Poza tym jakbyś porównał po oc to nie ma oczym pisać skoro po vmodzie miałem 1100mhz na rdzeniu zamiast 625Mhz :hihot:

To się nie liczy, normalny ludek nie miał 1.1Ghz na 8600GT :E;) pamiętam jak była premiera GF 8 to sąsiad kupił palita 8600GT drzwi na przeciwko a ja miałem wtedy Galaxy 7900GS i porównywaliśmy kilka gierek jako młode siurki i na zwykłej GS miałem lepsze wyniki za to jego 8 lat starszy brat kupił wtedy razem z nim w sklepie 8800GTS 640mb i był dla nas można powiedzieć bogiem/wzorem :E :krejzol: Daliśmy mu wtedy ksywkę "PROGAMER" :hihot:

Edytowane przez Send1N
Opublikowano (edytowane)

Nie zapominajmy o buraku z AF w 6xxx i 7xxx.

 

Faktycznie, w Quake 4 na którejś z moich kart (nie pamiętam czy miałem wtedy 6800gt czy 7950gt, ale chyba 7) musiałem zejść do 640x480 przy AF, bo inaczej karta nie dawała rady. Bez AF dało się od biedy grać nawet w 1280x960.

 

Od zakupu 8800gt już zawsze grałem z AFx16.

Edytowane przez VRman
Opublikowano
8 godzin temu, galakty napisał(a):

Piękne czasy, pamiętam jak na poprzedniej karcie (niestety nie wiem jakiej) miałem w Crysisie demo na LOW z 20-25FPS, ojciec kupił 8800GTS 512MB i matko bosko jaki kop :E 

GTS "512MB" to już była odświeżona wersja na G92 po OC można było przegonić starego 8800GTX + trzymała fajne temperaturki, nie to co GT na G92 w której dali chłodzenie o grubości kartki papieru :ExD z tymi modelami wtedy to urwanie głowy było wydajnościowo było tak: 8800gts 320mb < 8800gts 640mb < 8800GT 512mb < 8800GTS 512mb < 8800GTX < 8800 Ultra

  • Upvote 1
Opublikowano (edytowane)

 

 

 

Nie trzyma 60fps, a średnio jest 6xfps na 5090 w... 720p.

Ray tracing oznacza takie wyniki na 9800X3D. W 1080p DLSS do 4K jest.. 48fps.

Bez RT też jest słabo. No ale za to jest postępowy UE5 

Wspaniałe czasy, wspaniała optymalizacja, wspaniały POSTEMP :E

Edytowane przez VRman
  • Haha 1
Opublikowano (edytowane)

On tam w sekcji 4k dlss Q przełączył na dlss ultra performance i praktycznie ten sam FPS - coś tam jest nie tak. U siebie gram w 4K dlss Q + FGx2 i w osd 117fps, bo na tyle mam lock. Po dwóch godzinach wyłączyłem osd, bo jak nie mam zastrzeżeń to skupiam się potem na grze.

 

Screenshot_20251101-090338.png.09bb5d4f8720e4b3188d3203f939ab05.png

Edytowane przez DżonyBi
Opublikowano (edytowane)
W dniu 30.10.2025 o 17:17, Send1N napisał(a):

GTS "512MB" to już była odświeżona wersja na G92 po OC można było przegonić starego 8800GTX + trzymała fajne temperaturki, nie to co GT na G92 w której dali chłodzenie o grubości kartki papieru :ExD z tymi modelami wtedy to urwanie głowy było wydajnościowo było tak: 8800gts 320mb < 8800gts 640mb < 8800GT 512mb < 8800GTS 512mb < 8800GTX < 8800 Ultra

To źle pamiętasz nawet bez oc 88GTS 512MB jest wydajniejszy od 88GTX 768MB póki nie zabrakło pamięci. Po prostu G92 jest wydajniejszy od G80. Poprawiono TMU, które mogło zaadresować 32 piksele w jednym cyklu zegara, a filtrować 64. W G92 to poprawiono także TA/TF wynosiło 64 także zachowywały jak "prawdziwe" 64 TMU. Naprawili procesor video, który był zepsuty w G80. 

G92 też siedział w 98GTX/GTX+/GTS250. A to były czasy kiedy dało się grzebać w timingach pamięci i dawało to kopa i lepiej było polecieć z timingami w dół ciut spadało oc GPU, ale ładnie rosła wydajność.

Edytowane przez sideband
Opublikowano
6 godzin temu, DżonyBi napisał(a):

On tam w sekcji 4k dlss Q przełączył na dlss ultra performance i praktycznie ten sam FPS - coś tam jest nie tak. U siebie gram w 4K dlss Q + FGx2 i w osd 117fps, bo na tyle mam lock. Po dwóch godzinach wyłączyłem osd, bo jak nie mam zastrzeżeń to skupiam się potem na grze.

Limit CPU z włączonym RT, nic dziwnego.

  • Upvote 1
Opublikowano (edytowane)

@sidebandAkurat tamte czasy dobrze pamiętam i pamiętam że po premierze 8800GTS 512mb G92 GTX i ultra były minimalnie  wydajniejsze jak GTS była na stock, być może po czasie się coś zmieniło ale jestem pewny że na starcie było tak jak pisałem ;) 8800GT była lepsza od starych GTS'ów (320 i 640mb) ale nawet 8800GTS 512 nie przeskoczyła GTX'a na stock zegarku,  rdzeń na G92 szedł znacznie wyżej nawet do 800mhz przy dobrej sztuce, na G80 kończyła się zabawa w okolicy 650. Więc ROP na G92 :hmm: zawsze wydawało mi się że było odwrotnie :P 

 

1.png

Edytowane przez Send1N
Opublikowano

@Send1N

Też pamiętam im nowsza gra tym gorzej dla G80 ;) Starsze gierki i maksowanie rozdziałki to idealne połączenie dla G80. Więcej ROP i wysoka przepustowość pamięci ;) 

G92 spokojnie kręciły się nawet powyżej 900Mhz na poluzowanych timingach tylko to nie miał sensu i wydajność była gorsza.

Jak dobrze poszukasz to znajdziesz trochę wyników teraz to się mocno zdziwisz jak G92 potrafi odlecieć od G80.

Wątpię by to były stery jak zwykle NV ukryła wprowadzone nowe funkcjonalności, które wychodzą po czasie. Bo to nie kwestia tylko poprawionych TMU.

 

  • Upvote 1
Opublikowano (edytowane)

Po czasie to pamiętam że 8800GTS na G92 wyprzedzał w nowszych gierkach ale np w crysis dopiero po Mocnym OC w okolice właśnie 800mhz przeskakiwała GTX'a a była jeszcze ultra :E (to nazewnictwo wtedy i ilość modeli masakra xD) nie zapomnę też jaki ogromny płacz był po premierze 9800GTX to był kotlet wszechczasów - 8800GTS 512mb ze zmienioną nazwą, ale żale się wylewały w necie :E 

Edytowane przez Send1N
Opublikowano
3 minuty temu, sideband napisał(a):

Jak dobrze poszukasz to znajdziesz trochę wyników teraz to się mocno zdziwisz jak G92 potrafi odlecieć od G80.

Wątpię by to były stery jak zwykle NV ukryła wprowadzone nowe funkcjonalności, które wychodzą po czasie. Bo to nie kwestia tylko poprawionych TMU.

 

 

Poprawione to słowo nie bardzo pasujące do faktu, że było ich tam sporo więcej

G92 64

G80 32

 

A w 8800GTS odpowiednio 56 vs. 24.

Opublikowano (edytowane)

Zaraz Ci zarzucę wykresy i bez żadnego oc 88GTS jest wydajniejsza w Crysisie od 88GTX ;)

 

Różne braki w architekturze wychodzą po czasie kiedy dane GPU nie było przygotowane pod przyszłe gry. Niektórzy nie wiedzą jak później radek X1800 rozwalały G70/71 o x1900 nie wspominam bo nie ma o czym mówić :hihot:

 

321.jpg

Nawet niech będzie powyżej 1080p :hihot:  Tutaj to są min różnice.

 

Polecam sobie potestować typu Mirror's Edge, FC2, Mafia 2, Bioshock, UT3 itd..... to się mocno zmieni zdanie w kwestii G80 vs G92. Żadne maglowanie zegarkami na jednej czy drugiej karcie nic nie zmieni.

 

68e0-3dmark06-fillrate.jpg

 

A tutaj wyniki potwierdzające poprawione TMU w G92 ;)

Edytowane przez sideband
Opublikowano (edytowane)
3 godziny temu, tomcug napisał(a):

Limit CPU z włączonym RT, nic dziwnego.

Faktycznie zużycie GPU momentami spada poniżej 80%, ale nawet wtedy z FGx2 trzyma FPS pod korek i jest masełko, więc nie zwróciłem na to uwagi. Na tym filmie też nie zwróciłem na to uwagi. Plus jest taki, że zużycie po UV spada poniżej 300W co na Astralu LC daje temp. poniżej 45C@1100rpm. 

Edytowane przez DżonyBi

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...