Skocz do zawartości

Rekomendowane odpowiedzi

Opublikowano (edytowane)

@Sidr Jak tak sobie przypomnę, to mój 4070S miał ok 170W po UV na profilu codziennym.

@Tornado3 Nie wiesz jaką sztukę krzemu trafił. Może mu krzaczyć te ustawienia z marszu.
Najlepiej przyjąć na początek +400MHz bo raczej mało sztuk nie daje rady z tą wartością, a potem można dopieszczać.

Edytowane przez Lameismyname
Opublikowano (edytowane)
1 minutę temu, Tornado3 napisał(a):

ja nigdy nie ruszam PLa chyba że przy OC to podnoszę

Słusznie, sam też tak robię, chyba, że mam kartę z blokadą na 100%.
Ale poniżej nie widzę większego sensu ruszać...

Paradoksalnie jak ktoś ma kartę bez blokady Power Limitu na 100%, to powinien dać PL w opór nawet przy mocnym UV.
Po cholerę sztuczny szlaban trzymać.

Edytowane przez Lameismyname
Opublikowano (edytowane)
21 minut temu, Tornado3 napisał(a):

I pobór pod 400w :thumbup:

Eee, no niekoniecznie.

Z dlss, czyli de facto tak jak trzeba grać na tych nowinkach bo bez nich raster robi szpagat, to zwykle 300W nie przekraczam.

No ale żeby nie był gołosłownym:

20250409_192612.thumb.jpg.23f4b1caa97dde2970124d9120b50f4d.jpg

 

Oczywiście, że nowe gpu będą bardziej efektywne energetycznie, niemniej to ciężko nazywać sukcesem i strzelać konfetti :/ to raczej wymagany progress jest.

Gdyby te karty były o 10% szybsze niż last gen, i w dodatku ciurały więcej W z gniazdka to jaki byłby sens ich zmiany? 

Edytowane przez Qrdello
Opublikowano
5 minut temu, Lameismyname napisał(a):

Słusznie, sam też tak robię, chyba, że mam kartę z blokadą na 100%.
Ale poniżej nie widzę większego sensu ruszać...

Paradoksalnie jak ktoś ma kartę bez blokady Power Limitu na 100%, to powinien dać PL w opór nawet przy mocnym UV.
Po cholerę sztuczny szlaban trzymać.

Chyba czegośtu nie rozumiem, albo u mnie to inaczej działa. Jeżeli nie zmniejszam PL, to przy 100% obciązenia karty PDP idzie max - czyli 300W. U Was po UV nie dobija do limitu?

Opublikowano (edytowane)
4 minuty temu, Tornado3 napisał(a):

to zdecyduj się co chcesz porównać, bo wrzuciłem Ci SS ze SteelNomad i wiem ile ta karta wciąga po OC (miałem kiedyś 3080 12GB) tak ze nie czaruj ;)

Ja nie czaruję, też potrafię w undervolting i moje 3080 nie ciągną z gniazdka 400W, chyba że chcę i podnoszę im PL na 108 lub 110%, jak przy SuprimX. W normalnych scenariuszach, nawet w 3d marku, 350W to absolutny maks, bo tam co innego jest problemem - niestety ale budowa tych układów nakłada masakryczne ograniczenia na taktowanie względem prądu z gniazdka, ale przy 100% obciązeniu - czyli takim jak w syntetykach.

W grach okazuje się, że karta potrafi być wyraźnie szybsza przy niższym TGP, bo taktowanie siedzi wyżej.

Zresztą wynik powyżej z SN akurat dotyczy INNO3D x4 Ichill - karty, która ma dwa złącza 8pin a zatem więcej niż 350W nie pociągnie, choćby skały srały. :> 

Edytowane przez Qrdello
Opublikowano (edytowane)

@SidrDziała tak samo- uv obniża pobór energii i można go zrobić tak, że nie stracisz na tym wydajności a możesz nawet zyskać. Jak wiele to już loteria i każdy przypadek jest inny

8 minut temu, Qrdello napisał(a):

Ja nie czaruję, też potrafię w undervolting i moje 3080 nie ciągną z gniazdka 400W, chyba że chcę i podnoszę im PL na 108 lub 110%, jak przy SuprimX. W normalnych scenariuszach, nawet w 3d marku, 350W to absolutny maks, bo tam co innego jest problemem - niestety ale budowa tych układów nakłada masakryczne ograniczenia na taktowanie względem prądu z gniazdka, ale przy 100% obciązeniu - czyli takim jak w syntetykach.

W grach okazuje się, że karta potrafi być wyraźnie szybsza przy niższym TGP, bo taktowanie siedzi wyżej.

Nie dobijasz max power limitu ponieważ wcześniej osiągasz limit napięcia najpewniej. Gry w różny sposób obciążają energetycznie karty- włącz quake2 rtx i tam będzie szybka weryfikacja ile potrafi wciągnąć ta karta

 

Test MSI Ventus 5070Ti na stock w mojej obudowie

FurmarkstockMSIVentus5070Ti.thumb.png.e4ae395ce96fead66a5f79122e977055.png

 

 

Edytowane przez jankooo
Opublikowano (edytowane)
Cytat

zawsze możesz pokazać wydajność przy 220W. Tak z ciekawości 

... najlepszy krzem jaki testowałem to był chyba w Gainward Phantom, gdzie przy 1800Mhz ta karta mogła lecieć na 0,85v :E i wtedy faktycznie taki 3080ti potrafił zejść z poborem do tych Twoich 220W.

 

Mogę nawet sobie locka na 30 fps nałożyć, to nie ma zupełnie żadnego znaczenia. Od dwóch generacji nVidia odcina kupony od wydajności w segmencie niższym niż xx80, i to jest niezaprzeczalny fakt. Tam gdzie kiedyś seria x70 ogrywała gen do genu poprzednika, teraz trzeba dwie generacje. 4070 ledwo w rasterze doganiał 3080, bez dlss i fg generalnie karta bezużyteczna dla każdego kto posiada(ł) serię x80. 5070 w surowej wydajności ledwo o kilka procent średnio przebija te 3-4 letnie karty. Karta za 3k :E o dwie generacje nowsza. I tutaj przyrost wydajności x watt jest, rzecz jasna, istotny - ale w kontekście całości co najmniej śmieszny. W sumie to tylko tyle posiadaczom takich kart zostaje - chwalić się wydajnością 4 letniej karty x 0,7 mocy :D 

 

11 minut temu, jankooo napisał(a):

@SidrDziała tak samo- uv obniża pobór energii i można go zrobić tak, że nie stracisz na tym wydajności a możesz nawet zyskać. Jak wiele to już loteria i każdy przypadek jest inny

Nie dobijasz max power limitu ponieważ wcześniej osiągasz limit napięcia najpewniej. Gry w różny sposób obciążają energetycznie karty- włącz quake2 rtx i tam będzie szybka weryfikacja ile potrafi wciągnąć ta karta

Raczej dobijam, bo fizycznie więcej z pci-e + 2x8 pin się wycisnąć nie da. Sufit nad core jeszcze jest.

Co pięknie widać w takim SuprimX, gdzie nie dość że karta sama w sobie mając 3 gniazda 8 pin może do 450W pociągnąć, to jeszcze można jej PL podnieść.

Fakt, żre jak mała elektrownia ale daje kolejne ~5% wydajności względem praktycznie każdego innego 3080(ti).

Edytowane przez Qrdello
Opublikowano
15 minut temu, Qrdello napisał(a):

Tam gdzie kiedyś seria x70 ogrywała gen do genu poprzednika, teraz trzeba dwie generacje

No tak jest ale co zrobisz... Seria 50xx jeszcze pogłębia ten trend- top jeszcze bardziej odstaje od reszty stawki. 

 

Z drugiej strony progres jest zarówno energetyczny jak i $/FPS- RTX 5070 jest połowę tańszy niż kosztował 3080Ti a kilka % wydajniejszy,

 

Żeby trzymać się tematu to wrzucam test w mojej obudowie jeszcze innej karty bliskiej MSRP ZOTAC Core RTX 5070 Ti

Furmark stock Zotac solid Core 5070Ti.png

Opublikowano (edytowane)
4 minuty temu, jankooo napisał(a):

Z drugiej strony progres jest zarówno energetyczny jak i $/FPS- RTX 5070 jest połowę tańszy niż kosztował 3080Ti a kilka % wydajniejszy,

Obstawiam, że gdyby nie covid to i cena 3080ti i 5070 była diametralnie inna. Ta druga za 2k, jak powinna faktycznie kosztować, to były mega deal.

MSRP dla 3080ti to  1199 USD, czyli nawet po hiper nieoptymistycznym kursie niecałe 5k. No tylko, że rynek zweryfikował :/ 

EOT?

Edytowane przez Qrdello
Opublikowano (edytowane)
2 godziny temu, Lameismyname napisał(a):

No masz rację. Ciężko jednak wprowadzić taką "dyscyplinę", a i tak są czynniki zewnętrzne, które mogą zaburzyć obraz.
Różnice w wielkości bud, różnica w wentylowaniu bud, różnica między bazowymi temperaturami otoczenia itd.
Ktoś mógłby daną kartę wrzucić do dużej budy i ustawić wentylatory obudowy na 100% oraz test robić w wypiździanej piwnicy ;)

Nie no jasne, że tak, ale mimo wszystko ja jestem nauczony, że jak chce pokazać wydajność danego chłodzenia karty to zawsze robię najpierw testy i screeny wszystkiego na stocku. Dopiero później uv do codziennej gry, choćby nawet porównać sobie ile zyskałem. A tak niby skupiamy się na tym, czy te tańsze karty w cenie MSRP mają sens, ale nikt nie wrzucił głupiego screena z pełnego stocku. Zawsze to fajnie byłoby porównać Inno, Ventusa, Shadow, Prime nawet mimo tych różnic między temperaturą w pokoju i obudową. A tak testy na UV, gdzie jeden zjedzie o 40W/60W/70W jeszcze bardziej tracą sens. Ale i tak dobrze, że je robicie, wnioski i tak można wyciągnąć ;)

Edytowane przez skunRace
Opublikowano
8 minut temu, Qrdello napisał(a):

czyli nawet po hiper nieoptymistycznym kursie niecałe 5k

https://www.purepc.pl/test-wydajnosci-karty-graficznej-nvidia-geforce-rtx-3080-ti-prawie-jak-geforce-rtx-3090-tylko-mniej-pamieci-i-troche-nizsza-cena?page=0,32

 

5600 i wtedy o takiej cenie można było tylko pomarzyć%-)

ps.EOT. bo kończą mi się moje 5070Ti z testów:hihot:

 

Test stock Gigabyte RTX 5070Ti Windforce czyli MSRP- obudowa otwarta bo oglądałem wtyczki czy nie płoną a póżniej zapomniałem zrobić w zamkniętej ;) )

 

 

gigabyte rtx 5070ti furmark.png

  • Thanks 1
Opublikowano (edytowane)
4 godziny temu, skunRace napisał(a):

Nie no jasne, że tak, ale mimo wszystko ja jestem nauczony, że jak chce pokazać wydajność danego chłodzenia karty to zawsze robię najpierw testy i screeny wszystkiego na stocku. Dopiero później uv do codziennej gry, choćby nawet porównać sobie ile zyskałem. A tak niby skupiamy się na tym, czy te tańsze karty w cenie MSRP mają sens, ale nikt nie wrzucił głupiego screena z pełnego stocku. Zawsze to fajnie byłoby porównać Inno, Ventusa, Shadow, Prime nawet mimo tych różnic między temperaturą w pokoju i obudową. A tak testy na UV, gdzie jeden zjedzie o 40W/60W/70W jeszcze bardziej tracą sens. Ale i tak dobrze, że je robicie, wnioski i tak można wyciągnąć ;)

Testy na Stock masz zazwyczaj w recenzjach których jest cała masa w sieci. Po UV czy OC już musisz szukać po tematycznych forach dlatego lepiej jak jest więcej tego typu porównań

Edytowane przez Tornado3
Opublikowano
6 godzin temu, Tornado3 napisał(a):

Testy na Stock masz zazwyczaj w recenzjach których jest cała masa w sieci. Po UV czy OC już musisz szukać po tematycznych forach dlatego lepiej jak jest więcej tego typu porównań

Właśnie o to chodzi, że nie ma całej masy a o niektórych kartach wręcz ciężko czegokolwiek wartościowego się doszukać. 

Jest tyle zmiennych, że screeny po uv/OC mówią jedynie jak karta sie spisuje w twoim systemie i jak reaguje na te zabiegi twój egzemplarz.

Testy na max power limit pokazują skuteczność chłodzenia i czy np jest miejsce na ustawienie swojej łagodniejszej krzywej wentylatorów.

Tu taka ciekawostka bo np w moim Ventusie o ile skuteczność chłodzenia jest ok to żeby obniżyć głośność z krzywą wentylatorów nie poszalejesz. Temperatury vram wzrastają i pomimo chłodnego GPU muszę trzymać pewien RPM aby pamiątki były poniżej 80 stopni.

 

  • Upvote 1
Opublikowano (edytowane)
14 godzin temu, jankooo napisał(a):

https://www.purepc.pl/test-wydajnosci-karty-graficznej-nvidia-geforce-rtx-3080-ti-prawie-jak-geforce-rtx-3090-tylko-mniej-pamieci-i-troche-nizsza-cena?page=0,32

 

5600 i wtedy o takiej cenie można było tylko pomarzyć%-)

ps.EOT. bo kończą mi się moje 5070Ti z testów:hihot:

 

Test stock Gigabyte RTX 5070Ti Windforce czyli MSRP- obudowa otwarta bo oglądałem wtyczki czy nie płoną a póżniej zapomniałem zrobić w zamkniętej ;) )

 

 

Dziwne te wyniki masz.

 


Panowie, mam propozycję. Z tego co widzę w wątku mamy użytkowników chyba wszystkich dostępnych modeli 5070 TI. Przetestujmy je. Proponuje też ujednolicić metodologię testową w następujący sposób:


1. Odpalamy Furmark  (2.7.0.0) w Windowsie bez żadnych aplikacji w tle, a następnie HWMonitor (1.56). Zostawiamy tylko parametry GPU, a pozostałe zwijamy.
2.  Odpalamy benchmark 2560x1440, a gdy pojawi się wynik, to dajemy na 1 ekran HWMonitor  (alt-tab) i robimy skrinszota (printscrn+paste_to_paint).
3. Punkty 1 i 2 dla STOCK i UV. Po pierwszym teście resetujemy HWMonitor off/on.
4. Wpisujemy w wątku nazwę modelu i wklejamy te dwa skriny.
5. I tak max 3 testy każdego modelu i na końcu jakieś podsumowanie w formie tabelki.
6. Wersja rozwojowa. Jeżeli macie jakieś pomysły, co zmienic - piszcie.


- HWMonitor, ponieważ jest bardziej klarowny i rozbudowany.
- 2560x1440, ponieważ 1080 nie ma sensu przy tej karcie, a z 4K pewnie z połowa z nas nie korzysta.


Wiadomo, wyniki (FPS) będą inne, bo mamy różne procesory, ale parametry (temp, waty itd - ogólnie kultura pracy)dla działania GPU będą takie same. Do tego będzie widać pozostałe nasze komponenty i będzie porównanie różnic z działania GPU na różnych procesorach.


ZOTAC 5070 TI SOLID CORE

 

Stock:

FM_Stock.thumb.jpg.68d70cd1cbd12d08d335805a84348406.jpg

 

UV:

 

FM_UV.thumb.jpg.6a7302e799a906691f6ab82f401a660e.jpg

 

 

edit: dopiero zauważyłem, że u mnie w ustawieniach stock, karta w monitorze nie dobija do maksymalnej wydajności (utilization limit).

Edytowane przez Sidr
Opublikowano
16 godzin temu, Tornado3 napisał(a):

Testy na Stock masz zazwyczaj w recenzjach których jest cała masa w sieci. Po UV czy OC już musisz szukać po tematycznych forach dlatego lepiej jak jest więcej tego typu porównań

Jasne, ale właśnie z tych tańszych kart, które pojawiają się w cenie msrp o których mowa są testy głównie tylko Ventusa, a na forum mamy już Ventusa, Shadow, Prime, Innno3D. Wstępnie można powiedzieć, że Prime wypada najlepiej i potrafi zejść poniżej 1000rpm, 900rpm widziałem na screenach, a jakie ma minimalne nie wiem.

5 godzin temu, Sidr napisał(a):

Dziwne te wyniki masz.

 


Panowie, mam propozycję. Z tego co widzę w wątku mamy użytkowników chyba wszystkich dostępnych modeli 5070 TI. Przetestujmy je. Proponuje też ujednolicić metodologię testową w następujący sposób:


1. Odpalamy Furmark  (2.7.0.0) w Windowsie bez żadnych aplikacji w tle, a następnie HWMonitor (1.56). Zostawiamy tylko parametry GPU, a pozostałe zwijamy.
2.  Odpalamy benchmark 2560x1440, a gdy pojawi się wynik, to dajemy na 1 ekran HWMonitor  (alt-tab) i robimy skrinszota (printscrn+paste_to_paint).
3. Punkty 1 i 2 dla STOCK i UV. Po pierwszym teście resetujemy HWMonitor off/on.
4. Wpisujemy w wątku nazwę modelu i wklejamy te dwa skriny.
5. I tak max 3 testy każdego modelu i na końcu jakieś podsumowanie w formie tabelki.
6. Wersja rozwojowa. Jeżeli macie jakieś pomysły, co zmienic - piszcie.


- HWMonitor, ponieważ jest bardziej klarowny i rozbudowany.
- 2560x1440, ponieważ 1080 nie ma sensu przy tej karcie, a z 4K pewnie z połowa z nas nie korzysta.


Wiadomo, wyniki (FPS) będą inne, bo mamy różne procesory, ale parametry (temp, waty itd - ogólnie kultura pracy)dla działania GPU będą takie same. Do tego będzie widać pozostałe nasze komponenty i będzie porównanie różnic z działania GPU na różnych procesorach.


ZOTAC 5070 TI SOLID CORE

 

Stock:

FM_Stock.thumb.jpg.68d70cd1cbd12d08d335805a84348406.jpg

 

UV:

 

FM_UV.thumb.jpg.6a7302e799a906691f6ab82f401a660e.jpg

 

 

edit: dopiero zauważyłem, że u mnie w ustawieniach stock, karta w monitorze nie dobija do maksymalnej wydajności (utilization limit).

Jaki jest sens robić testy chłodzenia, które trwają minutę, chyba, że się boisz, że Ci ten Furmark kartę zajedzie :P Taki test to przynajmniej 10 minut, dlatego najlepszy do testowania chłodzenia jest moim zdaniem Demo Quake 2 RTX. Mało zajmuje i przyciśnie kartę podobnie jak najbardziej wymagające gry  z RT.

 

https://store.steampowered.com/app/1089130/Quake_II_RTX/

  • Like 1
Opublikowano

Na chłodzeniu powietrznym minuta jeszcze jest w miarę, miarę.
Dobre jajca są na aio gdzie np. robiąc oc procka/gpu startujemy z zimnej wody i wszystko jest gituwa.
Kryzys dopiero jak np. pogramy z 2h na średnim obciążeniu i niskich obrotach wentylatorów, tak, że woda się nagrzeje i WTEDY NAGLE Z CAŁEJ PETY WJEDZIE KOMPILACJA SHADAERÓW NA WSZYSTKICH RDZENIACH I JEB DUP CIUL BLUE SCREEN BO PROCEK W SEKUNDE DOSTAJE MILION STOPNI BO POMPA NIE ZDĄŻY ROZPĘDZIĆ WODY A WENTYLE PRZEDMUCHAĆ CHŁODNICY :E

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Wyszła też public alpha RTX Remix Dark Messiah. Aż zainstalowałem grę. Po tylu latach... I jeżeli ktoś się spodziewa przyzwoitej wydajności w RTX Remixach, to raczej będzie zawiedziony.  
    • a nie pomyliły ci sie kraje?   Ukraińcy zdobyli więcej ziemi niż stracili. Pierwsza taka sytuacja od 2 lat https://www.rmf24.pl/raporty/raport-wojna-z-rosja/news-ukraincy-zdobyli-wiecej-ziemi-niz-stracili-pierwsza-taka-syt,nId,8070769
    • a w gamingowych monitorach to nie jest przypadkiem zmienne zeby nie bylo wrazenia shutteringu czy zacinania obrazu wlasnie? wziąść???? miales na mysli wziĄĆ bo nie braŚĆ.   moze matryca fast VA albo po prostu IPS? czy duzo pracujesz z czarnymi elementami? Jesli nie to mzoe IPS. Zwlaszcza ze priorytetem sa gierki i jakosc tekstu to tutaj stawialbym na IPS. Zapewne trafisz na monitor ktory w srgb wykraca poza 100% przepelnienia (monitor wysokogamutowy), ale za to mialbys pewnosc ze w standardzie adobe siega przynajmniej 95% (oczywiscie kwestia budzetu). pewnie w tych drozszych jest opcja 100%srgb blokada w osd i przelaczenie na 95%+ adobe w razie potrzeby. Zakladam ze na HDR ci nie zalezy?  Mysle ze do 2k znajdziesz ips z opcjami wyswietlania koloru czarnego za pomoca ips black. Kwestia tego czy dla tych 5% grafiki oplaca sie az tyle placic za to? Jesli w pracy duzo pracujesz z czernią to odp oczywista, ale pomysl o tym.   na jakiej wielkosci montorze ci zalezy? jaka rozdzielczosc? czy zasilanie portow usb albo porty usb to must have? Czy chcesz pure 10bit glebie kolorow czy moze byc sztucznie za pomoca frc?  
    • Dokładnie...u ciebie widać syf na dole budy, u mnie nie...bo jest biała     Dlatego wolę jasne kolory
    • Witam, Jak w temacie, chciałbym się dowiedzieć czy wśród aktualnych modeli znajdę jakąś perełkę która spełni moje oczekiwania i nie przetrzepie przesadnie kieszeni. Żeby było prościej może opisze w skrócie co mi się podoba w sprzęcie z którym mam styczność:   Eizo CG277 od niedawna w robocie - praca w coreldraw oraz adobe photoshop, grafika głównie pod druk - wysoki komfort pracy, świetne kolorki(pełne 10bit), teksty i krzywe wyraziste jak nigdy, no i tam chyba odświeżanie monitora jest prądem stałym a nie zmiennym jak w typowych monitorach - nie męczy nawet po kilku godzinach siedzenia, ale do grania się nie nadaje, za wolny - bo to nie jego przeznaczenie, wiadome   TV sony 65XF9005 - matryca LCD (PFS LED – “TRILUMINOS”) typ. VA, Direct LED(Full Array Local Dimming) - z tego co wyczytałem to taka technologia analogiczna do QLED (kropka kwantowa) czy LCD LG (NanoCell), zapewnia wysokie pokrycie barw i wszystko wygląda bardzo naturalnie, atrakcyjnie cieszy oko ale nie jest przesadnie przejaskrawione, maksymalna jasność po kalibracji 600cd/m2 (pełny ekran klasyczna treść SDR), 1 100 cd/m2 (HDR, skrawek ekranu), kontrast statyczny 6000:1, kontrast ANSI 3500:1, świetne kąty, czarny bardzo dobry - przy zgaszonym świetle w pokoju i czarnej planszy z białymi napisami końcowymi w filmie, widzisz wyraźnie tylko białe napisy, ostre i wyraźne, dla porównania u kumpla to samo oglądałem na OLED to czerń spoko ale napisy i jasne elementy dużo słabiej wypadały, za mocno świeciły i stawały się przez to mało wyraźne, jak dla mnie przegrywa z oledem jedynie płynnością ruchu, mimo że matryca jak na swój rodzaj do wolnych nie należy.   iiyama G2770HS 180Hz FastIPS, 0,2ms - monitor kupiony okazyjnie bardzo tanio jako tymczasowy, szybka matryca, ale max 1080p w 27" i praca z tekstem to słabe połączenie, używam go na zmianę z Dell 2713hm   Dell 2713hm - chyba najdłużej na nim siedziałem i w pracy w domu głownie do pracy z grafiką zanim pojawił się Eizo, do pracy ok, ale w grach za wolny   Lenovo R27q-30 - kupiony dla syna do grania, jakoś nie mogłem znaleźć sensownych ustawień dla niego, obraz wydawał mi się za ciemny, albo za jasny, coś w nim nie pasowało, mimo że na papierze wydawał się spoko wyborem   No i teraz pytanko czy jest coś na rynku co mogłoby spełnić moje oczekiwania? przeznaczenie to głównie granie 75%, czytanie 20%, grafika 5%, praca z grafiką na nim to raczej sporadycznie raz na jakiś czas, ale wtedy mocno i intensywnie -  mam też taki zamysł że może zamiast skupiać się przy monitorze na tym aspekcie - olać to i po prostu brać monitor z roboty na czas prac i tyle, a docelowy mieć tylko pod rozrywkę, chociaż zapewne jak dobry monitor by sie trafił to jak sRGB będzie niezłe bo to się głównie w grach liczy to i Adobe RGB też będzie nienajgorsze:) Idąć dalej... dużo czytam i przetwarzam danych tekstowych, więc komfort pracy z tekstami, czcionkami itd. tu bardzo się liczy i gdyby nie to pewnie celowałbym w OLEDY, ale tam teksty to słaby temat, tak więc... co by tu wziść na celownik? jeżeli chodzi o budżet to sam niewiem ile trzeba by wydać? 1400-2200zł to jakieś sensowne pieniądze? czy za mały budżet na takie potrzeby?
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...