-
Postów
85 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez some1
-
Dlatego osobiście za lepsze zakończenie W3 uważam cesarzową. Może nie ma takiego milusiego happy endu, ale myślę, że bardziej pasuje do klimatu książek i lepiej pokazuje rozwój charakteru Ciri. Poza tym po trzech grach miałem już dosyć tego co odwalali władcy Królestw Północnych No ale z cesarzowej nie byłoby Wiedźmina IV, więc wybór takiego zakończenia przez CDP mnie nie dziwi.
- 719 odpowiedzi
-
- 2
-
Heh, mi się dzisiaj dysk systemowy zesrał w tak spektakularny sposób, że Giguś się zawieszał i nie pozwalał ani wejść do biosu, ani wybrać innego urządzenia do bootowania. Reset biosu, Q-Flash, nic nie pomogało, wyświetlał logo z kurczakiem i tyle, brak reakcji na klawiaturę. Dopiero musiałem wymontować dysk, podłączyć po USB i usunąć z niego uszkodzoną partycję, wtedy ruszyło.
-
Tak, to marginesy na pixel shift, możesz spać spokojnie. W telewizorach pixel shift powoduje przeważnie "wyjeżdżanie" obrazu poza ekran, w monitorach za to masz widoczne marginesy.
-
"Ponad 500W" to nie to samo co "odbijać od 600W PL".
-
Ada nawet 450W nie ciągną w wielu grach. Są tytuły, gdzie mam wszystkie suwaki w prawo, RTX on, karta na 100% obciążenia a i tak bierze ze 350W przy stock napięciach (Forza Horizon czy Assasyny). 600W można ustawić na niektórych kartach bez problemu już w obecnej generacji, w tym na FE, ale niczego to nie zmienia pod względem wydajności. Nie znaczy to oczywiście, że w nadchodzącej generacji będzie tak samo. Tak ogólnie to nie bardzo chce mi się wierzyć w to "oficjalne" 600W dla 5090, zarówno ze względu na wymagany rozmiar chłodzeń jak i zasilanie tych kart. Oczywiście możliwe, że nvidia faktycznie wymyśli sobie flagship bez kompromisów i w każdym modelu będzie 600W prosto z pudełka. Ale raczej obstawiałbym 500-550W stock, a 600W i więcej (2 wtyczki) w wersjach OC. 4090 też miał mieć 600W https://gamerant.com/rumor-next-gen-nvidia-rtx-4090-could-require-600w-of-power/
-
Niekoniecznie. Nowa generacja może być jak Ampere i jechać na power limicie cały czas prawie w każdej grze. A może być jak Ada, gdzie karty które mają teoretycznie 600W nie dobijają do limitu nawet po OC, bo wcześniej kończy się limit napięcia. Jeśli karty będą notorycznie jechać na power limicie 600W, to raczej nie zobaczymy w nich jednego gniazdka 12V. Po cyrkach z palącymi się wtyczkami w RTX 4090 podejrzewam, że będą woleli dać nieco większy margines bezpieczeństwa
-
Na pewno nie masz w opcjach monitora włączonego jakiegoś podbijania kolorów albo kontrastu? Czasem tryb gry albo jakieś inne ulepszacze obrazu po włączeniu powodują różne dziwne efekty.
-
Polska ma zaktualizowane zdjęcia satelitarne, są drogi których w 2020 nie było itp. Ale nie ma miast z fotogrametrią ani ręcznie robionych lotnisk, takie rzeczy może będą w jakimś przyszłym world update.
-
Taa ,to tak jak kupić GTX 780 Ti do grania w CP2077. To była top karta gdy ukazał się pierwszy trailer w 2013
-
No właśnie nie wiedźma, tylko wiedźminka. Wiedźmy już są w tym uniwersum.
- 719 odpowiedzi
-
- 1
-
Prędzej New Vegas, to w końcu też Obsidian. Ograłem pierwszą część w tym roku, czuć, że próbowali powtórzyć przepis na sukces z Fallouta, ale coś nie pykło. Jak dla mnie przegięli z poziomem satyry i wszystko wyszło takie niepoważne. W Falloucie klimat postapo jest dobrą przeciwwagą dla humorystycznych wątków i przerysowanych postaci a tutaj tego zabrakło. Nie pomagało to, że większość NPC to jednowymiarowi idioci a większość towarzyszy też nijaka. Do tego niespecjalnie ładna grafika, niezbyt ciekawa walka oraz rozwój postaci, i wyszedł taki przeciętniak. Także dodaję do obserwowanych ale się nie napalam.
-
Wiedźminka 1. Tylko jak to przetłumaczyć na angielski... Witcheress?
- 719 odpowiedzi
-
- 1
-
Jeśli postawisz obok siebie różne matryce, to zobaczysz. QD jest jakby trochę mniej ostre, woled bardziej postrzępione, IPS wygląda ciut ładniej, ale to jak porównujesz podobne PPI. Jeśli obok 27" oleda postawisz IPS taki biurowy standardzik 24" 1080p, to wcale nie będzie wyglądał lepiej. A przez wiele lat w pracy i na studiach używałem jeszcze gorszych rozdzielczości/ppi... Właściwie to przeważająca większość oprogramowania, którego używamy na co dzień została napisana na gorszych ekranach niż tu dyskutowane. Jakoś się dało
-
Obudowa nvme z allegro czy innego ali za kilkadziesiąt PLN, wpinasz do portu USB, klonujesz dysk (np. clonezillą), po sklonowaniu przekładasz dysk w komputerze i to wszystko. A stary dysk wkładasz do obudowy nvme i masz fajny, szybki pendrive.
-
Na 5GHz wifi nie ma dostępnego ciągłego pasma szerokości 320MHz. W teorii chyba wifi 7 mogłoby połączyć dwa kawałki 160MHz, ale no właśnie, to chyba mocno teoretyczna funkcja póki co... Chcesz 320MHz, trzeba używać kanałów 6GHz. Chcesz używać 6GHz, router musi być blisko odbiornika a nie gdzieś za ścianą. Niestety.
-
Na poprzednim zdjęciu oba są pod kątem Ale właśnie o to chodzi, przy woled musisz jakoś specjalnie patrzeć pod odpowiednim kątem i sobie przyświecić, a przy qdoled widzisz cały czas bo matryca nie jest czarna. Chyba że jest całkiem ciemno.
-
Miałem 3 różne uchwyty VESA i z żadnym nie dało by się tak zrobić, po prostu konstrukcja ramienia na coś takiego nie pozwala. Zwłaszcza jak mówimy o uchwytach pod duże monitory ok. 40". Zresztą to bardzo teoretyczne rozwiązanie, bo jak ktoś ma wąskie biurko, to przeważnie nie ma miejsca żeby jeszcze je sobie odsuwać od ściany
-
Ok, trochę zmieniając temat, na black frajer kupiłem sobie Odyssey G6 OLED za 2450. Rozglądałem się za tanim oledem 27" jako drugi monitor, ale skoro Samsung zrobił promocję na QD-OLED to wjechał taki. Zakup nie ma raczej dużego sensu biorąc pod uwagę, że G6 zastąpił u mnie w tym miejscu taniego biurowego IPS, który był tylko przystawką do głównego monitora (C2 TV 42") i większość czasu stał wyłączony. Ale też kupiłem z myślą o tym, żeby wypróbować nowe technologie i ocenić, czy C2 OLED jeszcze daje radę, czy już powoli myśleć czym go tu zastąpić. No to małe podsumowanie G6 QD-OLED z perspektywy użytkownika WOLED. Nic tu odkrywczego nie napiszę, ale może komuś się przyda. Zalety: - HDR. G6 jest wyraźnie jaśniejszy, kolory też są bardziej nasycone. Aż podejrzewam, że Samsung je jeszcze dodatkowo podkręca, w Forzy Horizon kolorowe menu konkretnie walą po oczach. Z drugiej strony to tylko 27", więc co z tego że jasny i kolorowy, gra się na takim maluchu jak przez lufcik, wszystko drobne i mniej wyraźne. - SDR jest ok, co prawda domyślnie jest włączony tryb kolorów "Native", ale można przestawić na "Auto" i wtedy mamy na pulpicie przyzwoite sRGB bez przesyconych kolorów. - matowa powłoka. To chyba rzadkość w QD-OLED, większość jest błyszcząca. Ten jest matowy, powłoka ładnie rozprasza światło, nie jest ziarnista, nie zmienia kolorów pod kątem. - biel jest jednolita, nie widzę bandingu, nie stwierdziłem ABL na pulpicie przy powiększaniu okien. Logo detection wyłączyłem w opcjach, ale nadal cały monitor potrafi się przyciemnić jeśli statycznie coś wyświetla przez dłuższy czas. - 240/360 vs. 120 Hz. Róznica w płynności obrazu nie jest jakaś spektakularna ale jest. Bez licznika FPS widzę różnicę jeśli przełączam się skrótem klawiszowym pomiędzy dwiema częstotliwościami, nawet pomiędzy 240 a 360, choć już mniej. Ale jeśli na ślepo wylosuję jedną z nich i próbuję "z pamięci" stwierdzić czy to 120, 240 czy 360, to nie zawsze mi się udaje dobrze zgadnąć. To już nie jest taki przeskok jak z 60 na 120. Neutralne: - Obudowa jest w większości metalowa, wyglądu nie komentuję, de gustibus. Mnie srebrny kolor przypomina elektronikę z wczesnych lat 2000 Srebrna ramka wokół ekranu wygląda zgrabnie, ale trochę IMO za bardzo rzuca się w oczy. LG C2 też ma metalową ramkę wokół ekranu, ale dużo cieńszą i w grafitowym kolorze. - Pixel shift chyba nie da się wyłączyć. Działa to tak, że ekran ma po kilka pikseli zapasu z każdej strony i co jakiś czas obszar wyświetlany się przesuwa. Więc nic z widzialnej przestrzeni się nie traci, obraz nie "chowa" się za ekran, tylko z jednej strony margines będzie ciut szerszy niż z drugiej, w zależności od tego gdzie aktualnie wyświetla się środek ekranu. - czcionki są "inne" ale nie powiedziałbym, że lepsze. Oba monitory mają bardzo zbliżone PPI, na LG C2 tekst jest ostrzejszy ale trochę poszarpany, G6 ma bardziej wygładzony, ale trochę jakby niewyraźny. Mnie bardziej podoba się LG ale to może być skutek przyzwyczajenia. Oba monitory mają nietypowy układ subpikseli, więc w pewnych kombinacjach kolorów i tła może być widoczny fringing albo jakieś artefakty. Wady: - Cośtam cicho piszczy przy 360Hz. Ale ostatnio przestał... albo ogłuchłem. - Czerń. Łechecheche... ten monitor nie jest czarny. To znaczy jest, w całkowicie zaciemnionym pomieszczeniu, ewentualnie takim minimalnie podświetlonym zza ekranu. Jakiekolwiek światło padające na matrycę i wygląda jak tani IPS. Serio, na początku miałem wrażenie, że on się nie wyłącza całkowicie, czy coś Nie jest to może taka masakra jak na niektórych zdjęciach w internecie, aparaty potrafią mocno podkręcić małe różnice jasności, ale do błyszczącego w-oleda jest przepaść. Nawet nie trzeba stawiać innego monitora obok, wyraźnie widać gdzie kończy się matryca a zaczyna czarna ramka wokół ekranu. Samsung po lewej, LG po prawej. W pochmurny, grudniowy dzień, z roletami zasuniętymi do połowy okna. Podsumowując, jakbym toto kupił jako główny monitor, nawet w wersji 4k 42", to byłbym rozczarowany. Może i byłby ok jako dedykowany ekran do grania w ciemnej jaskini, ale takiej nie posiadam i nie zamierzam budować. Coś czuję, że LG C2 zostanie u mnie na biurku jeszcze długo. Lepszym HDR czy wyższą częstotliwością odświeżania bym nie pogardził, ale nie generują takiego efektu "wow" jak sama przesiadka na OLEDa. I raczej nie będę skłonny do tego dużo dopłacać, zwłaszcza patrząc na to ile producenci wołają aktualnie za "maluchy" w rozmiarze 27 i 32".
-
Nie zawsze, ja swojego c2 mógłbym bliżej ściany przysunąć na fabrycznych nóżkach niż na ramieniu. Wiadomo, że możliwości regulacji są większe ale nie zamieni to biurka 60 cm w nie wiadomo co. Konkretne uchwyty pod duże monitory swoje miejsce zajmują. Chyba, że taki mocowany do ściany albo podłogi zamiast do blatu.
-
Ramię też ma ograniczenia, raczej nie odsuniesz monitora dalej niż samo ramię
-
No to nie wiem, u mnie da się tak włączyć, ale ja mam jeden po DP a drugi HDMI.
-
Powinno się dać, jeśli 360hz monitor jest ustawiony jako main display (główny). Pulpit nie będzie działał szybciej niż odświeżanie głównego monitora, przynajmniej u mnie nie działa
-
Wrażenia po przesiadce z 7800X3D: - wydajność (miejsca procesorowe w grach, kompilacja) wzrost przeważnie między 10 a 20%. W jednym miejscu wpadło +30%, ale to bardzo specyficzny test. - temperatury w dół o około 10-15 stopni przeważnie. - pobór mocy w grach wyższy o 5-10W. W Cinebenchu chyba o 50W (ale wynik +30%). Ogólnie szału nie ma, przesiadka z 5800X3D na 7800X3D dała mi trochę więcej, 15-25% przy mniejszym poborze mocy, ale wtedy doszedł szybszy RAM i nowa platforma. Z drugiej strony upgrade typu plug&play a na horyzoncie i tak nic ciekawszego nie ma, 9950X3D nie chcę.
-
W X-kom było sporo, wystarczyło na kilka minut Trzeba też mieć na uwadze, że różne modele mają różną dostępność. Poprzednio było mało kart MSI, z Asusami też słabo, ale więcej Gigabyte, Palit, Zotac i innych.
-
Duże samoloty są stabilniejsze, airbus to w ogóle, bo w nim autopilot cały czas jest aktywny i utrzymuje kierunek lotu. Najtrudniej prosto lecieć właśnie jakimiś maluchami z silnikiem tokowym.