Skocz do zawartości

Intel Raptor Lake - 13/14 generacja


Rekomendowane odpowiedzi

Opublikowano (edytowane)

Kij go wie.
No i i5 to taki i9 12900k po oc ale z brakującymi dwoma rdzeniami P.
W dodatku gorący.

Bez zaskoczenia.

Zostaje bo szkoda wyciągać z pc a przynajmniej troche siana wpadło.
Fajnie, że nie trzeba nic ustawiać i ramki poszły z buta na 7000mhz na tym samym profilu.

image.thumb.png.468f3dce2d279691fbf25a354255268c.png

Edytowane przez wallec
Opublikowano (edytowane)

w 14600K płyty standardowo zapodają zawyżone napięcie 1,250...1,300V

Większość tych CPU powinna pracować na ok 1,150...1,180V, a to kilkadziesiąt Wat mniej i ładnych kilka st. mniej.

Przykładowo testowałem na nim taniego Deepcool AG400 (110zł) i spokojnie sobie radzi tak z 13600K~1,110V oraz 14600K~1,170V i  na max obciążeniu jest ok. 80st.C ...83st.C  przy 23st.C w pomieszczeniu, a w normalnym graniu itd zakres 50...65 st.C. 

Przeważnie na i5K po ustawieniu napięcia, to wystarczy tani cooler x4 heat pipe 6mm, ale podstawa to ustawić sobie dobrze napięcie i cep na lata.

Edytowane przez Gef76
Opublikowano (edytowane)

Raczej, że cep na lata, tak samo jak i9 12900k czy i5 12400f wykręcony na 5ghz.

 

Kupując Intela najfajniejsze jest to, że po zamontowaniu masz topową wydajność, topowa stabilność i sobie grasz i tyle, a na AMD podróż dopiero się zaczyna (i nie ma końca) tj. jakie napięcie vsoc, jaka agesa, jaka curva, czy temperatury nie są za wysokie i jak je zbić, czy działa pcie gen 5.0 które miesiąc temu było zbędnym bajerem i miałeś je w pupie, a teraz może działać to się podniecasz tydzień że je masz i testujesz 3d mark, czy to normalne że bios raz na czas ładuje się minute a komputer nie chce się uruchomić itd itp a na Intelu wszystko jest od samego początku.

Edytowane przez wallec
Opublikowano

14600k to świetny procesor do gier i programów użytkowych. Dobrze ustawiony jest najlepszy w swojej klasie cena/wydajność.

W dodatku szybkie DDR5 potrafią nawet 7-10% dodać w grach, a kosztują około 800zł za 2x16GB.

Czyli tani 14600k + szybkie memki i jest git :) Poza tym nie wypala dziur w socketach, jak te pseudo-kanapki 7800x3d/9800x3d :hihot:

 

https://allegro.pl/oferta/procesor-intel-i5-14600k-5-3-ghz-lga-1700-17350116920?utm_feed=3dca5096-1f0f-4ca6-9f37-f55ca2fec4f7&utm_source=ceneo&utm_medium=cpc&utm_campaign=feed&ceneo_cid=dec7d57a-4148-f43c-ab1c-01561a84a47c

 

https://allegro.pl/oferta/pamiec-g-skill-trident-z5-neo-rgb-ddr5-32-gb-8000mhz-cl38-16887121238?bi_s=ads&bi_m=productlisting:desktop:queryandcategory&bi_c=MmM5MzcyMDEtY2IyZC00ZjIyLTljZjQtNjIyNWY4MjkyMGU4AA&bi_t=ape&referrer=proxy&emission_unit_id=5e61a1c9-9f91-4b7f-af1c-a0f79d526887

  • Like 1
Opublikowano (edytowane)

Potwierdzam, w 1h wyrobiłem się od zrobienia zdjęcia na papierze toaletowym do ustabilizowania cpu memki na 7000mhz cl32-42-42-54 i mogę ciupać w gierki.
Tak samo jest na i5 12400f, i9 12900k.

 

Jakby np założyć, że 9800x3d jest o 20% szybszy od i9 12900k/i5 14600k tj. intel daje 100 FPS a AMD 120 FPS.

 

To kontynuując.

 

Na AMD użytkując komputer poświęcasz b.dużo czasu na grzebaniu w napięciach, terminacjach ustawieniach pamięci, biosach, pcie gen 4.0/5.0 itp itd

Na INTELU poświęcasz na to raz, jedną godzinę,

 

To kontynuując

 

Masz na granie np 100 godzin na rok

Litując się nad AMD konfiguracja, debugowanie, czytanie for, pisanie postów na forach itp itd. zajmuje ci 25 godzin z tych 100 godzin (a tak naprawde 100 godzin poświęcasz na puszczanie tm5 anta dla jednego nastawu ram, którego i tak później nie używasz i znowu musisz puszczać antę)

Tj masz tylko 75 godzin na granie, czyli 270 000 sekund czyli AMD daje ci łącznie 32 400 000 wyświetlonych klatek obrazowych.

 

Przyjmując tą samą logikę, procesory intela dają Ci 99 godzin na granie (100 godzin minus 1 godzina potrzebna na pierwsze uruchomienie).

Zostaje nam 356 400 sekund na granie, czyli INTEL daje ci łącznie  35 640 000 wyświetlonych klatek obrazowych.

 

Podsumowując:

Intel jest 10% szybszy od AMD

AMD jest 9,1% wolniejsze od INTELA

 

Tutaj potwierdzenie "grzebania w AMD"

image.thumb.png.f60527b6ea5f860a9aa287493905cac7.png

Edytowane przez wallec
Opublikowano
3 minuty temu, wallec napisał(a):

Potwierdzam, w 1h wyrobiłem się od zrobienia zdjęcia na papierze toaletowym do ustabilizowania cpu memki na 7000mhz cl32-42-42-54 i mogę ciupać w gierki.
Tak samo jest na i5 12400f, i9 12900k.

 

Jakby np założyć, że 9800x3d jest o 20% szybszy od i9 12900k/i5 14600k tj. intel daje 100 FPS a AMD 120 FPS.

 

To kontynuując.

 

Na AMD użytkując komputer poświęcasz b.dużo czasu na grzebaniu w napięciach, terminacjach ustawieniach pamięci, biosach, pcie gen 4.0/5.0 itp itd

Na INTELU poświęcasz na to raz, jedną godzinę,

 

To kontynuując

 

Masz na granie np 100 godzin na rok

Litując się nad AMD konfiguracja, debugowanie, czytanie for, pisanie postów na forach itp itd. zajmuje ci 25 godzin z tych 100 godzin (a tak naprawde 100 godzin poświęcasz na puszczanie tm5 anta dla jednego nastawu ram, którego i tak później nie używasz i znowu musisz puszczać antę)

Tj masz tylko 75 godzin na granie, czyli 270 000 sekund czyli AMD daje ci łącznie 32 400 000 wyświetlonych klatek obrazowych.

 

Przyjmując tą samą logikę, procesory intela dają Ci 99 godzin na granie (100 godzin minus 1 godzina potrzebna na pierwsze uruchomienie).

Zostaje nam 356 400 sekund na granie, czyli INTEL daje ci łącznie  35 640 000 wyświetlonych klatek obrazowych.

 

Podsumowując:

Intel jest 10% szybszy od AMD

AMD jest 9,1% wolniejsze od INTELA

Masz dar chłopie. jestem pod wrażeniem.

  • Like 1
Opublikowano (edytowane)
Godzinę temu, wallec napisał(a):

Tutaj potwierdzenie "grzebania w AMD"

Wiesz dla czego o intelu tak mało wątków na forum? Bo 90% kupuje AMD :E Procki AMD to ~90% postów na forum. Gdy kiedyś intel miał lepsze procesory to było odwrotnie. 90% pisało o intelu i w nim grzebało, szukało porad odnośnie na stawów itd. :E Ale to już stare dzieje. Było minęło :hihot:

 

Zobacz sobie jak sobie radzi twój Intel w jednym z największych sklepów w Europie :E

https://www.igorslab.de/en/amd-dominates-the-german-cpu-market-intel-only-a-supporting-actor/

 

Cóż takie fakty. Sam siedziałem na Intelu od C2D, i gdyby intel nie dał dupy to dalej bym na nim siedział. Ale prawda jest tylko jedna. Teraz AMD jest królem :E

 

A co do tych twoich problemów z nastawami AMD, tak sobie je twórz jak ci to poprawia samopoczucie. Ale nikogo normalnego nie rusza. 

Ja sam mimo, że to mój pierwszy prywatny komp na AMD to się zdziwiłem jak to od strzała szybko i bezboleśnie się skonfigurowało. Po złożeniu sprzętu profil expo i tyle styknęło, aby mieć topową wydajność i cieszyć się grami. 

 

UV/OC z PBO prościzna, kilka klików + test stabilności i rakieta ;) W zasadzie nic nie trzeba robić i śmiga  :D Napięcie soc obniżyć dla kilku watów czy dłubanie w timingach to totalnie opcjonalna zabawa. 

 

Piękne te procki AMD odwaliło. W życiu bym się nie spodziewał, że AMD tak odsadzi intela :E

Edytowane przez lukadd
  • Like 1
Opublikowano (edytowane)

@lukadd Widzę, że masz RTX 4090. Rzeczywiście AMD jest szybsze od intela w 4k + PT na Ultra?

Czy tylko syntetyki na 1080p? Za syntetyki uważam testy w grach na RTX 4090 w Full HD, bo nikt tak nie gra na tak mocnej karcie.

Edytowane przez tgolik
Opublikowano
2 minuty temu, Karro napisał(a):

Pojawiaja sie też tematy z stuteringiem na x3d  a także był jakiś filmik z for it ze nie działały poprawnie z FG

Jaki problem? Kup sobie Snapdragona jak ci nie pasuje i to i to.

Opublikowano (edytowane)

E, kiedy uwaliłem mojego pierwszego 7900XTX to kupiłem na okres kilku tygodni GPU intela od Sparkle.

To był bardzo fajny eksperyment, już po sterownikach które wykasowały mnóstwo problemow.

Bardzo udany model.

 

Wracając do ustępu o tym jak to miliony much codziennie wpierdalają gówno, no coz, pamiętam okres ze na forach dyskutowało się tylko o Duronach, a ten co kupił Athlona uważany był za idiote, a bo drogie, a bo ma te sama wydajność co Duron itp.

Ci od Intela traktowani byli jak trędowaci.

 

Zeby do końca nie gnoić dzieciokow od Duronow, to jeden pajac nie rozmawiał na swoim forum z nikim kto nie miał Intela na koszernej, według jego filozofii, płycie głównej, na szczęście jego portal poszedł się paść.

 

Tak ze, dajcie se na luz, każdy produkt skierowany na szeroko rozumiany rynek rozrywki ma jakieś problemy, tak jest, było i będzie.

Co jakiś czas na rynek pracy wpadają następne pokolenia a w nich znajduje się mnóstwo pajaców którzy nie marzą o niczym innym tylko zeby siedzieć pod biurkiem swojego szefa i dzieje się to cyklicznie, wiec co jakiś czas jakaś firma daje ciała.

 

Natomiast tak zupełnie poza tematem, jaka różnica jest kiedy w 2K na jednym CPU mamy 120 fps a na drugim 130, to jest jakaś kosmiczna różnica? podobnie z przycięciami, przecież one zdążają się nagminnie, w końcu to tylko komputer.

Edytowane przez Alai_de_Loin
Opublikowano (edytowane)
1 godzinę temu, tgolik napisał(a):

@lukadd Widzę, że masz RTX 4090. Rzeczywiście AMD jest szybsze od intela w 4k + PT na Ultra?

Czy tylko syntetyki na 1080p? Za syntetyki uważam testy w grach na RTX 4090 w Full HD, bo nikt tak nie gra na tak mocnej karcie.

Do 4k i PT nie nadaję się ani 4090, ani nawet 5090, 6090 też nie da rady. chyba, że mowa o graniu w 20-30 fpsach może w porywach do 40tu w mniej wymagających miejscówkach :E

Realnie fps bazowy leci w 1080p DLSS-B lub DLSS-Q 1440p + FG :E jeśli mowa o takich grach.

 

Nie ma co się rozpisywać. Posłuchaj sobie Liptona.

 

Edytowane przez lukadd
Opublikowano
1 godzinę temu, tgolik napisał(a):

Rzeczywiście AMD jest szybsze od intela w 4k + PT na Ultra?

Zastanów się jak w takim scenariuszu szybszy procesor miałby zwiększyć ilość FPS, skoro karta graficzna jest już obciążona w 100% i to jej wydajność jest ograniczeniem.

  • Upvote 1
Opublikowano (edytowane)
Godzinę temu, SebastianFM napisał(a):

Zastanów się jak w takim scenariuszu szybszy procesor miałby zwiększyć ilość FPS, skoro karta graficzna jest już obciążona w 100% i to jej wydajność jest ograniczeniem.

Dlatego nie widzę obecnie potrzeby wymiany procesora na AMD przy mocnej karcie graficznej. Dziwi mnie też, czemu gracze z mocnymi kartami tak zachwalają nowe Ryzeny X3d w porównaniu do mocnych inteli. @lukadd - przecież nie grasz w Full HD na swojej RTX 4090.

 

@lukadd Jednak w CP2077 gram w 4k z PT, oczywiście z DLSS i FG. Na transformerach z DLSS 4 efekt wizualny jest raczej spektakularny w porównaniu z poprzednią biblioteką. Nawet jeśli to leci w bazowych 1440p to i tak procesor nie jest przeciążony i o wszystkim decyduje GPU.

Edytowane przez tgolik
  • Like 1
Opublikowano (edytowane)

@tgolik Ja zmieniałem z wysłużonego 10700k :E Czekałem co pokaże intel, ale pokazał totalną padakę :E Proca trzeba było w końcu wymienić, a AMD skosiło system. Proste, nie było innej alternatywy ;) Jak zmieniać to ma być kop, nawet jeśli dzisiaj nie wszędzie wykorzystam tego proca.

 

Na moje potrzeby nawet bez wymiany ten 9800x3d styknie na parę lat. A dzisiaj jest najwydajniejszym prockiem.

Znajdziesz i gry w 4k gdzie proc się liczy np. MFS.

 

vMU63Qx.png

 

 

Edytowane przez lukadd
  • Upvote 1
Opublikowano (edytowane)

@lukadd

Jasne, jak zmieniać, to na najlepszy sprzęt w zakładanym budżecie.

Przeszedłem parę lat temu z i9 9900k na i9 13900k i przeskok wydajności w grach był spektakularny. Po obniżeniu ciągłego power limitu na ok. 90W ten 13900k spisuje się świetnie (wcześniej wywalał się na liczeniu shaderów w Callisto Protocol i TLOU)  i pewnie jeszcze kilka lat pociągnie.

 

P.S.

Jakbym był maniakiem Flight Simulatora, to pewnie zastanowiłbym się nad upgrade'm procesora.

Edytowane przez tgolik
Opublikowano
Godzinę temu, tgolik napisał(a):

...Dziwi mnie też, czemu gracze z mocnymi kartami tak zachwalają nowe Ryzeny X3d w porównaniu do mocnych inteli...

 

Podejrzewam, a wręcz wiem na pewno (nie wszyscy gracze oczywiście tak mają) ale zapewne, że mają kilka fps , a czasami naście fps....więcej ;D

Jazda się zaczęła jak tylko napisali pierwsze liczniki fpsów, to wtedy spora część graczy zaprzestała grać, a zaczęli wpatrywać się w fpsy i skakać sobie na forach do gardeł, który ma większego..... fpsa :rotfl2:  a tylko w przerywnikach "reklam' grają teraz tak na prawdę w gry.

Opublikowano (edytowane)
18 minut temu, Karro napisał(a):

 

to sie pokazuje na gameplay a nie powerpointach

 

 

Bardziej chodziło mi o to, że nawet z uwielbianym, wychwalamy, przepłacamy 9070xt jest praktycznie zerowa różnica czy masz 9800x3d, 7600x, 14600k, core ultra :-)

Edytowane przez wallec

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • Monitory przedwczoraj przyszły także miałem możliwość porównania ich bezpośrednio jak z również z moim obecnym Dellem. Tutaj nie sposób nie wspomnieć o tym, że nawet Samsung Odyssey G7 S32DG70 mimo, że to również panel IPS miażdży jakościowo staruszka, nawet zostawiając te same 60Hz. Kolory były zaskakująco dobre i nawet czerń wydawała mi się idealna, a przynajmniej do czasu jak obok postawiłem OLEDa Odyssey G8 . Chyba nie będę jedyny, który stwierdzi że OLED ma efekt WOW, po włączeniu gry (Clair obscur expedition 33) obraz był po prostu magiczny - oczywiście komfort gry był tragiczny bo fpsy spadły z 60 do ledwo 30-40 (od 3060 Ti cudów nie można wymagać), niemniej jednak, stojąc na łące obok świecących drzewach czułem jakbym przeskoczył o generację do przodu w kwestii grafiki  no poezja. Także w grach nie mam nic do zarzucenia. Następnego dnia wziąłem się za testy w pracy, tutaj musiałem ograniczyć jasność do 0 i kontrast z domyślnych 50 na jakieś 20 bo inaczej czułem że biel wypala mi oczy. Następnie musiałem zmienić tryb na ciemny wszędzie gdzie się dało.. Po zmianie było już spoko, jakość tekstu perfekcyjna, nie byłem w stanie zauważyć żadnych problemów z ich wyświetlaniem nawet jak wsadziłem nos w monitor w ich poszukiwaniu. Generalnie po kilku godzinach nie czułem też jakiegoś większego zmęczenia oczu czy coś także raczej nie miałbym problemów z pracą na takim monitorze.   Wracając jeszcze do Samsunga Odyssey G7, tutaj czując że to właśnie powinien być mój wybór biorąc pod uwagę przewagę pracy biurowej nad grami naprawdę byłem skłonny go wybrać... ale niestety skreśliła go nie jakość panelu, bo moim zdaniem jest super i tak, tylko tragiczny interface.. co za oszołom wymyślił takie menu wraz z niewidocznymi małym przyciskami to nie wiem ale lepiej by robotę zmienił.. wisienką na torcie jest tryb gaming który zawsze włączał mi się domyślnie po uruchomieniu monitora, ignorując moje poprzednie ustawienia, co kończyło się wypalaniem oczu.    Tutaj byłem już skłonny zaryzykować i wziąć tego OLEDa do czasu jak doczytałem, że Samsung nie oferuje 3 letniej gwarancji na wypalenia, ba! oferuje jedynie 12 miesięcy gwarancji ogólnej. Takiego ryzyka nie chcę i odsyłam oba modele. Będę szukał innego IPSa (może tego LG 32GR93U-B) bo obecna ich jakość jest naprawdę dobra, albo zamówię innego OLEDa w tym rozmiarze, który będzie płaski i z pivotem i pojawi się w sensownej cenie, ale chociaż da to małe zabezpieczenie na wypalenie.    Moja konkluzja jest taka, że nie jest tak łatwo o uniwersalny monitor w obecnych czasach   
    • Ktoś pozjadał wszystkie rozumy i zapomniał spalić te kalorie.  
    • Skoro kupiłeś WOLED to wiedziałeś na co się piszesz 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...