Skocz do zawartości

Intel Raptor Lake - 13/14 generacja


Rekomendowane odpowiedzi

Opublikowano (edytowane)

"

Intelowskie plany dotyczące „Bartlett Lake-S” sugerują trzecią zmianę nazwy „Raptor Lake” na „Bartlett Lake Hybrid”
Autor: btarunr, 18 sierpnia 2025, 09:25 Dyskusja (26 komentarzy)
„Bartlett Lake-S” to interesujący układ Intela, biorąc pod uwagę, że jego procesory stacjonarne „Nova Lake-S” z dużą pamięcią podręczną L3 pojawią się dopiero w połowie/końcu 2026 roku. Układ opiera się na założeniu, że rdzeń P „Raptor Cove” oferuje wydajność w grach porównywalną lub lepszą niż rdzenie P „Lion Cove” zaimplementowane w „Arrow Lake-S”. Intel uznał, że dla monolitycznego układu scalonego o podobnej wielkości rdzenia co „Raptor Lake-S”, który ma 8 rdzeni P i 4 klastry rdzeni E, mógłby zaprojektować układ z 12 rdzeniami P dla tej samej liczby punktów styku, współdzieląc te same 36 MB pamięci podręcznej L3. Niedawny wpis Jaykihna na Twitterze podkreśla, że ten układ został nazwany A0, ale to nie wszystko – najwyraźniej Intel będzie przetwarzał swoje starsze układy „Raptor Lake” i „Alder Lake” w ramach generacji „Bartlett Lake” i nazywał je „Bartlett Lake Hybrid”.

Ta linia procesorów „Bartlett Lake Hybrid” będzie ponownie wykorzystywać układy B0, C0 i H0. Układ B0 to oryginalny układ „Raptor Lake-S”, który oferuje konfigurację 8P+16E rdzeni, 36 MB pamięci podręcznej L3, 2 MB pamięci podręcznej L2 na rdzeń P i 4 MB pamięci podręcznej L2 na klaster rdzeni E. Układ C0 wywodzi się z układu „Alder Lake-S” o konfiguracji 8P+8E, która obejmuje 1,25 MB pamięci podręcznej L2 na rdzeń P i 2 MB pamięci podręcznej L2 na klaster rdzeni E oraz 30 MB pamięci podręcznej L3. Układ H0 pierwotnie napędzał dolną połowę rodziny procesorów Core 12. generacji. Ma 6 rdzeni P, każdy z 1,25 MB pamięci podręcznej L2, bez klastrów rdzeni E i 18 MB pamięci podręcznej L3.

Intel nie będzie sprzedawał „Bartlett Lake-S” jako serii Core 15. generacji, ale przejdzie na nową nomenklaturę pod serią Core 2, ale bez rozszerzenia marki „Ultra”, co oznacza brak wbudowanego układu NPU. Niestety, przeciekłe materiały marketingowe Intela wskazują, że układ jest skierowany głównie do rynku OEM i systemów wbudowanych, a nie do sklepów detalicznych DIY. Innymi słowy, nie ma jeszcze żadnych oznak, że układ będzie dostępny w sprzedaży detalicznej, a więc będzie można go umieścić w komputerze stacjonarnym z gniazdem LGA1700.

„Bartlett Lake-S” A0 będzie procesorem do komputerów stacjonarnych z największą liczbą rdzeni P od firmy Intel, a także procesorem z największą liczbą rdzeni P w ramach jednego kompleksu obliczeniowego (tj. współdzielącego pamięć podręczną L3) niezależnie od marki, ponieważ 12- i 16-rdzeniowe procesory AMD Ryzen do komputerów stacjonarnych mają rdzenie rozdzielone między dwa kompleksy, w formie dwóch układów CCD. Podczas migracji wątków między układami CCD, ich dane robocze muszą być przesyłane przez układ wejścia/wyjścia. Jeśli dane nadal znajdują się w pamięci podręcznej źródłowego układu CCD, są one duplikowane do pamięci L3 docelowego układu CCD, w przeciwnym razie muszą zostać pobrane z pamięci DRAM."

Monday, August 18th 2025

Źródło:https://www.techpowerup.com/340023/intel-bartlett-lake-s-steppings-suggest-third-rebrand-of-raptor-lake-as-bartlett-lake-hybrid

Edytowane przez sert
Opublikowano (edytowane)

Ja w sumie nie rozumiem hype'u na Bartletty.
Czy będą lepsze w grach? Nie bardzo, 6 lub 8 P-Core to wystarczająco dla współczesnych gier, a nie wierzę w dalsze podbicie taktowań.
Czy będą lepsze w MT? Też szczerze wątpię, tu akurat e-core robią robotę.

Czy e-core powodują jeszcze jakieś problemy w grach, że ludzie się tak tym jarają? 

Edytowane przez TurlamProcka
Opublikowano

Tylko na wybranych buildach windy te CPU działają w miarę przewidywalnie i wyłączanie E-core nie powoduje żadnych anomalii.

Także czasem możesz dostać strzał w pysk po wyłączeniu E-core pomimo, że dana gra nie korzysta z większej liczby wątków.

 

Opublikowano
7 minut temu, sideband napisał(a):

Tylko na wybranych buildach windy te CPU działają w miarę przewidywalnie i wyłączanie E-core nie powoduje żadnych anomalii.

Także czasem możesz dostać strzał w pysk po wyłączeniu E-core pomimo, że dana gra nie korzysta z większej liczby wątków.

 

23H2 Ghost Spectre czy to ten dla Intela ?

Opublikowano
4 godziny temu, Karro napisał(a):

Czy w 14 gen to nie wiem ale w 15 gen 2x LPE spowodował spadek FPS w the last od US o 20 procent na pocztku gry do 10 w dalszym etapie

Przy symulacji nawet do 50 procent fps

Robiłem symulacje w 13 gen w the last od US  ecore daje 20 procent więcej FPS jak HT

Symulacja na 8 watkach

Znaczy, lepiej zachować E-core, ocnąć je do 4.5 GHZ, a za t wyłączyć HT ?  Po co mi tyle wątków procesora , skoro tylko gram ? Nie używam żadnych aplikacji syntetycznych, tylko pykaaaaaaammm !! ;D

A próbował ktoś tej apki ? https://www.purepc.pl/intel-application-optimization-apo-z-obsluga-kolejnych-15-gier-producent-chwali-sie-wydajnoscia-na-core-ultra-9-285k

Opublikowano

Najbezpieczniejszy od strony wydajności w grach, a nie stricte bezpieczeństwa.

Przeglądarki są dziurawe jak "ser szwajcarski" jakoś nikt nie boi z ich korzystać.

Możesz korzystać nawet ze starego Win7 i tak prędzej ktoś Cię na ulicy potrąci niż wykorzysta lukę w systemie ;)

  • Upvote 1
Opublikowano
7 godzin temu, Doamdor napisał(a):

Komentarz w identycznym czasie, nie chciało mi się edytować. ;)

Jaki VID procesora? 

Sprawdź UV, jak nisko możesz zjeść z napięciem. 

Zacząłem od UV to zdaje się na stock taktach robiłem 1.15V. Zależy mi na wydajności Single Core więc możliwe że zostawie sobie to OC które mam obecnie. Tutaj wynik z UV i 5.5ghz

-0.135 5.5.png

Opublikowano
13 godzin temu, sideband napisał(a):

Najbezpieczniejszy od strony wydajności w grach, a nie stricte bezpieczeństwa.

Przeglądarki są dziurawe jak "ser szwajcarski" jakoś nikt nie boi z ich korzystać.

Możesz korzystać nawet ze starego Win7 i tak prędzej ktoś Cię na ulicy potrąci niż wykorzysta lukę w systemie ;)

I na nim stawiać goły(świeży) system z wyłączonymi e kachones już przed samą instalacją system?  Dużo do przodu się jest w tym wypadku? Ht zostawić?

Opublikowano
18 godzin temu, sideband napisał(a):

Możesz korzystać nawet ze starego Win7 i tak prędzej ktoś Cię na ulicy potrąci niż wykorzysta lukę w systemie ;)

Odpali na Raptorze? %-) Nigdy nie próbowałem, w sumie to nie XP, więc powinien. Stery NVMe, USB się znajdą, gorzej z GPU nowymi by było.

Opublikowano (edytowane)
Godzinę temu, tomcug napisał(a):

Odpali na Raptorze? %-) Nigdy nie próbowałem, w sumie to nie XP, więc powinien. Stery NVMe, USB się znajdą, gorzej z GPU nowymi by było.

3090ti ostatnia co ma obsługę w sterownikach z nv.

Zmaslo o tym robił filmik. Nawet 10xxx na z490 nie ruszają. Amd można modować instalator by najnowsze procesory amd wspierał.

Edytowane przez areczek1987
Opublikowano
1 godzinę temu, areczek1987 napisał(a):

Nawet 10xxx na z490 nie ruszają.

Nie jestem o tym przekonany. Na lapku na podobnej platformie postawiłem W7 i śmiga wszystko, łącznie z USB oraz integrą, choć oficjalnych sterów ani do jednego, ani do drugiego Intela nie wydał ;) Zresztą stery USB w ogóle nie są od Intela.

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Popularne tematy

  • Najnowsze posty

    • To pewnie była Próba Traw  
    • Do tak drętwej gry nie będę kupowała nowej karty, aby mieć to samo, ale z PT, bo studio nie chciało przeznaczyć środków na ręczne ustawianie oświetlenia.   Żeby to było jednoznaczne rozwinięcie formuły z ciekawymi mapami i przeciwnikami do starć..., ale jest krok do przodu i dwa wstecz. Do atmosfery w zamkniętych lokacjach wystarczy RT. Ot ciekaw byłem jak ustawili optymalizację dla kart 8GB, a nikt nie robił testów ze zoptymalizowanymi ustawieniami. Jeśli ktoś ma monitor 1440p to będzie lepiej niż przy PS5 Pro na tym monitorze. W ustawieniach bliźniaczych do PS5 Pro i 4K DLSS P już trzeba wyłączyć hair strands, bo Vram się przelewa i wtedy trzyma ~50fps, przynajmniej na początku. 
    • Do benchmarków będzie sztos. Jak poprawia ngu d2d to w grach też będzie sztos (już jest kozacko z ramem 8000+)   W pierwszych testach jest prawie 15% wzrostu wydajności (tak jak pisałem o zebrałem dużo plusikow)     https://ithardware.pl/aktualnosci/intel_core_ultra_5_250k_plus_przetestowany_hit_segment_cpu-49235.html
    • Ja bym po prostu folię rzucił pod gont czy co tam ma być. Ale blacha nie wyjdzie taniej te kilka arkuszy? I już płyty nie trzeba będzie tylko normalnie kantówki na krzyż - a i tak trzeba będzie zrobić bo przecież jedna płyta OSB tego nie pokryje tylko kilka. Nie bawiłbym się w to - drewno konstrukcyjne na słupy i wieniec, na górę kratownica z kantówki impregnowanej ciśnieniowo, folia i blacha.
    • w sensie jak pogodzić? Przecież wiem, że teraz jest jechane z AI bo widzę na forach i grupach dyskusyjnych skupiających programistów z jakimi ludzie problemami przychodzą i „czemu to nie działa". Problemy których normalnie pisząc kod byś nie uświadczył bo z jakimś olejem w głowie byś nawet nie był w stanie takie faux pas popełniać. Później tylko czytasz komentarze „stop posting this ai slop" Najlepiej AI w microsofcie jak nawet w ich sterownikach są błędy letalne. Teraz to już chyba certyfikaty do podpisu sterowników też już AI wydaje, bo nawet ROOTKITy używają certyfikowanych driverów, a wystarczy spojrzeć na tabelę importów żeby mieć już jakiś pogląd na to, co się tam kryje    Najzabawniejsze jest, że prompterzy nawet sami wytłumaczyć problemu nie potrafią, bo nie mają zielonego pojęcia co się dzieje w tym kodzie.      AI to jest dobre, ale w generowaniu masy wanna-be koderków którzy budzą co najwyżej politowanie stosując permanentnie metodę kopiego-pejsta.    Ale nikt nie próbuje udowodnić, że modele jeszcze nie są lepsze od najlepszych programistów, bo to oczywiste. One nie są nawet lepsze od hobbystów w danym frameworku czy języku.    W sensie, rozumiem Twój punkt widzenia. Jak się ktoś zupełnie na czymś nie zna, to AI będzie lepszy, bo samemu i tak nigdy w życiu by niczego nie wyprodukował.    Możesz wytłumaczyć jak można zapomnieć includa? Chyba że piszesz w notatniku albo na kartce, to okej.   No, jak znajdziesz błąd i go poprawisz to tak. W innym wypadku będzie dalej brnąć w to bagno. Dlatego powodzenia w projektach zbudowanych z wielu tysięcy linijek. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...