Trots allt det enastående fokus som Intel har lagt på sina konsument Core desktop CPU-delar under de senaste åren, kan du bli förlåten för att tro att Intel har glömt bort deras Xeon premium-processorer för arbetsstationer. Mellan de facto pensioneringen av Intels stationära Xeon W-1×00-serie och de upprepade förseningarna av Intels nuvarande generation stora kiseldelar för servrar, den Sapphire Rapids-baserade 4:e generationens Xeon Scalable-serie, har det inte varit mycket brus från Intel i arbetsstationsutrymmet under de senaste åren. Men nu när Sapphire Rapids för servrar äntligen har lanserats, har trasslet i Intels produktfärdplan äntligen lösts, och Intel är äntligen i en position att återuppta kaskad av sitt senaste kisel till nya arbetsstationsdelar.
I morse tillkännager Intel sin första uppdatering av arbetsstationsdelar från topp till botten, Xeon W-3400 och Xeon W-2400-serien. Syftet till vad Intel i stora drag klassificerar som Expert Workstation- respektive Mainstream Workstation-marknaderna, är dessa kretsuppställningar avsedda för användning i högpresterande stationära arbetsstationsinställningar, särskilt de som kräver fler CPU-kärnor, fler PCIe-banor, mer minnesbandbredd eller en kombination av alla tre elementen. Baserat på samma Sapphire Rapids-kisel som Intels nyligen lanserade serverdelar, kommer de nya Xeon W SKU:erna att ta ner många (men inte alla) funktioner som har kommit att definiera Intels ledande serverkisel, tillsammans med en ny chipset ( W790) och moderkort som är mer lämpade för användning i högpresterande arbetsstationer.
Precis som med de nya Xeon skalbara delarna är de tre stora tilläggen här övergången till Intels Golden Cove CPU-arkitektur – med alla fördelar med IPC och klockhastighet – tillsammans med tillägget av stöd för DDR5-minne och PCIe 5 för I/O-anslutning . Allt detta är en betydande uppgradering jämfört med blandningen av Cascade Lake och Ice Lake delar som utgör Intels tidigare produktstack. Jämfört med Intels befintliga stationära processorsortiment, är dessa alla funktioner som togs fram på Alder Lake (12th Gen Core) i slutet av 2021, de arbetsstationsfokuserade Xeon W-delarna kommer att bygga ut saker i mycket större utsträckning.
Från toppen kommer Xeon W-3400-serien (Sapphire Rapids-112L) att variera från 12 till 56 kärnor, och alla kommer att innehålla 112 PCIe 5.0-banor, stöd för upp till 4 TB DDR5-4800-minne över åtta minneskanaler, ECC-minne (endast RDIMM), Intel vPro och Intel Standard Manageability (ISM). Fyra av de sju W-3400 SKU:erna (X-serien) drar nytta av olåsta multiplikatorer och stöder därför officiellt överklockning. Samtidigt kommer Xeon W-2400-serien (Sapphire Rapids-64L), ett steg nedåt, att erbjuda mellan 6 och 24 CPU-kärnor ihopparade med 64 nedlagda PCIe 5.0-anslutningar, stöd för upp till 2 TB DDR5-4800 minne över fyra minneskanaler, och alla övriga Xeon W-trimningar som ECC-minne.
Intel Xeon Workstation Desktop-plattformar | |||
AnandTech | 2021 | 2022 | 2023 |
Expert arbetsstation | Xeon W 3300 (Ice Lake-64L) & Xeon W-3200 (Cascade Lake-64L) |
Xeon W-3400 (Sapphire Rapids-112L) |
|
Mainstream arbetsstation | Xeon W-2200 (Cascade Lake) | Xeon W-2400 (Sapphire Rapids-64L) |
|
Entry Workstation | Xeon W-1200 (Rocket Lake-S) |
12:e generationens kärna (Alder Lake-S) + W680 Chipset |
13:e generationens kärna (Raptor Lake-S) + W680 Chipset |
De nya Xeon W-delarna kommer att ersätta en mix av olika Xeon-generationer från Intel. Medan Intel lanserade några Ice Lake-baserade Xeon-delar 2021 – Xeon W-3300-familjen – var dessa delar en slags kompletterande uppdatering för Intels Xeon-sortiment, för specifika kunder som behövde de extra CPU-kärnorna eller PCIe-bandbredden. För alla andra har den utgående Xeon W-produktstacken, 2019 års W-3200 och W-2200 familjer, varit baserade på Intels Cascade Lake-kisel – vilket i sig var en blygsam uppdatering av Intels Skylake-delar. Så vikten av lanseringen av Xeon W-3400/2400-serien för Intels arbetsstationsutbud är svår att överskatta: detta är en stor översyn och uppgradering av Intels Xeon-arbetsstationsstack.
De nya Xeon W-delarna kommer i sin tur att gå upp mot AMD:s Threadripper Pro 5000 WX-delar, som är baserade på AMD:s Zen 3-arkitektur. De senaste Threadripper Pro-delarna lanserades förra våren, och AMD har i princip haft genomslag på marknaden när det gäller CPU-prestanda sedan dess, tack vare en betydande fördel i antal kärnor och IPC. Även med sina nya delar, håller Intel tekniskt sett fortfarande inte helt på att täppa till det core count gap, men ökningen av IPC, core counts och klockhastigheter bör bidra till att jämna ut spelplanen när det gäller total CPU-prestanda – men med hur mycket återstår att bli sedd.
Intel Xeon W-3400-serien: “Expert”-plattform med upp till 56 kärnor, 112 PCIe 5.0-banor och 8-kanalsminne
Intels Xeon W-3400 och W-2400 serie arbetsstationsprocessorer är baserade på Intels Golden Cove CPU-arkitektur, samma arkitektur som Intels Alder Lake (12:e generationens) stationära processorer. W-3400-familjen representerar det främsta sortimentet från Intels fjärde generation Xeon Scalable Sapphire Rapids premium-arbetsstationer och har totalt sju SKU:er. Xeon W-3400 sträcker sig från en blygsam 12-kärnig/24-trådig del (w5-3425) till en mycket efterlängtad 56-kärnig/112-trådig del, flaggskeppet w9-3495X.
Intel Xeon W-3400-serien (Sapphire Rapids-112L) | |||||||||
SKU | Kärnor/ Trådar |
Bas Frekv (GHz) |
Turbo Frekv (TB 2.0) |
Turbo Frekv (TBM 3.0) |
PCI-banor (Gen5) |
L3-cache (MB) |
Olåst (Perf Tuning) |
TDP (W) |
Pris (1KU) |
w9-3495X | 56/112 | 1.9 | 4.6 | 4.8 | 112 | 105 | Y | 350 | $5889 |
w9-3475X | 36/72 | 2.2 | 4.6 | 4.8 | 112 | 82,5 | Y | 300 | $3739 |
w7-3465X | 28/56 | 2.5 | 4.6 | 4.8 | 112 | 75 | Y | 300 | $2889 |
w7-3455 | 24/48 | 2.5 | 4.6 | 4.8 | 112 | 67,5 | N | 270 | $2489 |
w7-3445 | 20/40 | 2.6 | 4.6 | 4.8 | 112 | 52,5 | N | 270 | 1989 USD |
w5-3435X | 16/32 | 3.1 | 4.5 | 4.7 | 112 | 45 | Y | 270 | 1 589 USD |
w5-3425 | 24/12 | 3.2 | 4.4 | 4.6 | 112 | 30 | N | 270 | $1189 |
Speciellt för Xeon W-3400-serien är dessa delar baserade på Intels Sapphire Rapids Extreme Core Count (XCC) kisel, som för närvarande används i Intels avancerade Xeon-serverdelar. XCC-kiseln förlitar sig på 4 beräkningsplattor, sammanbundna med Intels senaste EMIB-interconnect – en första för en Xeon-arbetsstationsprocessor.
De individuella brickorna för ett Sapphire Rapids XCC-chip är alla identiska/symmetriska, så varje bricka tillhandahåller en fjärdedel av CPU-kärnorna, I/O- och minneskanalerna för hela chippet. Som sådan kan varje bricka ge upp till maximalt 32 PCIe 5.0-banor (112 totalt på w9-3495X), medan varje bricka också inkluderar upp till två minneskontroller som tillhandahåller åttakanalsminne över W-3400-serien.
Med fokus på top-end SKU för Xeon W-3400-familjen, Intel Xeon w9-3495X, har den liknande vibbar som Intels tidigare gigantiska Xeon W-3175X, som släpptes 2019 och kom med officiellt stöd för överklockning. Liksom Skylake-baserade Xeon W-3175X har den senaste Xeon w9-3495X också en olåst multiplikator för överklockning.
Intel Xeon w9-3495X har 56 kärnor (för 112 trådar), och till skillnad från Intels skrivbordsdelar är varenda en av dessa en Performance (P) kärna. Dessutom finns totalt 105 MB Intels Smart L3 Cache, med officiellt stöd för åtta kanalers DDR5-4800 ECC RDIMM-minne, med en maximal kapacitet på upp till 4 TB.
Liksom serverdelen den är baserad på har w9-3495X ett ganska rostigt TDP-betyg och kommer in på 350 watt. Och i praktiken kommer den maximala strömförbrukningen sannolikt att vara mycket högre under full belastning med Intels Turbo Boost- och Turbo Boost Max 3.0-tekniker aktiverade, särskilt på 56-upplåsta kärnor. Även om den har en basfrekvens på de 56 Golden Cove-kärnorna på 1,9 GHz, har den en turbofrekvens på upp till 4,6 GHz, och tack vare Turbo Boost Max 3.0 (Intels favoritkärnteknik) kan en handfull kärnor öka ytterligare till 4,8 GHz.
De andra SKU:erna från Xeon W-3400-familjen sträcker sig från 36-kärnor ner till 12-kärniga erbjudanden, såsom w9-3475X (36C/72T) och w5-3425 (12C/24T). I slutändan erbjuder alla Xeon W-3400-delar samma antal DDR5-minneskanaler och PCIe-banor, så det som skiljer de olika SKU:erna är CPU-kärnantal, max minnesklockhastighet, L3-cache och naturligtvis priset.
Under tiden, som tidigare noterat, är fyra av Xeon W-3400 SKU:erna – w9-3495X, w9-3475X, w7-3465X och w5-3435X – alla “olåsta” processorer. Detta är något Intel inte har erbjudit på en Xeon W-del på några år och kommer med några intressanta konsekvenser. Förutom den mest grundläggande förmågan att ändra klockhastighetsmultiplikatorerna för CPU:n, kan olåsta processorer också få sina AVX- och AMX-offset justerade för att hålla processorerna från att tappa lika mycket under tunga SIMD-belastningar. Slutligen, alla dessa delar erbjuder också några inställningsalternativ för deras mesh-anslutningar, även om Intel inte har sagt exakt vad som kan justeras här.
Priserna på Intel Xeon W-3400-familjen börjar på $1189, där Intel tillhandahåller prissättning på 1K per enhetspris (fack) och inte individuellt köpta detaljhandels-SKU:er. Xeon w9-3495X har ett 1KPU-pris på 5889 $, vilket gör den översta SKU:n och varje efterföljande W-3400 SKU dyrare än den tidigare generationen Xeon W-3300-chips, men de kommer med högre kärnantal, snabbare turbofrekvenser, mer L3-cache och stöd för DDR5-4800.
Det är värt att påpeka att alla Intels W-3400 SKU:er har stöd för upp till 4TB åtta-kanals DDR5-4800 ECC-minne, även den nedersta SKU:n, w5-3425 (12C/24T). Så det finns alternativ i Xeon-produktstacken för system som behöver en hel del DRAM, men inte nödvändigtvis massor av CPU-kärnor. Observera dock att för att faktiskt slå 4TB krävs att du använder 2 DIMM per kanal (DPC), vilket kräver backning till DDR5-4400 minneshastigheter.
Med 112 PCIe 5-banor tillgängliga från processorn (och ännu fler från chipsetet) kan Xeon W-3400-kretsen stödja ett ganska stort antal I/O-enheter. Detta fungerar till sju diskreta x16-grafikkort, eller upp till 28 x4 höghastighetslagringsenheter. Detta, tillsammans med antal kärnor och minneskanaler, är en av de primära skillnaderna från Xeon W-2400-serien på lägre nivå – och bör vara en välkommen utveckling för Intel-plattformsanvändare som fastnade med en bråkdel av I/O-bandbredden på Intels tidigare Xeon W-delar.
Intressant nog är 112 PCIe 5-banor faktiskt mer än vad Intel erbjuder i sina Sapphire Rapids-serverdelar. Xeon Scalable-sortimentet toppar på bara 80 banor. Denna diskrepans kommer från det faktum att Intel endast aktiverade 5 av de 7 rotportarna för sina serverdelar, vilket lämnade ytterligare 2 portar (32 banor) oanvända. Men eftersom arbetsstationens Sapphire Rapids-delar inte behöver allokera några stift för att stödja Intels UPI-länkar med flera uttag, verkar det som att Intel istället har allokerat dessa stift för att bära de ytterligare PCIe-banorna för arbetsstationsdelarna. Det är värt att notera att Intel använder samma sockel för både server- och arbetsstationschip här – LGA 4677 – men med stiftbytena skulle jag inte förvänta mig att de skulle vara kompatibla.
Under tiden, i en annan första för Intel, har företaget sagt att de kommer att stödja DDR5 XMP 3.0 minnesöverklockningsprofiler för RDIMM. Detaljerna i detta tillkännagivande är mycket knapphändiga, men på en hög nivå kommer det att ge olåsta processorägare som kör på W790 möjligheten att försöka klämma ut mer ur minnet om de kan. Generellt sett är minnesöverklockning och den stenhårda stabiliteten hos RDIMM:er diametralt motsatta mål, så det ska bli intressant att se hur detta utspelar sig på marknaden. DRAM kan kanske klocka högre än bara DDR5-4800, men kan de registrerade klockdrivrutinerna (RCD)?
Dessutom är allt detta uttalande om RDIMM:er avsiktligt: i en stor förändring från tidigare Xeon W-plattformar kommer Sapphire Rapids Xeon-arbetsstationsplattformarna inte att stödja UDIMM. Detta är en begränsning av DDR5-specifikationen, som kräver olika spänningar för UDIMM respektive RDIMM. Medan UDIMM tar 5 volt tar RDIMM 12 volt, vilket gör dem inkompatibla. Om du någonsin har haft chansen att se en DDR5 RDIMM personligen, kanske du har märkt att de till och med är inskrivna annorlunda än UDIMM, så de är både fysiskt och elektriskt inkompatibla.
I slutändan innebär detta att användare måste para ihop dessa processorer och W790-moderkort med dyrare, om än ECC-aktiverade DDR5 RDIMM-moduler av högre kvalitet. För användare av färgade ullarbetsstationer är det osannolikt att detta är ett problem (eller ens en skillnad som uppmärksammas), men alla som hoppas kunna bygga ett HEDT-liknande system eller low-end arbetsstation till ett billigt pris kommer att upptäcka att det slutliga priset Taggen för ett Xeon W-system kommer att bli högre än vad du skulle kunna uppnå med W-3200/2200-serien.
Accelerated Computing: AMX och CXL gör snittet, de flesta domänspecifika acceleratorer gör det inte
För deras Sapphire Rapids Xeon-kisel och resulterande serverdelar, introducerade Intel en rad olika accelerationsblock och andra acceleratorrelaterade funktioner. Mellan matristillägg (AMX), olika domänspecifika hårdvaruaccelerationsblock och stöd för Compute eXpress Link (CXL) för externa acceleratorer, slutade Intel med att ägna en hel del kisel åt icke-CPU-uppgifter. Detta har inneburit att för deras Xeon Scalable-serverdelar i synnerhet, har Intel valt (om det inte behövs) att luta sig mot dessa acceleratorfunktioner, med en DSA-motor aktiverad i alla chips. Ändå stöds inte QAT, DLB och IAA. Detta i stället för bara rå x86 CPU-prestanda för att skilja hårdvaran från sina föregångare och dess konkurrenter.
Men för deras arbetsstationsdelar är det lite mer okomplicerat, på gott och ont. Kort sagt, inte alla Intels accelererade datorfunktioner görs tillgängliga i Xeon W-3400/2400-familjerna. Så låt oss göra en snabb genomgång av vilka av Sapphire Rapids mer esoteriska egenskaper som gjorde snittet för Xeon W.
Det kanske mest kritiska av allt var att Intels Advanced Matrix Extensions (AMX) klarade av, och stöd för dem är fullt närvarande och aktiverat på Xeon W-3400/2400-familjen. AMX är Intels exekveringsblock för matrismatris, och liknande tensorkärnor och andra typer av matrisacceleratorer är dessa block med ultrahög densitet för att effektivt utföra matrismatte. AMX är inte en dedikerad accelerator, snarare är det en del av CPU-kärnorna, där varje kärna får ett block, vilket gör att AMX-kod kan blandas med x86 (och AVX)-kod, och det är också anledningen till att Sapphire Rapids har negativa klockhastighetsförskjutningar för med den ultratäta koden.
AMX är Intels spel för djupinlärningsmarknaden, och går utöver den genomströmning de kan uppnå idag med AVX-512 genom att använda ännu tätare datastrukturer. Medan Intel har AMX-aktiverade GPU:er (Intel Data Center Max GPU Series) som går längre än detta, för Sapphire Rapids vill Intel ta itu med kundsegmentet som behöver AI-inferens som sker mycket nära CPU-kärnor, snarare än i en mindre flexibel , mer dedikerad accelerator. De nya AMX-enheterna stöder också Bfloat16, vilket säkerställer att varje nivå av Intels accelererade datorblock (AVX och AMX) stöder detta vanliga flyttalsformat med medelprecision för djupinlärning.
Ett av Sapphire Rapids nya domänspecifika hårdvaruacceleratorblock, Data Streaming Accelerator (DSA), tog också steget. Detta block är till för att avlasta/accelerera vissa operationer, såsom datakopior och enkla beräkningar, såsom beräkning av CRC32s. DSA-blocket är tillgängligt för alla Xeon W SKU:er.
Du kommer dock inte att hitta omnämnande av resten av Intels acceleratorblock, såsom Intel Dynamic Load Balancer (DLB), Intel In-Memory Analytics Accelerator (IAA) och Intel QuickAssist Technology (QAT). Detta trots att dessa acceleratorer alla är en del av samma funktionsblock på Sapphire Rapids kisel. Dessa andra acceleratorblock är alla främst inriktade på servrar, så det är inte förvånande att inte se deras inkludering, men det betyder att alla som prototypar kod för servrar måste testa på en faktisk Xeon Scalable om de använder deras funktioner.
Slutligen, även om CXL-stöd saknas i Intels Xeon W-specifikationsblad, har Intel bekräftat för oss att det faktiskt stöds i båda familjerna. Den inbyggda PCIe-standarden för värd-till-enhet-anslutning har funnits i kulisserna i några år nu, och Sapphire Rapids är den första Intel CPU-plattformen som stöder tekniken. Liksom några av dessa andra funktioner är den i första hand avsedd för servrar, så det är mindre drivkraft att ta den till arbetsstationer. Ändå har Intel gjort det möjligt för användare som vill utnyttja dess funktionalitet.
Intel Xeon W-2400-serien: upp till 24 kärnor, 64 PCIe 5.0-banor, för vanliga arbetsstationer
Om vi tappar en nivå har vi Xeon W-2400-serien (Sapphire Rapids-64L), som är designad som en “Mainstream”-arbetsstationsplattform. Xeon W-2400 erbjuder lite mer än hälften så många PCIe-banor som W-3400 SKU:er, med 64 PCIe 5.0-banor tillgängliga, och antalet minneskanaler halveras lika väl till fyra kanaler. Som sådant betyder detta att priserna är lägre på W-2400-serien än dess piggare W-3400-motsvarigheter, och går så lågt som $359 för ingångsnivån Xeon w3-2423.
Intel Xeon W-2400 Series (Sapphire Rapids-64L) | |||||||||
SKU | Kärnor/ Trådar |
Bas Frekv (GHz) |
Turbo Frekv (1T) |
Turbo Frekv (TBM 3.0) |
PCI-banor (Gen5) |
L3-cache (MB) |
Olåst (Perf Tuning) |
TDP (W) |
Pris (1KU) |
w7-2495X | 24/48 | 2.5 | 4.6 | 4.8 | 64 | 45 | Y | 225 | $2189 |
w7-2475X | 20/40 | 2.6 | 4.6 | 4.8 | 64 | 37,5 | Y | 225 | $1789 |
w5-2465X | 16/32 | 3.1 | 4.5 | 4.7 | 64 | 33,75 | Y | 200 | $1389 |
w5-2455X | 24/12 | 3.2 | 4.4 | 4.6 | 64 | 30 | Y | 200 | 1 039 USD |
w5-2445 | 20/10 | 3.1 | 4.4 | 4.6 | 64 | 26.25 | N | 175 | 839 USD |
w3-2435 | 16/8 | 3.1 | 4.3 | 4.5 | 64 | 22.5 | N | 165 | 669 USD |
w3-2425 | 6/12 | 3.0 | 4.2 | 4.4 | 64 | 15 | N | 130 | 529 USD |
w3-2423 | 6/12 | 2.1 | 4.0 | 4.2 | 64 | 15 | N | 120 | 359 USD |
Totalt sett kommer Xeon W-2400-serien att sträcka sig från 6 kärnor upp till 24 kärnor. Intel använder här sitt Sapphire Rapids Medium Core Count (MCC)-kisel, som till skillnad från XCC-kiseln är en traditionell monolitisk form. Det betyder att det inte krävs något snyggt EMIB-paket för att bygga chippet – istället behöver Intel bara tillverka en ganska stor tärning.
I toppen av Xeon W-2400-serien finns w7-2495X, som har 24-kärnor/48-trådar, 45 MB Intel Smart L3-cache och en TDP på 225 watt. Intel har också tre SKU:er i w5-serien, och slutligen trion med w3-SKU:er.
Precis som sin motsvarighet på expertnivå, erbjuder Xeon W-2400-serien en konsekvent minnes- och I/O-konfiguration över hela sortimentet. Detta innebär 64 banor av PCIe 5 som kommer från CPU:n och fyra kanaler med DDR5-minne, vilket tillåter maximalt 2 TB minne totalt. Det är också värt att påpeka att endast w5 och w7 SKU:erna erbjuder fulla DDR-4800 minneshastigheter; w3-delarna är alla begränsade till DDR4-4400. Silverfodret? Alla SKU:er sjunker till denna hastighet i en 2 DPC-konfiguration, så om du funderar på att bygga ett 2 TB-system av någon anledning, kommer du inte att bli straffad.
Liksom Xeon W-3400-serien har W-2400-familjen också några olåsta X-SKU:er i sin arsenal, inklusive top-tier w7-2495X. Andra SKU:er med olåsta multiplikatorer inkluderar w7-2475X med 20 kärnor och 37,5 MB L3-cache, och två w5 SKU:er (w5-2465X 16C/32T och w5-2455X 12C/24T). Du kommer dock inte hitta några olåsta w3-delar, eftersom alla tre W3-SKU:erna på ingångsnivå är helt låsta.
Intel W790 Chipset: Stöder både Xeon W-3400 och W-2400-plattformar
Alla Intels SKU:er i Xeon W-3400- och W-2400-serien drar nytta av Intel vPro och Intels ISM-tekniker (Standard Manageability). Både Xeon W-2400 och W-3400-familjerna stöds av den tillhörande W790-kretsuppsättningen, även om CPU-specifika funktioner som antalet minneskanaler och tillgängliga PCIe-banor beror på själva processorn.
Några av huvudfunktionerna i W790-kretsuppsättningen inkluderar en Direct Media Interface (DMI) 4.0 x8-länk mellan processorn och själva chipsetet, samt upp till 16 PCIe 4.0-banor och stöd för upp till åtta SATA 3.0-portar. W790 stöder också upp till fem USB 3.2 Gen2x2 (20Gbps)-portar, inkluderar en Intel Wi-Fi 6E PHY och kan stödja 2,5 GbE-kontroller.
Även om det inte nämns något om nya moderkort, förväntas det finnas Intel W790-moderkort från leverantörer som ASUS, GIGABYTE, Supermicro och ASRock. Systemintegratörer som Dell, Lenovo och Supermicro förväntas ha företräde först när det gäller att leverera lösningar och system innan gör-det-själv-byggare kan lägga vantarna på dem.
ASRock mailade oss precis innan lanseringen för att beskriva sin W790 WS-modell, med en 20+2-fas strömförsörjning, dubbla 10 GbE-kontroller och stöd för upp till 2 TB DDR5-4800 ECC RDIMM över åtta platser. Även om detta kort stöder både Xeon W-3400 och W-2400-processorer, är detta kort endast aktiverat för fyrkanalsminne.
Något som är värt att nämna angående den senaste generationens moderkort är att W790-korten sannolikt kommer att kosta mer än de C621A-baserade korten som användes för att stödja Xeon W-3300-serien (Ice Lake). Detta beror på att W790-korten har ytterligare fyra banor med DDR5-minne och 48 fler PCIe 5-banor att ta hänsyn till. Även om vi förväntar oss att se olika nivåer av kortdesign med olika kortplatser och I/O-konfigurationer tillgängliga någon gång, har Intel inte specificerat om några av dessa moderkort kommer att stödja båda familjerna, eller om leverantörer kommer att designa specifika kort runt den individuella Xeon W -3400 och W-2400-serien.
Intels Xeon W-3400 och W-2400-processorer är tillgängliga att förbeställa från industripartners, medan systeminstallationer förväntas någon gång i början av mars. Intels förväntade och rekommenderade prissättning börjar på $359 för Xeon w3-2423 och går upp till $5889 för Xeon w9-3495X.