Introduktion
På HP hemsidadessa profetiska ord är dolda, men kan fortfarande hittas:
“EPIC är den gamla termen för vad som nu är känt som ItaniumTM-processorfamiljens arkitektur, utvecklad i samarbete mellan HP och Intel®. Denna designfilosofi kommer en dag att ersätta RISC och CISC. Det är en inkörsport in i 64-bitars framtiden men den är fortfarande helt 32-bitars kompatibel.”
Dessa meningar visade hur hausseartade HP och Intel var för några år sedan om sin nya skapelse. Men 2005 är verkligheten något annorlunda:
“Dell kommer att fasa ut sin återstående dator baserad på Intels Itanium-mikroprocessor, som ytterligare ett tecken på det avtagande intresset för ett chip som kostar uppskattningsvis flera miljarder dollar att utveckla.” Wall Street Journal, 15 september 2005.
Även om det knappast är någon nyhet att Dell, som inte tror på “stort järn” ändå, tappar Itanium, verkar resten av meningarna som WSJ-journalisten skrev ner att stava undergång.
Eftersom Itanium-marknaden fortfarande är begränsad till HPC och (ultra) avancerade servrar, tappar Microsoft intresset för Itanium. IA 64-versioner av Longhorn har låg prioritet och bara framtiden för High Performance Computing-versionen för Itanium verkar säker. Visual Studio 2005 stöder inte ens Itanium-plattformen. Dell och IBM är inte längre intresserade. Det går inte så bra för Itanium.
För några år sedan förutspådde analytiker undergång för Sun; inte helt utan anledning, eftersom Intel Itanium 2 och IBM Power 5 tydligt torkar golvet prestandamässigt med UltraSparc-processorerna. Suns hämnd är dock väldigt söt. Suns senaste Galaxy-servrar med upp till 16 Opteron-kärnor är en mycket konkurrenskraftig plattform för de dyra Itanium-servrarna. Galaxy-servrarna är väl lämpade för klustring, så även i den marknadsnisch som kräver mer än 16 processorer, hotas de Itanium-baserade maskinerna av ett billigare alternativ?
Även om AMD Opteron riktar sig till en annan marknad än Intel Itanium, expanderar Opteron-marknaden mot den avancerade, tack vare Sun, som i sin tur tvingar Intel att utöka funktionsuppsättningen av Xeon. Redan 2004 när EM64T introducerades, påpekade Intel att EM64T bara introducerades på Xeon DP. Intel förväntade sig förmodligen att Opteron skulle begränsas till arbetsstationer och servrar på ingångsnivå. Opteron var dock mycket framgångsrik på marknaden för fyrprocessorer, och sedan gick den in på 8-vägs och 16-vägs CPU-marknaden också. Intel hade då inget val att motarbeta och utrusta Xeon MP med EMT64 och mycket högre klockhastigheter än före Opteron-eran, bättre RAS-funktioner och massiva (för x86) L3-cacher, upp till 8MB stora.
Är Itanium inget annat än över ett ambitiöst projekt som resulterade i en CPU av titaniska proportioner? I den här artikeln försöker vi svara på frågan om huruvida EPIC CPU har en ljus framtid framför sig. För att besvara den frågan kommer vi att fokusera på de tekniska fördelarna och nackdelarna med chippet och blicka framåt för att se om arkitekturen fortfarande kan växa tillräckligt för att överträffa konkurrenterna.
Slutet på en generation
Ja, du kanske frågar dig själv, varför bryr vi oss ens om att skriva artiklar om Itanium? Det är trots allt en massiv CPU som hamnar i mycket dyra maskiner, mestadels enorma databasservrar och HPC-maskiner för vetenskapliga ändamål; maskiner som de flesta av oss aldrig kommer att överväga att köpa, inte ens i affärssyfte.
Rejäla kylflänsar till Itanium
Och Itanium har mycket problem. Den senaste generationen, Montecito, förväntades komma 2004 när Intel först nämnde det. Sedan nämnde PowerPoint-bilderna 2005, och det blev klart nu att den nyaste Itanium inte skulle dyka upp förrän i mitten av 2006. Många känner att detta är ett av många tecken på att “Itanic” sjunker sakta men stadigt.
Ändå, trots sitt ganska tråkiga rykte om en stor järn-CPU och floden av negativa förutsägelser, har EPIC något fascinerande. Ur en rent teknisk och akademisk synvinkel – helt bortser från den ekonomiska och affärsmässiga logiken – finns det några starka indikationer på att tiden mycket väl kan vara på sidan av den EPIC CPU:n trots alla undergångsscenarier. Det kanske låter galet just nu, men låt mig förklara detta uttalande.
Som vi sa i “https://www.anandtech.com/show/The Quest for More Processing Power, Part One”, har CPU-prestandaökningen som vi njöt av under den gyllene eran av PC:n från 1981 till 2002 drabbat bromsar och minskar snabbt. Tillbaka på nittiotalet introducerade Intel och andra tekniker som superskalärt breda problem, ur funktion med stora omordningsbuffertar, spekulativ exekvering, integrerade L2-cacher, registerbyte och dynamisk grenförutsägelse, vilket alla ökade antalet instruktioner som kunde bearbetas per cykel (IPC) i genomsnitt. AMD Athlon, som introducerades 1999, och Thunderbird-inkarnationen 2000 kunde betraktas som de sista representanterna för denna superskalära generation. Macro ops fusion, som introducerades i Athlon, där två operationer färdas längs pipelinen tillsammans tills de separeras för att bli avrättade, var ett av de sista stora tricken i denna generation.
Sedan dess har bara en förbättring verkligen drivit prestanda per cykel framåt: on-die memory controller (ODMC). Visst, det har funnits andra “små knep” som stadigt har förbättrat prestandan, men inget spektakulärt. CPU-ingenjörerna har fortfarande några knep på sina hylsor som kan förbättra IPC något, men är begränsade till de som inte ökar läckage och dynamisk effektförlust. Fokus ligger inte längre på IPC eller Instruction Level Parallelism (ILP). Det är på trådnivå parallellism (TLP).
Ett bra exempel på hur ingenjörsfokus har skiftat är förutsägelse av grenar. En hel del resurser har lagts på Pentium 4:s grenprediktor, som involverar ett helt team av Intel-ingenjörer. Resultatet var att Pentium 4-grenprediktorn i genomsnitt är korrekt 95-97 % av gångerna, medan P6 BPU var korrekt endast 90 % av gångerna.
På våren IDF 2005, när Anand, Derek och jag frågade Justin Rattner vad Intel gör när det gäller ännu mer avancerade Branch-förutsägelser, log han. Han berättade att det nuvarande teamet som arbetar med förutsägelse av grenar är väldigt litet…runt en person.
Det råder ingen tvekan om att hela branschen har flyttat fokus från att öka klockhastigheten och förbättra ILP till att öka prestanda genom att utnyttja TLP. Så, hur påverkar detta Itanium och dess EPIC-grund? Innan vi svarar på det, låt oss snabbt gå igenom grunderna bakom Itanium/EPIC-filosofin.