Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

Xeon E5-2600: Dual Sandy Bridge för servrar

Intels Sandy Bridge-arkitektur introducerades för datoranvändare för mer än ett år sedan. Serverdelar har dock varit mycket långsammare att komma fram, eftersom det har tagit Intel så lång tid att omvandla denna nya motor till en Xeon-processor. Även om kärnarkitekturen är densamma, skiljer sig systemarkitekturen väsentligt från LGA-1155-processorerna, vilket gör denna CPU till en ganska utmaning, även för Intel. Efter att ha slutfört sitt arbete i slutet av förra året introducerade Intel först den resulterande designen som den sex-kärniga avancerade Sandy Bridge-E stationära processorn och har sedan dess förberett SNB-E för användning i Xeon-processorer. Detta har tagit några månader till men Xeon-användares väntan är äntligen över, eftersom Intel idag lanserar sina första SNB-E-baserade Xeoner.

Jämfört med sin föregångare, Xeon X5600, erbjuder Xeon E5-2600 ett antal förbättringar:


En helt förbättrad kärna, som beskrivs här i Anands artikel. Till exempel sänker µop-cachen trycket på avkodningsstegen och sänker strömförbrukningen, vilket slår två flugor i en smäll. Andra kärnförbättringar inkluderar en förbättrad grenprediktionsenhet och en effektivare out-of-order backend med större buffertar.

En avsevärt förbättrad Turbo 2.0. CPU:n kan kort överskrida TDP-gränserna, och när den återgår till TDP-gränsen kan CPU:n upprätthålla högre “steady-state” klockhastighet. Enligt Intel tillåter aktivering av turbo Xeon E5 att prestera 14 % bättre i SAP S&D 2-tiertestet. Detta kan jämföras bra med Turbo inuti Xeon 5600 som bara kunde öka prestandan med 4% i SAP-riktmärket.

Stöd för AVX-instruktioner kombinerat med en fördubbling av belastningsbandbredden bör tillåta Xeon att fördubbla den maximala flyttalsprestandan jämfört med Xeon “Westmere” 5600.


A dubbelriktad 32 byte ring interconnect som förbinder de 8 kärnorna, L3-cachen, QPI-agenten och den integrerade minneskontrollern. Ringen ersätter de individuella ledningarna från varje kärna till L3-cachen. En av fördelarna är att kabeldragningen till L3-cachen kan förenklas och det är lättare att få bandbredden att skala med antalet kärnor. Nackdelen är att latensen är variabel: det beror på hur många hopp en viss bit data inuti L3-cachen måste passera innan den hamnar i rätt kärna.

A snabbare QPI: revision 1.1som levererar upp till 8 GT/s istället för 6,4 GT/s (Westmere).


Lägre latens för PCI-e-enheter. Intel integrerade ett PCIe 3.0 I/O-undersystem inuti formen som sitter på samma dubbelriktade 32-bitars ring som kärnorna. PCIe 3.0 körs med 8 GT/s (PCIe 2.0: 5 GT/s), men kodningen har mindre overhead. Som ett resultat kan PCIe 3.0 leverera upp till 1 GB full duplex per sekund per körfält, vilket är dubbelt så mycket som PCIe 2.0.

Att ta bort I/O sänkte PCIe-latensen med 25 % i genomsnitt enligt Intel. Om du bara kommer åt det lokala minnet, mätte Intel 32 % lägre läslatens.

Åtkomstfördröjningen till PCIe I/O-enheter är inte bara betydligt lägre, utan även Intels Data Direct I/O-teknik tillåter PCIe NIC att läsa och skriva direkt till L3-cachen istället för till huvudminnet. I extremt begränsade situationer (med 4 infiniband-kontroller eller liknande), sänker detta strömförbrukningen och minskar latensen med ytterligare 18 %, vilket är en välsignelse för HPC-användare med 10G Ethernet eller Infiniband NIC.

Nya Xeon stöder också snabbare DDR-3 1600upp till 2 DIMM per kanal kan köras vid 1600 MHz.

Sist men absolut inte minst: 2 extra kärnor och upp till 66 % mer L3-cache (20 MB istället för 12 MB). Även med 8 kärnor och en PCIe-agent (40 banor) körs Xeon E5 fortfarande på 2,2 GHz inom en 95W TDP-effektenvelopp. Ganska imponerande jämfört med både Opteron 6200 och Xeon 5600.