Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

Jakten på mer processorkraft, del två: "Multi-core och multi-threaded gaming"

Introduktion

I vår första artikel förklarade vi att dynamisk kraft, strömläckage, minnesväggen och trådfördröjning har tvingat CPU-designers att tänka om metoderna som de använder för att uppnå högre prestanda-CPU:er.

I del 2 kommer vi att undersöka fördelarna och nackdelarna med den nya marknadstrenden: flerkärniga processorer. Kommer dual core att förbättra din spelupplevelse? Tim Sweeney, den ledande utvecklaren bakom Unreal 3-motorn, var så vänlig att svara på våra frågor om flertrådsutveckling med koncisa svar. Det finns mer – i den tredje delen av den här serien kommer vi att undersöka vad framtida flerkärniga och enkärniga arkitekturer kommer att ge. Vi undersöker om berättelserna om “den nya eran av flertrådiga flerkärniga processorer” är sanna och om detta verkligen kommer att gynna konsumenten eller inte.

Borde du bry dig?

Ska du bry dig om huruvida vi går över till flerkärniga och flertrådiga processorer? När allt kommer omkring har vi under de senaste decennierna kunnat få konsekvent mer prestanda till lägre priser. Det är dock ganska oklart om flera kärnor kommer att gynnas eller inte Allt konsumenter. Vi kommer att förklara detta uttalande mer i detalj, men det är mycket intressant att se om det kommer att gynna dig eller inte. Förra vårens IDF handlade om flerkärniga processorer, men det fanns väldigt lite information om hur detta kommer att gynna konsumenterna. Låt oss ta en kritisk titt på denna nya riktning som de stationära processorerna har tagit.

Flerkärniga, flerdyra?

Dubbla kärnor är dyra att tillverka. Utbyten (antalet arbetschips på en wafer) är ungefär proportionellt mot storleken. Större chip med dubbla kärnor kommer alltid att ha lägre avkastning än mindre chip med en kärna på samma processteknik. Men det är bara ett litet problem. Ett större och mer uppenbart problem är att du bara har halva antalet per oblat (även något mindre). Så, dubbla kärnor (som Pressler) kostar minst dubbelt så mycket att tillverka jämfört med en enstaka kärna – troligen mer (som Yonah, Pentium-D). Dubbla och flerkärniga kanske inte ökar den termiska densiteten (förbrukad effekt per mm²), men de ökar den totala effekten. Visst, från en kylflänsdesigners synvinkel är det inte mycket svårare att kyla ett 112 mm² Prescott-chip som avleder +/- 90 Watt än en teoretisk 206 mm² Pentium-D med 180 Watt. Men att se till att dessa 180 Watt inte kokar alla komponenter inuti din dator är nästan en omöjlig uppgift för systemdesignern som vill designa en relativt tyst PC. Resultatet är att flerkärniga processorer kommer att köras med lägre klockhastigheter än sina motsvarigheter med en kärna. Pentium-D, den dubbla kärnan Prescott, är begränsad till 130 Watt och 3,2 GHz, medan nuvarande Prescott försvinner upp till 115 Watt och går på 3,8 GHz. Och sist men inte minst, processorer med dubbla kärnor behöver mer bandbredd än en enda kärna för att göra skillnad och öka den “uppfattade CPU-fördröjningen”. Cachekoherens och att få tillgång till samma minnesbuss ökar alla den totala latensen som CPU:n ser och sänker därmed prestandan.

Multi-core, multi-performance?

Fördelarna med flerkärniga och flertrådiga processorer överväger vida nackdelarna på servermarknaden. Medan de flesta serverapplikationer producerar många trådar och processer, skalar prestanda nästan linjärt när fler kärnor läggs till i formen. Detta står i skarp kontrast till den superskalära processorn där allt mer komplexa konstruktioner kräver exponentiellt fler transistorer och kraften visar minskande avkastning, särskilt i serverapplikationer där IPC:n kan gå under 1. Även om processorer med dubbla kärnor är dyrare att tillverka, är de mycket enklare att designa än att förvandla en enstaka kärna till en ännu bredare fråga, komplex CPU. Utvecklingskostnaderna för en ny CPU-design är astronomiskt höga. Så det förvånar oss inte alls att Server CPU-tillverkare har vänt sig en masse mot flerkärniga CPU-designer: betydande kraftvinster med en bråkdel av tiden och pengarna som investeras. Och detsamma kan sägas om en stor del av HPC-marknaden.

Ett bra exempel på hur väl serverapplikationer kan skalas med fler processorer, se våra DB2-tester, som visade upp till 96 % prestandaökning från singel till dubbla, och en ökning med upp till 89 % när vi ökade antalet opteroner från två till fyra. De flesta stationära och många arbetsstationsapplikationer är dock entrådade. Eller mer exakt, de kan vara flertrådade för att vara mer lyhörda, men det finns bara en tråd som verkligen behöver CPU-kraft.

Även vissa arbetsstationsapplikationer som antas vara utmärkta exempel på flertrådade applikationer är inte så flerkärniga som de verkar vara. Jag körde en hel del Adobe Premier-benchmarking med olika videoformat, och jag fick reda på att den andra CPU:n erbjöd en knapp 10% till 40% hastighetsökning i videoredigering (rendering). 3DSMax visar bara stora ökningar när du använder mycket komplexa scener. När du använder en relativt lätt animationsscen lägger den andra CPU:n till cirka 20 % till 50 %. En av de bästa scenerna, den arkitekturscen för Spec-testetvisar en ökning med 89 % när man lägger till en andra Opteron, men två extra Opteron visar redan en viss minskande avkastning – prestanda gick upp till 72 %.

Multitasking-scenarier kan vara ett annat sätt att använda kraften med dubbla och multi-cores. Men många av de CPU-tunga applikationer som dator- och arbetsstationsanvändare gillar att köra i bakgrunden – arkivering, kodning – fungerar också på hårddisken. Och trots fördelarna med NCQ (Native Command Queuing), höga rotationshastigheter och lägre söktider, kan hårddisktunga uppgifter och särskilt flertrådade göra ett helt system till en genomsökning när det finns för mycket hårddiskaktivitet. Så det är tydligt att det finns stora utmaningar framför sig innan flerkärniga processorer verkligen kommer att ge fördelar för de flesta konsumenter och anställda.