Den obeskrivna historien om Intels dominerande processor för stationära (och bärbara) efter 2006 har ingenting att göra med nya nya metoder för chipdesign eller att spendera miljarder på att hålla sin armé av fabs uppdaterad. Även om båda dessa är kritiska komponenter till formeln, spelar dess Intels interna prestandamodelleringsteam en viktig roll i att tillhandahålla mål för både arkitekter och fab ingenjörer att träffa. Efter att ha tappat ansiktet (och försäljningen) till AMD:s Athlon 64 i början av 2000-talet, antog Intel en “inga fler överraskningar”-policy. Intel skulle aldrig mer bli överraskad av en prestandaförsämring.
Under de senaste åren har dock fokus på meningsfull prestation skiftat. Lika viktigt som absolut prestanda är strömförbrukningen. Intel har gått igenom en långsam uppvaknandeprocess under de senaste åren när de har anpassat sig till den nya ultramobila världen. En av de första sakerna som ändrades var dock omfattningen och inriktningen av dess interna prestandamodellering. Användarupplevelse (kvantifierad genom höghastighetskameror som kartlägger bildhastigheter till användarundersökningsdata) och energieffektivitet är nu båda införlivade i alla arkitekturmål framöver. Att bygga nästa generations CPU-kärnor innebär inte längre att man väljer ett SPECCPU-prestandamål och arbetar mot det, utan att man också levererar en viss användarupplevelse.
Intels roll i branschen har börjat förändras. Det arbetade väldigt nära med Acer för att få ut W510, W700 och S7 på marknaden. Med Haswell kommer Intel att arbeta ännu närmare med sina partners – att gå så långt som att specificera andra, icke-Intel-komponenter på moderkortet i jakten på den ultimata batteritiden. Bitarna börjar falla på plats, och om allt går enligt Intels plan bör vi börja se frukterna av dess arbete nästa år. Målet är att få ner Core till mycket låga effektnivåer och att ta Atom ännu lägre. Underskatta inte betydelsen av Intels 10W Ivy Bridge-meddelande. Även om Haswell för stationära och mobila enheter kommer att dyka upp i mitten till slutet av Q2-2013, kommer de spännande ultramobila delarna inte fram förrän Q3. Intels 10W Ivy Bridge kommer att ansvara för att åtminstone få ut några mer spännande formfaktorer på marknaden mellan nu och då. Även om vi inte är exakt på Core-in-an-iPad-nivån av integration, närmar vi oss väldigt nära.
För att kicka igång det som kommer att bli ett spännande år, gjorde Intel ett par stopp runt om i landet för att visa att även dess befintliga arkitekturer är ganska energieffektiva. Intel bar med sig ett par Windows-surfplattor, kopplade för att mäta strömförbrukningen på både enhets- och komponentnivå, för att visa vad många av er kommer att finna uppenbart vid denna tidpunkt: att Intels 32nm Clover Trail är mer strömsnål än NVIDIAs Tegra 3.
Vi har redan visat detta i våra batterilivstester. Samsungs ATIV Smart PC använder en Atom Z2760 och har ett 30Wh batteri med en 11,6-tums 1366×768 skärm. Microsofts Surface RT använder NVIDIAs Tegra 3 som drivs av ett 31Wh batteri med en 10,6-tums 1366×768 skärm. I vårt 2013 års batteritid för trådlös webbsurfning visade vi Samsung med 17 % batterilivsfördel, trots det 3 % mindre batteriet. Vårt test av videouppspelningsbatteriets livslängd visade en mindre fördel på 3 %.
För oss var kraftfördelen väldigt vettig. Vi har redan bevisat att Intels Atom-kärna är snabbare än ARMs Cortex A9 (även fyra av dem under Windows RT). Kombinera det med det faktum att NVIDIAs Tegra 3 har fyra Cortex A9s på TSMC:s 40nm G-process och du får ett recept på sämre batteritid, allt annat lika.
Intels metod att hamra denna punkt hem är inte så unik i branschen. Istället för att mäta strömförbrukningen på applikationsnivå, valde Intel att göra det på komponentnivå. Detta görs vanligtvis genom att ta isär enheten och antingen byta ut batteriet mot en extern strömkälla som du kan mäta, eller genom att mäta ström som levereras av batteriet själv. Kläm fast spänningsingångsledningarna som kommer från batteriet till PCB, släng ett motstånd inline och mät spänningsfallet över motståndet för att beräkna effekten (bra ol’ Ohms lag).
Där Intels kraftmodellering blir lite mer aggressiv är vad som händer härnäst. Att mäta ström på batteriet ger dig en uppfattning om den totala strömförbrukningen för plattformen inklusive display, SoC, minne, nätverksstack och allt annat på moderkortet. Det här tillvägagångssättet är användbart för att förstå hur länge en enhet kommer att hålla på en enda laddning, men om du är en komponentleverantör bryr du dig vanligtvis lite mer om den specifika strömförbrukningen för dina konkurrenters komponenter.
Det som följer är en bra blandning av konst och vetenskap. Intels kraftingenjörer kommer att ta isär en konkurrerande enhet och undersöka vad som än ser ut att vara en strömleverans- eller filtreringskrets samtidigt som de kör olika arbetsbelastningar på själva enheten. Genom att korrelera typen av arbetsbelastning till spikar i spänningen i dessa kretsar kan du ta reda på vilka komponenter på en smartphone eller surfplatta som troligen är ansvariga för att leverera ström till enskilda block av en SoC. Trots den höga integrationsnivån i moderna mobila SoC, tenderar de stora spelarna på chipet (t.ex. CPU och GPU) att arbeta på sina egna oberoende spänningsplan.
Ett grundläggande LC-filter
Vad som vanligtvis händer är att du hittar ett standard LC-filter (induktor + kondensator) som ger ström till ett block på SoC. När rätt LC-filter har identifierats är allt du behöver göra att lyfta induktorn, sätta in ett mycket litet motstånd (2 – 20 mΩ) och mäta spänningsfallet över motståndet. Med kända spännings- och resistansvärden kan du bestämma ström och effekt. Med hjälp av bra externa instrument kan du plotta effekt över tid och nu få en bra uppfattning om strömförbrukningen för enskilda IP-block inom en SoC.
Grundläggande LC-filter modifierat med ett inline-motstånd
Intel tog med en av sina bästa kraftingenjörer tillsammans med ett par surfplattor och en National Instruments USB-6289 datainsamlingsbox för att demonstrera sina resultat. Intel tog med sig Microsofts Surface RT med NVIDIAs Tegra 3 och Acers W510 med Intels egen Atom Z2760 (Clover Trail). Båda dessa var detaljhandelsexemplar som körde den senaste programvaran/drivrutinerna som var tillgängliga den 21/12/12. Acer-enheten i synnerhet innehöll den senaste drivrutinsuppdateringen från Acer (version 1.01, släppt den 12/18/12) som förbättrar batteritiden på surfplattan (kom ihåg att jag påpekade att W510 verkade ha ett problem som gjorde att den inte presterade under batterilivsavdelningen jämfört med Samsungs ATIV Smart PC? det verkar som om den här drivrutinsuppdateringen fixar det problemet).
Jag kalibrerade personligen båda bildskärmarna till vår vanliga 200 nits-inställning och såg till att programvaran och konfigurationerna var så nära lika som möjligt. Båda tabletterna köptes av Intel, men jag verifierade deras prestanda mot mina egna granskningsprover och märkte ingen meningsfull avvikelse. Alla tester och jag har också bifogat diagram över var Intel mäter CPU- och GPU-effekt på de två surfplattorna:
Microsoft Surface RT: Det gula blocket är där Intel mäter GPU-effekt, det orangea blocket är där det mäter CPU-kraft
Acers W510: Det lila blocket är ett motstånd från Intels referensdesign som används för att mäta ström på batteriet. Gul och orange är induktorer för GPU- respektive CPU-kraftleverans.
Den kompletta installationen är förvånansvärt mobil, till och med beroende av en bärbar dator för att köra SignalExpress för inspelning av utdata från NI-datainsamlingsboxen:
Att koppla upp surfplattorna är lite av en enda röra. Intel kopplade upp mycket mer än bara CPU och GPU, beroende på enhet och vad som var lätt att exponera kunde du få effektavläsningar på minnesundersystemet och saker som NAND också.
Intel levererade bara testinstallationen, för allt du ska se valde jag och körde vad jag ville, hur jag ville. Att jämföra Clover Trail med Tegra 3 är inget nytt, men den data jag samlat in är åtminstone intressant att titta på. Vi får vanligtvis inte bryta ut CPU- och GPU-strömförbrukningen i våra tester, vilket gör det här experimentet lite mer upplysande.
Tänk på att vi tittar på strömleverans på spänningsskenor som ökar med CPU- eller GPU-aktivitet. Det är inte ovanligt att köra flera saker från samma spänningsskena. I synnerhet är jag inte supersäker på vad som händer med Tegra 3:s GPU-skena även om CPU-skenorna sannolikt är ganska jämförbara. En sista anmärkning: till skillnad från under Android använder NVIDIA inte sin 5:e/kompanjonskärna under Windows RT. Microsoft stöder fortfarande inte heterogena datormiljöer, så NVIDIA var tvungen att inaktivera sin medföljande kärna under Windows RT.