Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

NVIDIA Tegra 4 Architecture Deep Dive, Plus Tegra 4i, Icera i500 & Phoenix Hands On

Ända sedan NVIDIA kom till SoC-scenen har det gjort ett bra jobb med att introducera sina ultramobila SoCs. Tegra 2 och 3 introducerades båda med en hälsosam mängd detaljer och den sorts säkerhet vi förväntar oss att se från vilken PC-kiselleverantör som helst. Medan resten av det mobila utrymmet sakta håller på att komma ikapp, fortsatte NVIDIA trenden med sin Tegra 4- och Tegra 4i-arkitekturavslöjande.

Eftersom Tegra 4i är lite längre ut, fokuserade mycket av NVIDIAs fokus för dagens avslöjande på dess flaggskepp Tegra 4 SoC som kommer att börja levereras under andra kvartalet i år tillsammans med NVIDIA i500-basbandet. På en hög nivå tittar du på en fyrkärnig ARM Cortex A15 (plus femte A15-kompanjonskärna) och en 72-kärnig GeForce GPU. För att förstå Tegra 4 på en lägre nivå kommer vi att dyka in i de enskilda blocken med början, som vanligt med CPU.

ARM:s Cortex A15 och strömförbrukning

Tegra 4:s CPU-komplex ser en betydande förbättring jämfört med Tegra 3. Trots att NVIDIA är licenstagare för ARM-arkitektur licensierade NVIDIA återigen en komplett processor från ARM istället för att designa sin egen kärna. Jag tror i grunden att NVIDIA så småningom kommer att gå hela den anpassade vägen (se: Project Denver), men det är ett mål som kommer att ta tid att förverkliga.

När det gäller Tegra 4 valde NVIDIA att licensiera ARMs Cortex A15 – den enda vanilj ARM-kärnan som för närvarande erbjuds som kan leverera högre prestanda än en Cortex A9.

Samsung avslöjade nyligen detaljer om sin Cortex A15-implementering jämfört med Cortex A7, ett liknande presterande men mer strömsnålt alternativ till A9. I sitt ISSCC-dokument om ämnet noterade Samsung att Cortex A15 erbjöd upp till 3x prestandan hos Cortex A7, vid 4x arean och 6x strömförbrukningen. Det är en enorm prestandafördel för säker, men det kommer till en stor kostnad för yta och strömförbrukning. Områdessidan är inte lika viktig som NVIDIA måste äta den kostnaden, men strömförbrukningen är ett giltigt problem.

För att lindra rädslan om strömförbrukning tillhandahöll NVIDIA följande data:

Tabellen ovan är lite förvirrande så låt mig förklara. På första raden visar NVIDIA att de har konfigurerat Tegra 3 och 4-plattformarna för att leverera samma SPECint_base 2000-prestanda. SPECint är ett väl respekterat CPU-riktmärke som betonar allt från CPU-kärnan till minnesgränssnittet. Int i slutet av namnet antyder att vi tittar på enbart enkelgängad heltalsprestanda.

Den andra raden visar oss SPECint per watt för Tegra 3/4 CPU-delsystemet, när det körs vid de frekvenser som krävs för att leverera en SPECint-poäng på 520. Detta säger i sig inte så mycket, men vi kan använda denna data för att få några faktiska effektsiffror.

På samma prestandanivå arbetar Tegra 4 med 40 % lägre effekt än Tegra 3. Jämförelsen är tyvärr inte riktigt äpplen med äpplen, eftersom vi på konstgjord väg begränsar Tegra 4:s toppklockhastighet, samtidigt som vi kör Tegra 3 på sin högsta, mest effekthungriga stat. Klockorna i fråga är 1,6GHz för Tegra 3 och 825MHz för Tegra 4. Att köra på lägre klockor gör att du kan köra på en lägre spänning, vilket resulterar i mycket lägre strömförbrukning. Med andra ord, NVIDIAs jämförelse är användbar men snedställd till förmån för Tegra 4.

Vad dessa data dock berättar för oss är exakt hur NVIDIA planerar att få in Tegra 4 i en telefon: genom att aggressivt begränsa frekvensen. Om en Cortex A15 vid 825MHz levererar identisk prestanda med lägre effekt jämfört med en 40nm Cortex A9 på 1,6GHz, är det troligtvis möjligt att leverera en marginell prestandaökning utan att bryta kraftbanken.

Det där 825MHz-märket slutar med att vara ett viktigt nummer, eftersom det är där den femte följeslagaren Cortex A15 toppar. Jag misstänker att i en telefonkonfiguration kan NVIDIA hålla allt igång på den medföljande kärnan så länge som möjligt, vilket skulle ta itu med mina farhågor om typisk strömförbrukning i en telefon. Toppströmförbrukning kommer fortfarande att vara ett problem tror jag.