Under de senaste dagarna har jag lekt runt med Futuremarks nya 3DMark för Android, samt Kishontis GL och DXBenchmark 2.7. Alla dessa tester är planerade att vara tillgängliga på Android, iOS, Windows RT och Windows 8 – vilket ger oss början på en mycket underbar sak: en uppsättning riktmärken som tillåter oss att grovt jämföra mobil hårdvara över (praktiskt taget) alla operativsystem. Datorvärlden är på väg mot konvergens på ett stort sätt, och med riktmärken som dessa kommer vi att bättre kunna spåra allas framsteg när de högpresterande människorna har låg effekt, och de lågeffektsfolket siktar på högre prestanda.
De två föregående artiklarna jag gjorde om ämnet var verkligen fokuserade på att jämföra smartphones med smartphones och surfplattor med surfplattor. Det vi har saknat har dock varit perspektiv. På CPU-sidan har vi vetat hur snabb Atom var ett bra tag. Redan 2008 drog jag slutsatsen att en 1,6 GHz enkelkärnig Atom-processor levererade prestanda liknande den hos en 1,2 GHz Pentium M, eller en vanlig Centrino-dator från 2003. Högre klockhastigheter och en andra kärna skulle sannolikt öka den prestandan med ytterligare ett år eller högst två. Med tanke på att de flesta av de ARM-baserade CPU-konkurrenterna tenderar att vara lite långsammare än Atom, kan du uppskatta att vilken som helst av den nuvarande skörden av smartphones levererar CPU-prestanda någonstans i intervallet för en bärbar dator från 2003 – 2005. Inte illa. Men hur är det med grafikprestanda?
För att ta reda på det gick jag igenom min reservdelsskåp på jakt efter GPU:er från en liknande tidsperiod. Jag behövde hårdvara som stödde PCIe (för att göra testbäddskonstruktionen enklare), och jag behövde GPU:er som stödde DirectX 9, vilket fick mig att börja 2004. Jag behåller inte alltid allt jag någonsin testat, men jag försöker behålla delar av potentiellt värde för framtida jämförelser. Du kan vara säker på att under 2004 – 2007 trodde jag inte att jag skulle använda dessa GPU:er för att sätta smartphones prestanda i perspektiv.
Här är vad jag grävde fram:
Uppställningen (konfigurationer som testade) | |||||||||||||
Utgivningsår | Pixel Shaders | Vertex Shaders | Kärnklocka | Minnesdatahastighet | Minnesbussbredd | Minnesstorlek | |||||||
NVIDIA GeForce 8500 GT | 2007 | 16 (enat) | 520MHz (1040MHz shader klocka) | 1,4 GHz | 128-bitars | 256 MB DDR3 | |||||||
NVIDIA GeForce 7900 GTX | 2006 | 24 | 8 | 650 MHz | 1,6 GHz | 256-bitars | 512 MB DDR3 | ||||||
NVIDIA GeForce 7900 GS | 2006 | 20 | 7 | 480 MHz | 1,4 GHz | 256-bitars | 256 MB DDR3 | ||||||
NVIDIA GeForce 7800 GT | 2005 | 20 | 7 | 400MHz | 1 GHz | 256-bitars | 256 MB DDR3 | ||||||
NVIDIA GeForce 6600 | 2004 | 8 | 3 | 300 MHz | 500 MHz | 128-bitars | 256 MB DDR |
Jag ville slänga in en GeForce 6600 GT, med tanke på hur fantastiskt det kortet var redan 2004, men tyvärr hade jag rensat ut mitt gamla lager av PCIe 6600 GT för länge sedan. Jag hade en AGP 6600 GT men det skulle förstöra min förmåga att hålla CPU-prestanda i linje med Surface Pro, så jag var tvungen att tillgripa en vanilj GeForce 6600. Både kärnklockan och minnesbandbredden blev lidande som ett resultat, med den senare minskade till hälften från att använda långsammare DDR. Kärnklockan på basen 6600 var bara 300MHz jämfört med 500MHz för GT. Det som dock gör vanilla GeForce 6600 väldigt intressant är att den levererade liknande prestanda som ett mycket känt kort: Radeon 9700 Pro (chipkodnamn: R300). Radeon 9700 Pro hade också 8 pixelpipor, men 4 vertex shader-enheter, och körde på 325MHz. 9700 Pro hade avsevärt högre minnesbandbredd, men med tanke på den bandbreddsbegränsade målmarknaden för våra enda plattformsoberoende riktmärken kommer vi inte alltid att se massor av minnesbandbredd användas här.
7800 GT och 7900 GS/GTX inkluderades för att visa upp effekterna av att skala upp beräkningsenheter och minnesbandbredd, eftersom arkitekturerna inte i grunden skiljer sig så mycket från GeForce 6600 – de är bara större och bättre. Speciellt 7800 GT var spännande eftersom den levererade prestanda konkurrenskraftig med den tidigare generationens GeForce 6800 Ultra, men till ett mer attraktivt pris. Med tanke på att 6800 Ultra var grädde på skörden 2004, kommer prestandan hos den konkurrenskraftiga 7800 GT att vara viktig att titta på.
Äntligen har vi en mainstream-del från NVIDIAs G8x-familj: GeForce 8500 GT. Före G80 och dess derivat, använde NVIDIA dedikerad pixel- och vertex shader-hårdvara – liknande vad den gör idag med sina ultramobila GPU:er (Tegra 2 – 4). Från och med G80 (och så småningom sipprar ner till G86, grunden för 8500 GT), anammade NVIDIA en enhetlig shader-arkitektur med en enda uppsättning exekveringsresurser som kunde användas för att köra pixel- eller vertex shader-program. NVIDIA kommer att göra en liknande övergång i sin Tegra-serie med Logan 2014. 8500 GT kommer inte att överträffa 7900 GTX i de flesta spelbelastningar, men det ger oss en titt på hur NVIDIAs enhetliga arkitektur hanterar våra två plattformsoberoende riktmärken . Kom ihåg att både 3DMark och GL/DXBenchmark 2.7 designades (för det mesta) för att köras på modern hårdvara. Även om den knappast är modern, ser 8500 GT mycket mer ut som dagens arkitekturer än de G70-baserade korten.
Du kommer att märka en tydlig brist på ATI-grafikkort här – det beror inte på brist på försök. Jag dammade av en gammal X800 GT och en X1650 Pro, ingen av dem skulle klara det första grafiktestet i 3DMark eller DXBenchmarks T-Rex HD-test. Förarna verkar ha fel här. ATI tappade stödet för DX9-endast GPU:er för länge sedan, den senaste Catalyst tillgänglig för dessa kort (10.2) lades ut långt innan någondera riktmärket utformades. Tyvärr har jag inga AMD-baserade ultraportables, men jag tog tag i den gamla Brazos E-350. Som en påminnelse var E-350 en 40nm APU som använde två Bobcat-kärnor och innehöll 80 GPU-kärnor (Radeon HD 6310). Även om vi inte kommer att se E-350 i en surfplatta, kommer en snabbare medlem av dess härkomst att hitta sin väg till surfplattor från och med i år.