Problemet med spelbenchmarks är att vi nästan alltid mäter prestandan för dagens kort med gårdagens spel. Under den längsta tiden var Quake III Arena ett mycket populärt riktmärke eftersom väldigt få konfigurationer kunde köra den med alla visuella alternativ aktiverade vid höga bildhastigheter. Idag är situationen mycket annorlunda; det är inte ovanligt att se 200+ bildfrekvenser under Quake III Arena.
Det har funnits ett antal andra spelriktmärken som har höjts till tillfället under senare tid. Spel som Serious Sam introducerade en mycket konfigurerbar motor till benchmarkingvärlden, vilket faktiskt gav oss ett mycket flexibelt verktyg att mäta prestanda med. Det fanns andra titlar som inte gick lika bra, som Unreal Tournament som i de allra flesta fall slutade med att vara mer CPU-begränsade än grafikbegränsade.
Det enda som alla dessa riktmärken har gemensamt är att de är av för närvarande tillgängliga eller tidigare populära spel. Vi kan extrapolera från deras resultat hur ett visst kort eller en familj av GPU:er kommer att prestera i framtida spel, men vi vet aldrig riktigt förrän dessa spel blir tillgängliga. Det är redan allmänt känt att du inte ens kan börja behandla en uppgradering av grafikkort som en investering; med 6-månaders produktcykler måste du spela ett gissningsspel om du kommer att köpa tillräcklig kraft för framtiden.
Ett exempel på detta skulle vara lanseringen av GeForce3 för nästan 12 månader sedan. Kortet räckte mer än nog för de spel som fanns ute då men många köpte under förutsättningen att det skulle ge dem överlägsen prestanda i kommande DirectX 8-titlar. Snabbspolning fram till idag finns det fortfarande inga större titlar som kräver DX8-funktionerna i GeForce3 och de som köpte kortet tidigt fick mycket billigare och ibland högre prestanda alternativ bara 6 månader senare.
Men vi pratar helt enkelt om saker ur slutanvändarens synvinkel. Situationen är ännu mer frustrerande från utvecklarens synvinkel. Utvecklarna vill göra sina spel så otroliga som möjligt, men de behöver hårdvara, drivrutiner och API-stöd för att göra det. Samtidigt kommer hårdvarutillverkare som ATI och NVIDIA inte att slösa bort värdefulla implementeringsfunktioner som inte kommer att användas på ytterligare två år. Det är det klassiska hönan och ägget syndromet; lyckligtvis har både ATI och NVIDIA i det här fallet försett äggen med sina DX8-kompatibla GPU:er.
Sedan är det frågan om förare. Kommer en grafikleverantör att ägna sin tid åt att optimera för funktioner som inte kommer att användas i spel på ytterligare 6 – 12 månader eller kommer de att fokusera på de riktmärken och spel som för närvarande spelas? Svaret är uppenbart; men var lämnar detta utvecklarna? Det här är personerna som använder för närvarande tillgängliga kort för att testa och bygga sina nästa generations spelmotorer. Om för närvarande tillgängliga drivrutiner inte kommer att köra sina nästa generations motorer tvingas de antingen vänta på att hårdvarutillverkarna ska fixa sina drivrutiner (en ansträngning som inte ger omedelbara resultat för hårdvaruleverantören) eller att i hög grad optimera för en mycket liten delmängd av kort eller till och med en viss leverantör. Med bara två stora tillverkare kvar, ATI och NVIDIA, finns det en outtalad förståelse för att utvecklarna förtjänar lika mycket, om inte mer, uppmärksamhet än slutanvändarna. Även om detta inte alltid har varit fallet, hör vi nu att både ATI och NVIDIA är lika lyhörda för problem med utvecklardrivrutiner.
Vi har precis beskrivit ett antal problem som för närvarande finns i hur grafik hanteras från både en granskares synvinkel och från en utvecklarrelationer synvinkel. Men vad ska man göra åt det?
Som tur är råkar en av de mest framstående spelutvecklarna vara i AnandTechs bakgård och vi har arbetat med dem för att ta itu med några av just dessa problem.