Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

NVIDIA G-Sync recension

Det började på CES, för nästan 12 månader sedan. NVIDIA tillkännagav GeForce Experience, en mjukvarulösning på problemet med att välja optimala grafikinställningar för din PC i de spel du spelar. Med konsolspel har utvecklaren redan valt vad den tror är den rätta balansen mellan visuell kvalitet och bildhastighet. På PC:n lämnas dessa beslut upp till slutanvändaren. Vi har sett några spel försöka lösa problemet genom att begränsa antalet tillgängliga grafiska alternativ, men förutom det är det ett problem som inte fick så stor uppmärksamhet. PC-spelare är trots allt vana vid att pilla runt med inställningar – det är bara en förväntad del av upplevelsen. I ett försök att bredda PC-spelanvändarbasen (troligen något motiverad av bristen på nästa generations konsolvinster), kom NVIDIA med GeForce Experience. NVIDIA testar redan ett stort antal spel över ett brett utbud av NVIDIA-hårdvara, så det har en bra uppfattning om vilka de bästa inställningarna kan vara för varje spel/PC-kombination.

Även på CES 2013 tillkännagav NVIDIA Project Shield, senare omdöpt till bara Shield. Det något udda men förvånansvärt anständiga bärbara Android-spelsystemet tjänade en annan funktion: det kunde användas för att spela PC-spel på din TV, strömma direkt från din PC.

Slutligen har NVIDIA varit tyst (och på sistone inte så tyst) engagerad med Valve i sina SteamOS- och Steam Machine-ansträngningar (visserligen, det är AMD också).

Från var jag står ser det verkligen ut som att NVIDIA försöker föra aspekter av konsolspel till datorer. Du kan gå ett steg längre och säga att NVIDIA verkar vara mycket motiverad att förbättra spelandet på fler sätt än att trycka på för högre grafikkvalitet och högre bildfrekvenser.

Allt detta är trots allt vettigt. Med ATI och AMD helt integrerade, och Intel äntligen tar grafik (något) på allvar, behöver NVIDIA göra mycket mer för att förbli relevant (och dominerande) i branschen framöver. Att bara lägga ut bra GPU:er kommer bara att ta företaget så långt.

NVIDIAs senaste försök är G-Sync, en hårdvarulösning för skärmar som möjliggör en semi-variabel uppdateringsfrekvens som drivs av ett NVIDIA-grafikkort som stöds. Premissen är ganska enkel att förstå. Skärmar och GPU:er uppdaterar innehåll asynkront av naturen. En bildskärmspanel uppdaterar sig själv med ett fast intervall (dess uppdateringsfrekvens), vanligtvis 60 gånger per sekund (60Hz) för de flesta paneler. Spelspecifika skärmar kan stödja ännu högre uppdateringsfrekvenser på 120Hz eller 144Hz. GPU:er å andra sidan renderar ramar så snabbt som möjligt och visar dem på skärmen när de är klara.


När du har en ram som kommer mitt i en uppdatering, slutar displayen med att rita delar av flera ramar på skärmen samtidigt. Att rita delar av flera ramar samtidigt kan resultera i visuella artefakter, eller revor, som skiljer de enskilda ramarna åt. Du kommer att märka rivning som horisontella linjer/artefakter som verkar rulla över skärmen. Det kan vara otroligt distraherande.


Du kan undvika att gå sönder genom att hålla grafikprocessorn och skärmen synkroniserade. Att aktivera vsync gör just detta. GPU:n skickar endast bildrutor till skärmen i synk med panelens uppdateringsfrekvens. Rivning försvinner, men du får en ny artefakt: stamning.

Eftersom innehållet i varje bildruta i ett spel kan variera kraftigt, kan grafikprocessorns bildhastighet variera på samma sätt. Återigen befinner vi oss i en situation där GPU:n vill presentera en ram som inte är synkroniserad med skärmen. Med vsync aktiverat väntar GPU:n med att leverera ramen till nästa uppdateringsperiod, vilket resulterar i en upprepad bildruta under tiden. Denna upprepade ram visar sig som stamning. Så länge du har en bildfrekvens som inte är perfekt anpassad till din uppdateringsfrekvens, har du potentialen för synlig stamning.


G-Sync utger sig för att erbjuda det bästa av två världar. Enkelt uttryckt försöker G-Sync få skärmen att vänta med att uppdatera sig tills GPU:n är klar med en ny ram. Ingen rivning, ingen stamning – bara smörig mjukhet. Och naturligtvis endast tillgänglig på NVIDIA GPU:er med en G-Sync-skärm. Som alltid finns djävulen i detaljerna.

Hur det fungerar


G-Sync är en hårdvarulösning, och i det här fallet finns hårdvaran inuti en G-Sync-aktiverad skärm. NVIDIA byter ut skärmens skalare mot ett G-Sync-kort och lämnar panelen och tidsstyrenheten (TCON) orörda. Trots sin fysiska plats i visningskedjan har det nuvarande G-Sync-kortet faktiskt ingen hårdvaruskalare. För det avsedda syftet är bristen på skalningshårdvara inte en stor sak eftersom du kommer att ha en mer än kapabel GPU som driver panelen och hanterar alla skalningsuppgifter.

G-Sync fungerar genom att manipulera skärmens VBLANK (vertikalt släckintervall). VBLANK är tidsperioden mellan att displayen rastrerar den sista raden i den aktuella bilden och ritar den första raden i nästa bildruta. Det kallas ett intervall eftersom under denna tidsperiod inga skärmuppdateringar sker, displayen förblir statisk och visar den aktuella bilden innan nästa ritas. VBLANK är en rest av CRT-dagarna där det var nödvändigt att ge CRT:erna tid att börja skanna överst på skärmen igen. Intervallet kvarstår idag i platta LCD-skärmar, även om det är tekniskt onödigt. G-Sync-modulen inuti skärmen modifierar VBLANK för att få skärmen att hålla den nuvarande ramen tills GPU:n är redo att leverera en ny.

Med en G-Sync-aktiverad skärm, när monitorn är klar med att rita den aktuella ramen, väntar den tills GPU:n har en annan redo för visning innan nästa ritningsprocess påbörjas. Fördröjningen styrs enbart genom att spela med VBLANK-intervallet.

Du kan dock bara göra så mycket med VBLANK-manipulation. I nuvarande implementeringar är den längsta NVIDIA som kan hålla en enda bildruta 33,3ms (30Hz). Om nästa bildruta inte är klar då, kommer G-Sync-modulen att tala om för displayen att rita om den sista bildrutan. Den övre gränsen begränsas av panelen/TCON vid denna tidpunkt, med den enda G-Sync-monitorn som finns tillgänglig idag som går så högt som 6,94ms (144Hz). NVIDIA gjorde det en poäng att nämna att 144Hz-begränsningen inte är en G-Sync-gräns, utan en panelgräns.


Själva G-Sync-kortet har en FPGA och 768 MB DDR3-minne. NVIDIA hävdar att det inbyggda DRAM-minnet inte är mycket större än vad du vanligtvis hittar på en scaler inuti en skärm. Det tillagda DRAM-minnet är delvis nödvändigt för att ge mer bandbredd till minnet (ytterligare fysiska DRAM-enheter). NVIDIA använder minnet till ett antal saker, varav en är att lagra föregående bildruta så att den kan jämföras med den inkommande bildrutan för overdrive-beräkningar.

Den första G-Sync-modulen stöder endast utdata över DisplayPort 1.2, även om det inte finns något tekniskt som hindrar NVIDIA från att lägga till stöd för HDMI/DVI i framtida versioner. På samma sätt stöder det nuvarande G-Sync-kortet inte ljud men NVIDIA hävdar att det kan läggas till i framtida versioner (NVIDIAs tankesätt här är att de flesta spelare vill ha något annat än högtalare integrerade i sina skärmar). Den sista begränsningen för den första G-Sync-implementeringen är att den bara kan ansluta till skärmar över LVDS. NVIDIA planerar att aktivera V-by-One-stöd i nästa version av G-Sync-modulen, även om det inte finns något som hindrar det från att aktivera eDP-stöd också.

Att aktivera G-Sync har en liten men mätbar prestandapåverkan på bildhastigheten. Efter att GPU:n har renderat en ram med G-Sync aktiverad, kommer den att börja polla skärmen för att se om den är i en VBLANK-period eller inte för att säkerställa att GPU:n inte skannar mitt i en skanning. Omröstningen tar cirka 1 ms, vilket översätts till en prestandapåverkan på 3-5 % jämfört med v-sync på. NVIDIA arbetar på att eliminera omröstningen helt, men för tillfället är det så det är gjort.


NVIDIA eftermonterade en ASUS VG248QE-skärm med sin första generationens G-Sync-kort för att demonstrera tekniken. V248QE är en 144Hz 24” 1080p TN-skärm, en bra passform för spelare men inte precis den snyggaste skärmen i världen. Med tanke på dess nuvarande prispunkt ($250 – $280) och fokus på en mycket hög uppdateringsfrekvens, kommer det definitivt att finnas avvägningar (avsaknaden av en IPS-panel är den stora här). Trots att NVIDIAs första val är en TN-skärm, kommer G-Sync att fungera bra med en IPS-panel och jag förväntar mig att se nya G-Sync-skärmar tillkännages inom en inte alltför avlägsen framtid. Det finns heller inget som hindrar en bildskärmstillverkare från att bygga en 4K G-Sync-skärm. DisplayPort 1.2 stöds fullt ut, så 4K/60Hz är det maximala du kommer att se vid det här laget. Som sagt, jag tror att det är mycket mer troligt att vi kommer att se en 2560 x 1440 IPS-skärm med G-Sync snarare än en 4K-modell inom en snar framtid.


Naturligtvis tog jag isär VG248QE för att få en titt på omfattningen av ändringarna för att få G-Sync att fungera på skärmen. Tack och lov är det ganska enkelt att ta isär displayen. Efter att ha skruvat loss VESA-fästet var jag bara tvungen att bända bort ramen från baksidan av skärmen. Med bildskärmen på baksidan använde jag en platt skruvmejsel för att börja separera plasten med de två utskärningarna i nederkanten av skärmen. Jag gick sedan längs kanten på panelen och separerade ramen från baksidan av skärmen tills jag hakade av alla spärrarna. Det var verkligen ganska lätt att ta isär.


Väl inne är det bara att ta bort några kablar och skruva loss några skruvar. Jag är inte säker på hur VG248QE ser ut normalt, men inuti den modifierade G-Sync-versionen är metallburen som är hem för huvudkretskortet helt enkelt tejpad på baksidan av displaypanelen. Du kan också se att NVIDIA lämnade högtalarna intakta, det finns bara ingen plats för dem att ansluta till.

Det ser ut som att NVIDIA kan ha byggt en anpassad PCB för VG248QE och sedan monterat G-Sync-modulen på den.


Själva G-Sync-modulen liknar vad NVIDIA inkluderade i sitt pressmaterial. 3 x 2 Gb DDR3-enheterna är tydligt synliga, medan FPGA är gömd bakom en kylfläns. Att ta bort kylflänsen avslöjar vad som verkar vara en Altera Arria V GX FPGA.



FPGA inkluderar ett integrerat LVDS-gränssnitt, vilket gör den perfekt för sin roll här.