I flera år nu har moderkortstillverkarna kämpat för att hitta andra marknader att förgrena sig till, i ett försök att diversifiera sig, för att förbereda sig för en oundviklig konsolidering på marknaden. Varje år på Computex fick vi höra mer och mer om hur moderkortsbranschen blev tuffare och vi skulle se fler och fler icke-moderkortsprodukter från dessa tillverkare. För det mesta var inte moderkortsprodukterna något speciellt. Alla gick in på att göra servrar, sedan multimediaprodukter, sedan fodral, nätverk, säkerhet, vattenkylning; listan fortsätter och fortsätter.
Årets Computex var inte särskilt annorlunda, förutom en sak. När Gigabyte visade oss sin samling av godsaker för det nya året var vi faktiskt ganska intresserade av en av dem. Och efter att vi lagt upp en artikel om det, upptäckte vi att en hel del av er också var väldigt intresserade av det. Gigabytes i-RAM blev en omedelbar succé och det var inte så mycket att produkten blev en succé, utan det var idén som väckte allas intressen.
I stort sett varje gång en snabbare CPU släpps hör vi alltid från en grupp användare som förundras över hastigheten med vilken CPU:erna blir snabbare, men avskyr den tröga hastigheten som lagring utvecklas. Vi har fastnat för hårddiskar i decennier nu, och även om tanken på att så småningom migrera till solid state-lagring alltid har funnits där, har den alltid varit så mycket avlägsen. Nuförtiden kan du enkelt få en multi-gigabyte solid state-enhet om du är villig att spendera de tiotusentals dollar det kostar att skaffa en; priserna varierar faktiskt från de låga $1000s till $100K-intervallet för solid state-enheter, vilket uppenbarligen gör dem opraktiska för stationära användare.
Prestandafördelarna med solid state-lagring har alltid varit frestande. Utan rörliga delar förbättras tillförlitligheten avsevärt, och samtidigt begränsas slumpmässiga åtkomster inte längre av långsamma och svårplacerade läs-/skrivhuvuden. Även om sekventiella överföringshastigheter har förbättrats enormt under de senaste 5 åren, tack vare ständigt ökande tallrikdensiteter bland andra förbättringar, är det den otroligt höga latensen som gör slumpmässig åtkomst mycket dyr ur prestandasynpunkt för konventionella hårddiskar. En enorm minskning av slumpmässig åtkomstfördröjning och ökning av toppbandbredd är tydliga prestandafördelar för solid state-lagring, men fram till nu har de båda haft ett mycket högt pris.
Det andra problemet med solid state-lagring är att DRAM är flyktigt, vilket innebär att så snart strömmen tas bort från enheten, skulle all din data gå förlorad. Dyrare lösningar kommer runt detta genom att använda en kombination av en batteribackup samt en hårddisk som håller en säkerhetskopia av all data som skrivits till SSD-enheten, ifall batteriet eller huvudströmmen skulle gå sönder.
Gigabyte insåg tjusningen med solid state-lagring, särskilt för prestationsmedvetna entusiastanvändare, och började skapa den första prisvärda solid state-lagringsenheten, och de kallade den i-RAM.
Genom att använda konventionella DDR-minnesmoduler är Gigabytes i-RAM mycket billigare att implementera än mer konventionella solid state-enheter. Gigabyte säljer dig kortet, och det är upp till dig att fylla det med minne – ett klart plus för oss som råkar ha en hel del äldre minne liggande, speciellt efter nästa års övergång till DDR2 för AMD-plattformar.
Säkerhetskopieringsproblemet löses genom att använda ett batteripaket som laddas av ditt system i farten, även om det inte finns någon diskbackup tillgänglig för i-RAM.
Genom lite anpassad logik fungerar och fungerar i-RAM precis som en vanlig SATA-hårddisk. Men hur mycket av en prestandaökning är det för datoranvändare? Och är i-RAM värt sin fortfarande ganska höga kostnad för inträde? Vi har ägnat den senaste veckan åt att försöka ta reda på…