Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

Här är varför DNA-lagring inte kommer att ersätta tejp när som helst

I världen av arkivlagring är tejp den obestridda kungen. Medan framsteg inom teknik som DNA och glaslagring ger en inblick i framtiden finns det för närvarande inget alternativ som kan konkurrera med band för tillförlitlighet, livslängd och kostnad.

Med det sagt står företag fortfarande inför ett antal utmaningar när det gäller att hantera och bevara data på lång sikt, som molnlagring eller lokal.

TechRadar Pro pratade med David Trachy, Senior Director of Emerging Markets på lagringsföretaget Spectra Logic, för att ta reda på hur hybrid evig lagring kan lösa några av de svåraste dataproblemen som företag står inför idag.

Hur ser framtiden ut för blixt? Vilken inverkan kommer detta att ha på lagringsindustrin?

Den snabbast växande tekniken på lagringsmarknaden är fortfarande NAND flash. Den har kapacitet för hållbarhet och hastighet som finner fördel i både konsument- och företagssegmentet, men det viktigaste innovationsfokus för framtiden för flashmarknaden ligger i att söka större kapacitet. Även om övergången från plan (2D) till 3D NAND såg väldigt lovande ut vid den tiden, visar sig framtida kapacitetsvinster vara olämpliga, eftersom ökande skrivningar samtidigt minskar antalet gånger som cellen kan programmeras, vilket påverkar den långsiktiga blixtkapaciteten. Ett annat alternativ för att öka blixtkapaciteten är att minska cellstorleken. Men med tanke på att 19 nano-meter (nm) är så små som branschen planerar att producera, och att vi redan är 20 nm på flash-färdplanen, ser det också ut som en återvändsgränd.

Den största möjligheten att uppnå flashkapacitetsvinster är att öka antalet lager på ett chip; Det finns dock komplicerade problem med att bygga 100-plus lager delar. Av denna anledning och andra finns det inga leverantörer som pratar om att bygga 136-lager i en enda stack-del. Så vi förutspår att framtida kapacitetsvinster i flash främst kommer att uppnås genom att stapla delar ihop. Strängstaplingstekniken är där flerskikts flash-matriser är kopplade ihop för att skapa ett flashchip med fler lager. Detta kan leda till färre kostnadsminskningar i blixt. System- och molnleverantörer kommer att dra nytta av det zonbaserade gränssnittet (vilket möjliggör fysisk placering av data i zoner som matchar datans prestandabehov) för att få längre livslängd, bättre prestanda och större kapacitet av sina flash-tillgångar.

Vilka marknadspåverkan har haft störst inverkan på magnetskivan? Vad ligger framför disk?

Volymerna av leveranser av hårddiskenheter som skickats under de senaste fyra kvartalen upplevde en volymminskning på 20 procent – 255 miljoner jämfört med 328 miljoner föregående år. Denna nedgång kan tillskrivas marknader för flashteknik som eroderar där diskett en gång var det enda valet. Till exempel använder de flesta bärbara datorer nu flashlagring. På senare tid är den nya generationen spelsystem alla flashbaserade. Trots nedgången för 2,5-tums skivkategorin har 3,5-tums nearline-hårddiskkategorin upplevt jämfört med föregående år både kapacitet och volymtransporter. Det utgör nu mer än 50% av alla diskintäkter och säljs huvudsakligen till stora IT-butiker och molnleverantörer. Att utveckla en enstaka produkt med några variationer har gjort det möjligt för diskföretagen att fokusera sina resurser, vilket gör det möjligt för dem att förbli lönsamma även när en stor del av deras äldre verksamhet urholkar.

Med ett antal pågående framsteg och en lång LTO-färdplan verkar det som om bandet fortfarande inte visar några tecken på att försvinna. Vilka är de viktigaste sakerna när det gäller bandinnovation, och vad är nästa för band?

Tejp är verkligen här för att stanna. Det är ett perfekt medium för långsiktigt arkiv. Och med sin luftspaltkapacitet har band utan tvekan hjälpt tusentals företag att överleva ransomware-attacker. De största organisationerna i världen – inklusive molnleverantörer – använder tejp. I själva verket ser vi en återuppkomst av tejp eftersom det inte finns något lagringsmedium som används idag i världen som har större densitet och lägre kostnad än tejp, period.

Medan den digitala bandbranschen för säkerhetskopiering av primära skivsystem har minskat från år till år (eftersom IT-säkerhetskopiering har flyttats till diskbaserad teknik) fortsätter behovet av band på den långsiktiga arkivmarknaden att växa. Tejpteknik är väl lämpad för detta utrymme eftersom det ger fördelarna med lågt miljöavtryck på både golvyta och kraft; en hög nivå av dataintegritet under en lång tidsperiod; obegränsad skalbarhet; och en mycket lägre kostnad per gigabyte lagring än något annat lagringsmedium.

Linear Tape Open (LTO) -teknik har varit och kommer att fortsätta att vara den primära bandteknologin. LTO-konsortiet garanterar interoperabilitet för tillverkare av både LTO-bandstationer och media. År 2018 introducerades den åttonde generationen av denna teknik, vilket ger 12 TB inbyggd (okomprimerad) kapacitet per patron. Senare 2021 förväntas den nionde generationen, LTO-9, införas vid 18 TB (okomprimerad): en kapacitetsökning på 50% jämfört med LTO-8. LTO-konsortiet tillhandahåller en mycket robust LTO-färdplan när det gäller framtida produkter hela vägen till LTO-12 vid en kapacitet på 144TB på en enda media.

En historisk fråga med tejp har varit uppfattningen att det är “svårt att hantera.” HSM (Hierarchical Storage Management) försökte lösa bandets komplexitet genom att tillhandahålla ett standardnätverksfilgränssnitt till en applikation och låta HSM hantera bandsystemet. Vad som behövs för att göra band mycket enklare att hantera är ett gränssnitt som accepterar långa hämtningstider med möjlighet att ange att ett obegränsat antal dataenheter ska hämtas samtidigt. Ett nytt de facto standardgränssnitt har dykt upp som, när det stöds av leverantörer av bandsystem, skulle utöka antalet applikationer som skulle kunna använda band. Ett S3-gränssnitt skulle presenteras för applikationen och all data som lagrats på bandet skulle kartläggas som en offline-nivå. Applikationen är dold från alla detaljer i bandhanteringen och samtidigt kunde bandsystemet inte bara hantera bandsystemet utan kan erbjuda avancerade funktioner som flerkopiering, hantering och ommastning utanför webbplatsen – allt gjort transparent för att ansökan. Genom att ha ett bandsystem som stöder detta gränssnitt kan otaliga S3-applikationer använda band utan att behöva modifieras. En framtida produkt har redan tillkännagivits med denna kapacitet, med en annan som sägs släppas 2021.

Vilka är de avgörande faktorerna för organisationer när det gäller att välja mellan moln och lokal lagring och vilka förutsägelser kan du dela om detta ämne?

Nyligen har det pratats, även från molnleverantörer, om starten på nya hybridsystem (i huvudsak hybrid evig lagring), vilket möjliggör användning av antingen moln och / eller lokal bearbetningsfunktion, samtidigt som man tillhandahåller långvarig lagring av de råa och förfinade uppgifterna för den behandlingen, oberoende av var behandlingen sker. De två lagringsnivåerna definieras som Project Tier och Perpetual Tier. Projektlagring kommer alltid att finnas där data är aktiva / bearbetas, antingen i molnet eller på plats. Men med tillkomsten av en ny generation lagringslösningar har organisationer nu möjlighet att välja, oavsett var Project Tier finns, huruvida Perpetual Tier (med inaktiva data) ska placeras i molnet eller på plats .

Det första beslutet som en organisation måste fatta när de beslutar om platsen för både projektet och de eviga nivåerna är att avgöra var bearbetningen ska utföras – antingen i molnet eller på plats. Det finns många faktorer som måste vägas för att fatta detta beslut, till exempel de totala ägandekostnaderna, mångsidigheten som varje organisation ger och affärspreferensen framför kapital eller rörelsekostnader. När man analyserar fördelarna och nackdelarna med ett moln eller en lokal lösning för Perpetual Tier finns det flera saker som organisationer bör fråga sig, till exempel: 1) Hur mycket data kommer att lagras? 2) Hur länge behöver uppgifterna finnas? 3) Hur ofta och hur mycket av informationen behöver återställas? 4) Hur snabbt behöver data återställas? 5) Hur engagerad är min organisation långsiktigt för en viss molnleverantör? Och 6) Har vi de faciliteter och personal som krävs för att upprätthålla en lokal lösning?

När beslutet har tagits att bearbetas i molnet eller på plats eller någon kombination av de två, är nästa beslut att ta var du hittar den eviga nivån – i molnet eller på plats. För att köra processer i molnet krävs att projektdata finns i en online lagringspool för respektive molnleverantör.

Det ideala scenariot kan vara att kunderna har möjlighet att köra Project Tier lokalt eller i molnet, samtidigt som det säkerställer att det permanenta lagringssystemet är lokalt. Detta skulle kräva ett nästa generations lagringssystem. Tänk på ett framtida lokalt lagringssystem där all rådata skickas till det istället för molnet och, när de mottar dessa data, skulle utföra två åtgärder. Det skulle först “synkronisera” data till molnet, för att molnbehandling skulle kunna ske på den informationen, och för det andra skulle det göra en arkivkopia av den informationen till antingen lokal disk eller tejp. Dessutom kan systemet programmeras för att automatiskt radera data i molnet efter en förinställd tidsperiod eller så kunde kunden radera data manuellt när behandlingen var klar.

Vad kan du berätta för oss om framtida teknik och vilka kommer att göra det till mognad?

Att vara en marknad på 50 miljarder dollar per år har lagringsindustrin och kommer alltid att locka till sig satsningar på ny teknik. Många av dessa ansträngningar har lovat en förbättring av en eller flera av de grundläggande attributen för lagring, de är kostnad (per kapacitet), låg latens, hög bandbredd och livslängd. För att vara tydlig har de senaste 20 åren en liten del av den totala riskkapitalinvesteringen ägnats åt utveckling av lagringsenheter på låg nivå, varav majoriteten ägnar sig åt utveckling av lagringssystem som använder befintliga lagringsenheter som en del av deras lösning. Denna utveckling stämmer mer överens med riskkapitalmarknaden genom att de främst är programvarubaserade och kräver relativt små kapitalinvesteringar för att nå produktion. Dessutom har de lägre risker och har snabbare time-to-market eftersom de inte involverar vetenskapliga genombrott i samband med material, ljus eller kvantfysikfenomen.

Mycket av den grundläggande forskningen för avancerad utveckling av banbrytande lagringsenheter är universitets- eller regeringsfinansierad eller finansieras av satsningsmarknaden som enbart ett bevis på koncept. Till exempel gjordes ett tillkännagivande angående lagring av data i fem dimensioner på ett glasstycke eller en kvartskristall som kan rymma 360 TB data, bokstavligen för alltid. Avancerade utvecklingsinsatser fortsätter att försöka lagra data i hologram, en teknik som under lång tid har varit längre än löften. En annan grupp undersöker lagring av data med hjälp av DNA och nyligen fick ett företag 40 miljoner dollar för en idé att lagra data genom att kontinuerligt studsa data mellan rymdsatelliter i låg jordbana.

Utvecklingen på kvantnivå inkluderar lagring av data genom att styra elektronernas “snurr”. Även om dessa och andra ansträngningar har potential att revolutionera datalagring, är det svårt att tro att någon är tillräckligt mogna vid denna tidpunkt för att avsevärt påverka det digitala universum genom minst 2030. Historiskt har många lagringsteknologier visat löfte i prototypfasen , men har inte kunnat ta ett steg till produktionsprodukter som uppfyller kostnaden, robustheten, prestandan och viktigast av allt, tillförlitligheten hos den nuvarande tekniken på marknaden. Med tanke på införandet av molnleverantörer kan vägen att marknadsföra några av dessa tekniker bli lättare.