Managed hosting door True

Back-up en recovery raken uit de mode

Hoe realistisch zijn de voorspellingen van Gartner?

 

Voorspellingen van Gartner (Storagereview.com ) voor 2016 geven aan dat in 2016, 20 procent van de organisaties back-up en recovery technologieën zal hebben vervangen voor exclusief gebruik van snapshots en replicatie. Ook verwacht Gartner dat tegen het einde van 2016 meer dan de helft van de organisaties klantgevoelige data zal opslaan in de public cloud. Zijn deze voorspellingen realistisch en waarom wordt dit verwacht? Computable storage-experts geven antwoord op deze vragen.

De voorspelling dat snapshots en replicatie, back-up en recovery technologieën zal vervangen, klinkt Arend Karssies, country manager bij Netgear, niet geheel vreemd in de oren. ‘Hoewel snapshots van oudsher enkel verkrijgbaar waren in enterprise oplossingen, worden ze tegenwoorden steeds meer gevraagd door mkb-klanten.’  Ook Marcel van Dijk, account manager bij EMC, denkt dat Gartner hier gelijk in zal krijgen, maar hij zegt wel dat we ons wel moeten realiseren dat, hoewel het maken van snapshots eenvoudig is, klanten die daarvoor kiezen geen volledige back-up functionaliteit verkrijgen.

‘Snapshots zijn namelijk een momentopname van een dataset, ooit bedoeld voor het snel maken van een kopie om die dan weer door te geven aan een back-up tool. Een restore van een snap is mogelijk, maar door het ontbreken van catalogue informatie, is het aan gebruikers om files die ze nodig hebben, terug te vinden en zelf restore commando’s te geven.’

Ook Karssies wijst op een aantal punten waar je bij snapshots wel op moet letten. Zo zijn niet alle snapshot-technologieën hetzelfde. ‘Snapshots minimaliseren de impact van dataverlies, dataverwijdering of data corruptie alleen wanneer deze in korte intervallen genomen kunnen worden, tijdens normale werktijden en zonder een impact te hebben op de prestaties en dus op de gebruikers en applicaties.’

Volgens Karssies kunnen klanten alleen dan het gewenste ‘bijna-continue databescherming’ realiseren. Om dit voor elkaar te krijgen moeten storage systemen volgens hem extra software of geavanceerde ‘copy-on-write’ bestandssystemen zoals 'btrfs' of 'zfs' gebruiken. ‘Dan is data op de network attached storage beschermd in strakke intervallen en dus beter beschermd tegen verwijdering of data corruptie.’

‘Wat betreft data replicatie is dit bedoeld voor recovery van de meest courante dataset op een tweede locatie, zodat men bij een ramp snel verder kan met de meest courante data’, zegt Van Dijk. ‘Het lijkt heel handig om deze kopieën ook op de primaire storage omgeving te gebruiken voor back-up of recovery doeleinden.  Maar data protectie mag principieel nooit op de primaire storage en moet derhalve fundamenteel aan heel andere voorwaarden voldoen dan ’slechts’ een kopie van een willekeurige, momentane dataset te zijn.’

Klantgevoelige data

Met de tweede verwachting van Gartner, dat tegen het einde van 2016 meer dan de helft van de organisaties klantgevoelige data zal opslaan in de public cloud, is Karssies het niet geheel eens. Vanuit zijn perspectief, kiezen klanten juist steeds vaker welke data zij in de public cloud willen opslaan en met welke data zij voorzichtiger om willen gaan.

‘Organisaties willen liever het beste van twee werelden en bovendien zijn er in de meeste Europese landen ook duidelijke dataprotectie wetten die voorkomt dat men klantendata in de public cloud opslaat.’ Van Dijk vindt de voorspelling echter wel realistisch aangezien hij merkt dat kosten of snelheid vaak een overweging zijn om gebruik te maken van een public cloud.

‘Vaak realiseren organisaties niet dat zij eigenhandig in staat zijn een alternatief, zoals de private cloud, te bieden die goedkoper en meer Agile kan zijn.  Veel organisatie zijn zich er vaak ook niet van bewust dat zij (gedeeltelijk) gebruik maken van een publieke cloud provider. Deze ontwikkeling kan zich voordoen wanneer afdelingen of individuen vanuit een organisatie, gebruik maken van providers zonder hier de ict-afdeling over te informeren. Dit gebeurt vaak wanneer de interne ict-organisatie niet in staat blijkt de gewenste snelheid of functionaliteit voor bijvoorbeeld file-sharing of een platform voor applicaties te kunnen bieden. Deze ontwikkeling heet ‘shadow IT’.’

Een dergelijke ontwikkeling heeft volgens Van Dijk nadelige consequenties voor integriteit, veiligheid en lock-in, omdat de applicatie niet zonder meer kan worden teruggehaald, kosten niet helder zijn en data niet voldoende is beschermd. ‘Bovendien is de eigenaar van data juridisch verantwoordelijk voor alles wat met zijn of haar data gebeurt’, leg Van Dijk uit.

‘Een public cloud zal nooit deze jurisprudentie kunnen waarmaken. Een data-eigenaar heeft de verplichting te voldoen aan de privacy-wetgeving van het land waar die data is opgeslagen. Wordt daar de wet overtreden, door wat voor omstandigheden dan ook, bijvoorbeeld door een simpele hack, dan zal de eigenaar onder de jurisprudentie van dat land vervolgd kunnen worden. Sommige data kan zelfs onder een exportvergunningstelsel kunnen vallen als het inhoudelijk gevoelige data betreft.’ Van Dijk vindt de verwachting van Gartner dan ook realistisch, maar vraagt zich wel af of de betreffende organisaties deze beslissing al dan niet bewust weloverwogen doen.

De voorspellingen worden door beide experts dus enigszins realistisch genoemd, maar wanneer organisaties in de toekomst daadwerkelijk in de richting van deze voorspellingen gaan, is het raadzaam wel met de genoemde uitdagingen rekening te houden.

Dit artikel is afkomstig van Channelweb.nl (https://www.channelweb.nl/artikel/5206033). © Jaarbeurs IT Media.

6

 

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.