Dataopslag
20 views | +0 today
Follow
Your new post is loading...
Your new post is loading...
Scooped by Henry van der Zwan
Scoop.it!

Kosten beheren in de Cloud met ‘koude’ dataopslag op nieuwe generatie hard disks.

Kosten beheren in de Cloud met ‘koude’ dataopslag op nieuwe generatie hard disks. | Dataopslag | Scoop.it

Koude opslag betekent acceptabele vertragingen in responstijd maar bespaart op energieverbruik, blijvertje

Henry van der Zwan 's insight:

Terwijl bedrijven en organisaties zich afvragen of ze nu wel of niet een definitieve (gedeeltelijke) overstap zullen maken naar de Cloud, kijken anderen al naar de optimalisatie en kostenbesparingen voor de data die ze in de Cloud hebben staan maar niet vaak gebruiken.

 

Het beschikbaar houden en opslaan van al je gegevens afgestemd op directe online beschikbaarheid gaat steeds meer geld kosten. Terwijl 20-30 % van de data op de meeste netwerken actief is, en waarnaar verwezen wordt als ‘heet’, het overgrote deel van de data, 70-80 %, is inactief of ‘koud’ waarmee bedoeld wordt: onveranderd en niet regelmatig geraadpleegd. Of zoals marktonderzoek IDC koude opslag omschrijft: ‘een methodisch gebruik van een gegevensopslagapparaat of -systeem voor inactieve gegevens waarbij een expliciete afweging wordt gemaakt, waardoor bij het terughalen van de gegevens de responstijden langer zijn dan normaal gesproken aanvaardbaar is voor online- of productietoepassingen’. 

 

Datacenters zoeken zelf ook naar nieuwe producten om kosten te beheersen en hun dienstverlening aantrekkelijker in de markt te zetten omdat de huidige technologieën de grootschalige vraag niet echt goedkoper, concurrerend of effectiever kan maken.

 

Een nieuwe generatie harddisks is echter op komst. Zo worden er harde schijven ontworpen met unieke operationele karaktereigenschappen die zorgen voor een nieuwe classificatie / garantie / level / trier van opslag, archivering en toegankelijkheid bij datacenters.

 

Koude opslag is een opkomende markt. De vraag en behoefte van klanten van datacenters voor opslag voor inactieve data breidt alsmaar uit. Denk dan bijvoorbeeld aan grote hoeveelheden data van e-mailpostbussen, databases, juridische, financiële en boekhoudkundige back-ups enz. Bedrijven en organisaties zoeken naar opslagmogelijkheden. Vooral met het oog op optimale kostenbeheersing.

 

De exponentiële groei / verdubbeling van de creatie van data via het web en de overeenkomstige behoefte deze vast te houden, bewaren en hieruit waardevolle informatie te blijven halen, schept een unieke uitdaging voor grootschalige dataopslag.

 

Cloud service providers moeten snelgroeiende volumes van meestal inactieve data opslaan en beheren. Tegelijkertijd voorzien ze hun klanten van toegang tot de data op bijna elk tijdstip.

Met bijvoorbeeld de nieuwe lijn van WD Ae van HDDs (Hard Disk Drives) wordt een nieuw sub segment gepresenteerd voor grote hoeveelheden opslag voor grote organisaties.

WD concentreert zich op de unieke kenmerken van koude opslag en ontwikkelt producten om de optimale combinatie te leveren voor kostenbeheersing, energieverbruik, opslagdichtheid en intensief applicatiegebruik. Bij een grootschalige cloudstructuur kan een laag energieverbruik al enorm schelen.

 

Het beheer voor cloudnetwerken richt zich nu op een nieuwe trier (level / classificatie) om de variaties in datatemperatuur op te kunnen vangen.  De level voor het opslaan voor koude data heeft andere kritische prestatie eisen nodig dan dynamisch beschikbare data (Trier 1-4).

Zie ook het Uptime Institute 

http://uptimeinstitute.com/professional-services

Het Uptime instituut categoriseert op dit moment datacenters in 4 levels (tier 1-4). Deze levels corresponderen met een aantal garanties voor het type hardware dat is ingezet in het datacenter om te zorgen voor redundantie (meervoudige backup / onderdelen) en de mate van downtime en/ of snelle beschikbaarheid van de data. 


Dit nieuwe level is, zoals gezegd, bedoeld voor data en informatie die niet regelmatig geraadpleegd wordt voor langere perioden achter elkaar en kan gestructureerde, ongestructureerde of semi-ongestructureerde data bevatten die wel tijdloze waarde heeft maar waarvan het schema van zoeken, vinden en terughalen van gegevens onduidelijk, onzeker is.


Als resultaat van de nieuwe generatie hard disks kan de responstijd voor het zoeken, vinden en terughalen van koude data meer ‘relaxed’ gebeuren dan vergeleken met de snelheid waarmee hete data gevonden of beschikbaar moet worden.

 

De hard disks van WD komen in Amerika naar verwachting (met een disclaimer) beschikbaar aan het eind van 2014 en worden verkocht in een box van 20 stuks. Voor meer informatie zie het artikel

 

http://www.wdc.com/nl/products/products.aspx?id=1340#Tab1

 

Bronnen: CNN Money, website Western Digital, Wikipedia

more...
No comment yet.
Scooped by Henry van der Zwan
Scoop.it!

Data of datacollecties (warm en koud)?

An attempt to clear up the confusion in the storage industry about the oft-used term cold storage.
Henry van der Zwan 's insight:

In een artikel op infostor.com  http://bit.ly/1yvYo1a

stelt Henry Newman voor om te stoppen met praten over data en te beginnen met het begrip datacollecties.

 

Wat betekent het bijvoorbeeld als een dataprofessional zegt dat hij ‘koude’ opslag wil?

Dit is de opslag van data buiten het domein van servers met dynamische en ‘hete’ opslag; oude data wordt apart gezet omdat deze niet meer of niet vaak geraadpleegd wordt, maar toch beschikbaar moet zijn. Servers staan in stand-by en verbruiken minder stroom (Stijn Grove op Blogit) - http://www.blogit.nl/koude-data-opslag

 

 Henry Newman pleit voor duidelijke definities en/of het uitdrukken in percentages van de totale opslag omdat het totaal of de som aan toegankelijkheid van wat data tot koude data maakt op dit moment voor verschillende mensen een verschillende betekenis heeft.

 

Zijn voorstel is om datacollecties onder te verdelen in verschillende gradaties (met een knipoog),

 

1. De Poolcollectie; deze data wordt waarschijnlijk nooit gebruikt en niet naar gevraagd, maar je weet maar nooit… Bijvoorbeeld: maximaal 5 TB (terabyte) op een totale datahoeveelheid van 1 PB (petabyte).

2. De IJzig Koude collectie:

Af en toe vraag naar, maar niet vaak gebruikt, bijvoorbeeld maximaal 20 TB op een totaal van 1 PB

3. Koude collectie: Data waar met een bepaalde mate van regelmaat vraag naar is. 50 TB op een totaal van 1 PB

4. Frisse of Waterkoude collectie: regelmatige raadpleging. Bijvoorbeeld 100 TB op 1 PB

 

Over de namen, uitleg en hoeveelheden kun je discussiëren maar Henry Newman wil het maar eens in de groep gooien om ‘koude’ opslag in de toekomst beter te kunnen definiëren.

 

Is dit soort dataterminologie zinloos of verduidelijkt het wel degelijk wat voor soort data we bedoelen?

 

2 belangrijke kanttekeningen:

De collecties zijn gebaseerd op grote hoeveelheden data, bekeken vanuit de dataopslagindustrie en berekend voor een periode van 1 jaar.

Als andere kanttekening kun je plaatsen dat hij feitelijk meer uitgaat van de beschikbare of toegankelijke hoeveelheid en minder van de context waarom data in een bepaalde categorie valt. Het kan ook zo zijn dat de Poolcollectie wellicht groter is dan de IJzig Koude collectie omdat de context of het doel van de data anders is.

 

Verder is het maar weer hoe je het bekijkt; als data vanuit een dynamische omgeving in een e-depot terecht zou komen, wordt de data van de overbrenger een stuk kouder en de data bij de nieuwe zorgdrager warmer.

 

Wanneer ik de begrippen via Henry Newman en Stijn Grove door zou vertalen vanuit Nederlandse archiefbegrippen komen we bij het volgende :),

 

Dynamisch wordt hete data (op eigen servers / cloud*)

Semi-statisch wordt warme data (op eigen servers / cloud)

Statisch wordt koude data. Deze data is overgebracht naar een andere beheerder/zorgdrager en staat op andere servers.

 

*In geval van een cloudleverancier waar hete en warme data staat, verandert de status wanneer de cloudleverancier data naar andere servers verplaatst die geen onderdeel uitmaken van de dynamische ondersteuning voor de bedrijfsprocessen van hun opdrachtgever en waarvan de handeling van wijziging/verplaatsing opgenomen moet worden in een SLA om het verschil aan te geven.

  

Voor de volledigheid meld ik hier de databegrippen die de Rijksoverheid en het Centraal Bureau voor de Statistiek gebruikt.

Dataoverheid.nl spreekt van datasets bij open data http://www.rijksoverheid.nl/opendata

 

Het CBS spreekt over dataverzamelingen - http://www.cbs.nl/nl-NL/menu/methoden/dataverzameling/default.htm

 

 

 

 

 

 

 

more...
No comment yet.
Scooped by Henry van der Zwan
Scoop.it!

Data opslag; een stap en 360° verder met Datagravity

Data opslag; een stap en 360° verder met Datagravity | Dataopslag | Scoop.it
A well-funded startup, DataGravity promises to unlock the potential of data stored on its appliances.
Henry van der Zwan 's insight:

Datagravity belooft het potentieel van data te ontsluiten wat is opgeslagen op hun apparaten en platform.

 

Hoe gaan ze om met opgeslagen data?

 

Ze beloven zoals zij omschrijven: een zicht van 360° op data. Hun opslagplatform maakt het mogelijk gebruikerspatronen te volgen. Biedt ‘content-aware’ en ‘discovery tools’.

Informatie kan verzameld worden over topgebruikers en hoeveel ruimte hun content nodig heeft. Of wie de meeste actieve gebruikers zijn. Of over data die voor langere tijd niet is opgevraagd. Deze laatste noemt men Dormant (inactieve) data (‘koude’ data; zie mijn vorige scoop)

 

De informatie bij Datagravity is in traditionele omgeving beschikbaar en virtueel.

 

Een video op de website toont hoe dit nuttig kan zijn.

http://datagravity.com 

Een beheerder kan gaan onderzoeken en boren in de inactieve data en zien welke mappen of bestanden niet zijn geraadpleegd of opgevraagd. Met deze informatie kan de beheerder een plan ontwikkelen de data te verwijderen of te archiveren, daarbij weer ruimte makend voor meer opslag.

 

Nog een voorbeeld voor het Datagravity-dashboard is “mapcategorieën”.

Hier o.a. categorieën voor audio-, gecomprimeerde-, databases-, spreadsheet-, video-, afbeeldingbestanden

 

Mappen en bestanden opgeslagen via Datagravity worden geopend en informatie wordt gefilterd en geïndexeerd voor gebruik in search en discovery tools. De mappen kunnen worden onderzocht op overtredingen van compliance ( een persoon of organisatie werkt wel/niet in overeenstemming met de geldende voorschriften, wet- en regelgeving).

 

Kern is dat de data in de diepere lagen van content en inhoud gezocht en gefilterd kan worden en verder reikt dan alleen de bestandsnaam, map en locatie.

 

Datagravity spreekt van een innovatieve manier van data opslag.

Eerste producten verschijnen in de “Discovery series” zo’n € 40.000 – € 80.000

Oprichters Paula Long en John Joseph

 

Auteur Keith Ward op Virtualization Review

http://bit.ly/XASPBH ;

Zie ook Wall Street Journal

http://on.wsj.com/1pGtyjF

 

vrije vertaling Henry van der Zwan

 

 

more...
No comment yet.