Skip to main content

Hva er dataduplisering?

Data -deduplisering er en teknikk for å komprimere data der duplikatdata blir slettet, og opprettholder en kopi av hver informasjonsenhet om et system i stedet for å la multipler trives.Kopiene som er beholdt har referanser som lar systemet hente dem.Denne teknikken reduserer behovet for lagringsplass og kan holde systemer i gang raskere i tillegg til å begrense utgiftene forbundet med datalagring.Det kan fungere på flere måter og brukes på mange typer datasystemer.

I filnivå-deduplisering, ser systemet etter dupliserte filer og sletter ekstrautstyret.Deduplisering på blokknivå ser på blokker med data i filer for å identifisere fremmede data.Folk kan ende opp med doblet data av en rekke årsaker, og å bruke dataduplisering kan effektivisere et system, noe som gjør det enklere å bruke.Systemet kan med jevne mellomrom pore gjennom dataene for å se etter duplikater, eliminere ekstrautstyr og generere referanser for filene som er igjen.

Slike systemer blir noen ganger referert til som intelligente komprimeringssystemer, eller lagringssystemer med én instans.Begge begrepene refererer til ideen om at systemet fungerer intelligent for å lagre og arkivere data for å redusere belastningen på systemet.Dateduplisering kan være spesielt verdifullt med store systemer der data fra en rekke kilder lagres og lagringskostnader stadig øker, ettersom systemet må utvides over tid.

Disse systemene er designet for å være en del av et større systemfor å komprimere og administrere data.Dateduplisering kan ikke beskytte systemer mot virus og feil, og det er viktig å bruke tilstrekkelig antivirusbeskyttelse for å holde et system trygt og begrense viral forurensning av filer, mens du også sikkerhetskopierer på et eget sted for å adressere bekymring for datatap på grunn av strømbrudd, skade påutstyr, og så videre.Å ha dataene som er komprimert før sikkerhetskopiering vil spare tid og penger.

Systemer som bruker data deduplication i lagringen kan kjøres raskere og effektivt.De vil fortsatt kreve periodisk ekspansjon for å imøtekomme nye data og for å adressere bekymring for sikkerhet, men de bør være mindre utsatt for å fylle opp raskt med dupliserte data.Dette er en spesielt vanlig bekymring for e -postservere, der serveren kan lagre store datamengder for brukere og betydelige biter av den kan bestå av duplikater som de samme vedleggene som er gjentatt om og om igjen;For eksempel har mange mennesker som e -post fra jobben knyttet til bunntekst med e -postadvoldsfraskrivelser og firmalogoer, og disse kan spise opp serverplass raskt.