Skip to main content

Hvad er Data Deduplication?

Data -deduplikation er en teknik til komprimering af data, hvor duplikatdata slettes, hvilket opretholder en kopi af hver informationsenhed på et system i stedet for at give multipler mulighed for at trives.De tilbageholdte kopier har referencer, der giver systemet mulighed for at hente dem.Denne teknik reducerer behovet for opbevaringsplads og kan holde systemer kørende hurtigere ud over at begrænse udgifter forbundet med datalagring.Det kan fungere på flere måder og bruges på mange typer computersystemer.

I filniveau-data-deduplikation ser systemet efter eventuelle duplikerede filer og sletter ekstramateriale.Deduplication på blokniveau ser på blokke af data inden for filer for at identificere fremmede data.Folk kan ende med fordoblede data af en lang række årsager, og at bruge datadeduplikation kan strømline et system, hvilket gør det lettere at bruge.Systemet kan periodisk pore gennem dataene for at kontrollere for duplikater, eliminere ekstramateriale og generere referencer til de filer, der er efterladt.

Sådanne systemer omtales undertiden som intelligente komprimeringssystemer eller lagringssystemer med enkelt instans.Begge udtryk henviser til ideen om, at systemet fungerer intelligent til at gemme og arkivere data for at reducere belastningen på systemet.Data -deduplikation kan være særlig værdifulde med store systemer, hvor data fra en række kilder opbevares, og opbevaringsomkostninger konstant er stigende, da systemet skal udvides over tid.

Disse systemer er designet til at være en del af et større systemTil komprimering og styring af data.Datuplikation af data kan ikke beskytte systemer mod vira og fejl, og det er vigtigt at bruge tilstrækkelig antivirusbeskyttelse til at holde et system sikkert og begrænse viraludstyr osv.At have de komprimerede data, før de sikkerhedskopierer, sparer tid og penge.

Systemer, der bruger datadeduplikation i deres lager, kan køre hurtigere og effektivt.De vil stadig kræve periodisk ekspansion for at imødekomme nye data og for at tackle bekymringerne om sikkerhed, men de skal være mindre tilbøjelige til at udfylde hurtigt med duplikerede data.Dette er en særlig almindelig bekymring på e -mail -servere, hvor serveren kan gemme store mængder data for brugere og betydelige bidder af det kan bestå af duplikater som de samme vedhæftede filer, der gentages igen og igen;F.eks