Skip to main content

Hvad er kapacitetsoptimering?

Kapacitetsoptimering består af forskellige og alligevel ofte komplementære metoder til både lagring af data og reduktion af lagringsbehov, når man foretager sikkerhedskopier.Ofte foretager virksomheder og individuelle virksomheder flere sikkerhedskopier af arbejde, og behovet for at gemme, indeksere og hente data kræver optimering for at reducere mængden af hardware og resulterende omkostninger, der er nødvendige for at håndtere alle disse data.Når der foretages sikkerhedskopier, er der ofte afskedigelser og kun små ændringer mellem sikkerhedskopier.I lyset af afskedigelser udtænker kapacitetsoptimeringsstrategier løsninger, der reducerer opbevaringsomkostninger og størrelse i sikkerhedskopier, reduceret fra originalerne så meget som 95 procent.Kapacitetsoptimering er undertiden kendt som båndbreddeoptimering, når det bruges i bredt netværksnetværk (WAN) -applikation for at muliggøre større gennemstrømning, når man transmitterer og modtager data på et netværk.

Datakomprimering gør generelt brug af kodningsteknikker for at reducere størrelsen på data, der gemmes eller gemmes ellertransmitteret.Afhængig af om nogle data kasseres i processen, kan de være karakteriseret som tabende mdash;mister data mdash;eller tabsfri.Scanning af dataene for afskedigelser eller gentagelse og udskiftning af disse med krydshenviste og indekserede tokens giver mulighed for store reduktioner i den nødvendige opbevaringsplads.Data Suppression Codebooks Guide Accelerators i kommunikation til at synkronisere og bruge enten hukommelse eller en harddisk til at skrive komprimeringshistorier i et lageropbevaringssted, der muliggør en transmissionskontrolprotokol (TCP) proxy, der kan bruges som en puffer af pakker eller sessioner, så transmissionshastigheder ikke erreduceret.En anden metode til datakomprimering reducerer størrelsen på data i realtid, da de går til sin første sikkerhedskopi, og dermed gennem yderligere optimering, hvilket resulterer i større besparelser i både rum og tid.

Brug af de traditionelle komprimeringsmidler kan reducere størrelsen pålagrede data i et forhold på 2: 1;Brug af kapacitetsoptimering kan øge denne reduktion til så meget som 20: 1.På udkig efter afskedigelser i byte -sekvenser på tværs af sammenligningsvinduer og ved hjælp af kryptografiske hash -funktioner til unikke sekvenser i algoritmer til deduplikation giver mulighed for segmentering af datastrømme.Disse strømsegmenter tildeles derefter unikke identifikatorer og indekseres til hentning.På denne måde gemmes kun nye datasæt, før de komprimeres yderligere ved hjælp af algoritmer til komprimeringsstandarder.Nogle deduplicationsmetoder er hardwarebaseret, og kombinerer dem med traditionelle softwarekomprimeringsalgoritmer giver både funktionerne mulighed formed opbevaringsinfrastruktur og lignende overvejelser opstår i WAN -scenarier.Et lag kendt som et transportlag skal eksistere mellem applikationer og underliggende netværksstrukturer under transmissioner, hvilket gør det muligt at sendes og modtages effektivt og hurtigt, men alligevel er transportlaget stadig oprettet i 1981, da TCP først blev oprettet og kørt ved 300 baudsats.Derfor bruger Accelerators TCP -proxier, reducerer tab under transmission og gør anerkendelser for at øge størrelsen på pakker ved hjælp af avancerede datakomprimeringsmetoder til at levere flere data pr. Tidssegment.For at overvinde hindringer under transmission samarbejder disse teknikker sammenhængende for at forbedre applikationens ydelse og reducere mængden af forbrug af båndbredde.