Skip to main content

Was ist eine verlustfreie Datenkomprimierung?

Verlustlose Datenkomprimierung ist eine Computermethode zum Speichern von Dateien und zum Kombinieren von Archiven, die weniger physischen Speicherplatz im Speicher einnehmen als die Dateien, ohne Informationen zu verlieren, ohne Informationen zu verlieren, die die Daten im Prozess enthalten.Die Verlustkomprimierung reduziert dagegen die Dateigröße mit Annäherung an die Daten, und die Wiederherstellung hat ein enges Faksimile gegenüber dem Original -Dateiinhalt.Algorithmen, die für die verlustfreie Datenkomprimierung verwendet werdenZu den Komprimierung gehören die computergestützten ZIP- und UNIX-Computer-basierten GZIP-Dateiarchive der International Business Machines (IBM).Außerdem werden Bilddateiformate wie das Grafik -Interchange -Format (GIF), tragbare Netzwerkgrafiken (PNG) und Bitmap (BMP) -Podien (BMP) verwendet.Die Datenkomprimierungsalgorithmen variieren auch basierend auf dem zusammengedrückten Dateityp mit gemeinsamen Variationen für Text-, Audio- und ausführbare Programmdateien.

Die beiden Hauptkategorien von Algorithmen für die verlustfreie Datenkomprimierung basieren auf einem statistischen Modell der Eingabedaten und einem Zuordnungsmodell von Bit -Zeichenfolgen in einer Datendatei.Routine statistische Algorithmen sind die Burrows-Wheeler-Transformation (BWT), der 1977 veröffentlichte Algorithmus von Abraham Lempel und Jacob ZIV (LZ77) und die Vorhersage durch partielle Matching (PPM) -Methode.Zu den häufig verwendeten Zuordnungsalgorithmen gehören der Huffman -Codierungsalgorithmus und die arithmetische Codierung.

Einige der verlustfreien Datenkomprimierungsalgorithmen sind Open -Source -Tools, und andere sind proprietär und patentiert, obwohl auch Patente auf einigen abgelaufen sind.Dies kann zu Komprimierungsmethoden führen, die manchmal auf das falsche Dateiformat angewendet werden.Aufgrund der Tatsache, dass bestimmte Datenkomprimierungsmethoden miteinander nicht kompatibel sind, können gemischte Dateien eine Komponente einer Datei häufig beeinträchtigen.Beispielsweise kann eine Bilddatei mit komprimiertem Text eine Verschlechterung der Lesbarkeit des Textes anzeigen, nachdem nach dem Wiederherstellen nachgewendet wird.Scanner und Software, die eine Grammatikinduktion verwenden, können Bedeutung aus Text extrahieren, die zusammen mit Bilddateien gespeichert sind, indem sie eine sogenannte latente semantische Analyse (LSA) anwenden.

Eine andere Form der Mapping -Algorithmus -Methode zur Verlustdatenkomprimierung ist die Verwendung von Universalcode.Flexibler zu verwenden als Huffman -Codierung und erfordert keine Kenntnis der maximalen Ganzzahlwerte im Voraus.Die Kodierung von Huffman und die arithmetische Codierung erzeugen jedoch bessere Datenkomprimierungsraten.Es sind auch Anstrengungen universell, um universelle Datenkomprimierungsmethoden zu erstellen, die Algorithmen erzeugen, die für eine Vielzahl von Quellen gut funktionieren.