Skip to main content

Was ist Charaktercodierung?

Charaktercodierung in der Computerprogrammierung ist eine Methode oder ein Algorithmus, mit dem eine normalerweise numerische Darstellung eines Zeichens, Glyphen oder Symbols gefunden wird.Die Verwendung von Charaktercodierung in Computern ist erforderlich, da Informationen im Computerspeicher und auf computerlesbaren Medien als Sequenzen von Bits oder Zahlen gespeichert werden.Dies erfordert die Verwendung von Codierung, um nicht numerische Zeichen zu übersetzen, die für die Anzeige oder die menschliche lesbare Ausgabe in ein Formular verwendet werden, das ein Computer manipulieren kann.In einer spezifischeren Anwendung können Hypertext Markup Language (HTML) -Dokumente, die von Webbrowsern gelesen werden, definieren, welche Art von Charaktercodierung sie verwenden, um den Browser zu informieren, welcher spezifische Zeichensatz bei der Anzeige der Informationen im Dokument verwendet werden soll.Es werden mehrere Codierungsschemata verwendet, obwohl viele dieser proprietären und älteren Sets langsam durch die Unicode Reg ersetzt werden.Codierungsstandard.

In den frühen Tagen von Computern, als es nur begrenzte Speicherplatz gab, die grundlegenden Zeichen des englischen Alphabets Mdash;einschließlich Zeichensetzung und Zahlen mdash;wurden in 7-Bit-Sequenzen gespeichert, die 128 verschiedene Zeichen ermöglichen.In diesem ursprünglichen Schema repräsentierte jedes 7-Bit-Byte ein Zeichen des englischen Alphabets, das nacheinander nummeriert ist.Diese Charaktercodierung war effizient und wurde schließlich standardisiert und in den meisten hergestellten Computern verwendet.Obwohl sich das Codierungssystem in den Unicode entwickelt hat reg;Codierungsstandard blieb das Konzept gleich.Jede einzelne Zeichen in einer Sprache steht nämlich in direktem Zusammenhang mit einer einzelnen Zahl innerhalb eines großen Standardzeichensatzes, und diese Zahl verwendet ein Computer, um das Zeichen zu speichern, zu verarbeiten und zu indizieren.

Andere Arten der Charaktercodierung wurden für verschiedene entwickeltGründe dafür.Einige, die speziell auf das englische Alphabet ausgerichtet waren und für Text verwendet werden sollen, zeichten ihre Zeichen nur auf 7-Bit-Sequenzen ab und verbreiten sie dann über 8-Bit-Bytes oder Oktette.Dies hatte den Effekt, 1 Bit pro Oktett zu sparen, was die Zeichenkodierung als Komprimierung effektiv unterhielt.Andere Codierungsschemata versuchten, Basisinformationen über einen Charakter zu liefern, und dann zusätzliche Zeichen, die spezielle Akzente darstellen, die beim Schreiben in einer anderen Sprache verwendet werden konnten, obwohl diese für die einfacheren Eins-zu-Eins-Codierungsmethoden weitgehend aufgegeben wurden.

inHTML -Dokumente, Charaktercodierung entspricht ungefähr dem breiteren Konzept, außer dass die Kodierung definiert wird, die eine ganze Reihe von Zeichen umfasst.Dies kann nicht nur für Fremdsprachen wichtig sein, sondern auch für Dokumente, die bestimmte Symbole für Wissenschaft oder Mathematik verwenden, die nicht in allen Zeichensätzen vorhanden sind.Es kann auch nützlich sein, um Interpunktion und andere Glyphen zu verwenden, die möglicherweise nicht vorhanden sind oder unterschiedlich über Codierungsschemata zugeordnet werden.Dokumente, die eine nicht standardmäßige Zeichenkodierung nicht ordnungsgemäß definieren, können falsch angezeigt oder mit unsinnigen Zeichen und Platzhaltern anstelle von lesbaren Informationen gefüllt werden.