Historische Entwicklung der Zeichensätze

Anhang ›› EDV Allgemein ››
Parent Previous Next

Geschichtlicher Rückblick:


Die ersten aus integrierten Schaltkreisen zusammengesetzten Computer wurden in den USA entwickelt. Da der amerikanische Zeichenvorrat keine Umlaute oder sonstigen Sonderzeichen kennt, reichten anfangs die 128 verschiedenen Zeichen, die in 7 Bits kodiert werden können, völlig aus. Das 8. Bit wurde als Parity-Bit zur Feststellung von Fehlern bei der Leitungsübertragung verwendet. Daraus enstand der erste 7 Bit umfassende internationale Zeichencode namens ASCII (American Standard Code for Information Interchange).


Einige Jahre später stellten die Amerikaner fest, daß es auch andere Länder gibt, die eigene Sonderzeichen haben. Daraufhin wurde auch das 8. Bit verwendet, was den Zeichenvorrat von 128 auf 256 Zeichen erhöhte.


Als Schlußfolgerung daraus ergibt sich z.B.,


Da aber jedes Land andere Sonderzeichen bevorzugt, wurden sogenannte Ländercodes eingeführt. In den Konfigurationsdateien kann angegeben werden, welche Ländertabelle beim Booten des Computers geladen wird.


Der 7-Bit-ASCII-Code ist neben dem UniCode mittlerweile der einzige wirklich internationale Zeichensatz, der von Computern in der ganzen Welt gelesen werden kann. Der 8-Bit-ASCII-Code ist jeweils nur regional verbreitet, da die verschiedenen Ländertabellen einen Austausch problematisch machen.


Das Betriebssystem DOS basiert auf dem 8-Bit ASCII-Code.


Als Microsoft vor einigen Jahren sein Betriebssystem Windows einführte, wollte es sich von internationalen Konventionen absetzen und eigene Standards schaffen. Windows basiert daher nicht auf dem ASCII-Zeichensatz, sondern auf dem ANSI (American National Standard Institute)-Zeichensatz, der ebenfalls 8 Bit umfaßt. Um allzu große Konflikte zu vermeiden, sind die ersten 7 Bits und somit die ersten 128 Zeichen (von 0 bis 127) des ASCII- und des ANSI-Zeichensatzes gleich; sie unterscheiden sich nur im 8. Bit und somit in den oberen 128 Zeichen (von 128 bis 255).


Aufgrund der rasanten Verbreitung von Windows schien es eine zeitlang fast so, als ob der ASCII-Code in der westlichen Welt auf Großrechner verdrängt werden würde. Aber seit einigen Jahren wächst auch das Internet gewaltig an, und dieses basiert naheliegenderweise auf dem »alten« 7-Bit-ASCII-Code, und zwar deshalb, weil dieser Code eben weltweit verbreitet und etabliert ist. Das Problem der länderspezifischen Sonderzeichen wird dabei auf elegante Weise durch sogenannte Tags gelöst, die durch sogenannte Escape-Sequenzen ein- und ausgeleitet werden.


Zusammenfassend gilt also, daß jedes über die Tastatur eingegebene Zeichen im Computer in eine ein Byte große Zahl umgesetzt wird; der Wert dieser 8 Bit umfassenden Binärzahl richtet sich danach, ob der ASCII- oder der ANSI-Code (oder Unicode) verwendet wird.


Nur für Interessierte sei hier angemerkt, daß es aus folgendem Grund auch Ausnahmen gibt: Früher gab es keine Monitore, da diese unerschwinglich teuer waren, und auch keine der heute üblichen Tastaturen - es wurden einzelne Computerbefehle auf Schreibmaschinen ähnlichen Geräten in Lochkarten gestanzt, die dann dem Operator zum Compilieren und Linken übergeben wurden. Daher gab es damals auch keine Sondertasten wie Funktionstasten, Cursortasten, etc. Diese kamen erst auf, als Monitore sich allmählich verbreiteten, und schon gab es ein neues Problem. Für diese Sondertasten gab es nämlich keinen Platz mehr, da alle der insgesamt 256 verschiedenen Möglichkeiten des 8-Bit-Zeichensatzes schon durch länderspezifische und graphische Zeichen belegt waren. Daher besann man sich auf einen Trick: da der binäre 8-Bit-Wert 00000000, der dem dezimalen Wert 0 entspricht, als nicht druckbares Sonderzeichen namens »NULL« reserviert war, benutzt man diesen, um den Zeichensatz künstlich auf 16 Bit zu erweitern: Wenn eine Sondertaste gedrückt wird, wird zuerst der binäre Wert 0 (nicht die Zahl 0; diese entspricht dem ASCII-Wert 48) erzeugt, anhand derer der Computer erkennt, daß noch ein weiteres Zeichen folgen wird. Dieses zweite Zeichen entspricht nun weder dem ASCII- noch dem ANSI-Code; es wird von Hersteller zu Hersteller verschieden interpretiert. Daher passen PC-Tastaturen z.B. nicht an einen Apple-Computer. Es gab sogar früher einen Umschalter an den PC-Tastaturen zur Wahl des XT- oder des AT-Modus'. Im Gegensatz zu den »normalen« Tasten werden bei Sondertasten also 2 Bytes statt wie üblich 1 Byte von der Tastatur an den Computer geschickt.