[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Umrechung



Hallo Hasan,

bei Deinen Ausfuegrungen zu "unicode" gehst Du davon aus als gaebe es in
einem Rechner nur Character einer bestimmten Sprache.

Die Rechner - wie der Name sagt - wurden jedoch urspruenglich zum
"Rechnen" entwickelt. Zum Rechnen bedarf es jedoch noch ganz anderer
Groessen, z.B. Maschinencodebefehle wie "binaer addieren/subtrahieren",
vergleichen, shift-Befehle, etc. Es gibt Register, es gibt den
Adressraum und vieles mehr.
Ich glaube , auch die heutigen Rechner werden intern nicht viel mehr als
ein Byte Befehlsvorrat haben. Eine Multiplikation laeuft intern als eine
Folge von Shift/Addier- und Vergleichsoperationen ab. Sie wird also um
so langsamer je mehr bits ein Datenwort hat. Deswegen hat man sich
historisch auf ein Minimum an Bits festgelegt. Bei der Darstellung von
Zahlen (Gleitkommazahlen) gab es schon immer groessere Verwirrung beim
Export von einem Rechner zum anderen ( z.B. IBM nach DEC und umgekehrt
). Jeder Nutzer musste sich genau Rechenschaft ueber die Genauigkeit
seiner Ergebnisse verschaffen.  Auch der Vorlaeufer des PC , der Chip
Intel 8080 hatte meines Wissens nur ein 8bit Rechenwerk.

Heute ist die Kapazitaet der Rechenwerke und der Speicher nicht mehr so
ein Problem. Man kann sich jedoch auch fragen, warum sollte ein Byte
nicht 32 bit haben- wie die heute am meisten benutzten Betriebssysteme ?
Groessere Rechner haben inzwischen Rechenwerke mit 64 oder 128 bit. Wer
also viel rechnet,  denkt also mehr an die Groesse des Datenworts und
die erzielbare Genauigkeit.

Vielleicht kann Wulf einmal einen Diskurs ueber die Historie der
Zahlendarstellungen in der Rechnerei geben. Ich selbst habe naemlich
noch mit 5-Loch Lochstreifen (Uralt-Siemens-Teletype),
8-Loch-Faltlochstreifen (DEC), 16-Loch-Lochkarten angefangen. Die
Lochstreifen konnte man noch erfuehlen, wenn sie durch die Hand liefen,
fast wie bei der Braille-Schrift.(g)

Viele Gruesse
Dieter
D.Schuell_bEi_gsi.de