Missverständnisse

Warum normale Menschen und Informatiker immer aneinander vorbeireden. Es liegt an der Zweier-Basis.

Alltägliche Phänomene: Die neue 80-Gigabyte-Festplatte bietet gerade einmal 75 Gigabyte Platz, eine 2-MBit-DSL-Leitung schafft keine zwei Megabyte in einer Sekunde, sie braucht auch deutlich länger als acht Sekunden dafür. Hier stoßen einfach zwei Welten aufeinander: die der normalen Menschen und die der Informatiker. Letztere haben die Eigenschaft, nur in Vielfachen von Zwei zu rechnen, erstere bevorzugen das Dezimalsystem. Damit lassen sich die meisten Missverständnisse erklären.

Die Welt der Informatiker beginnt und endet bei Null und Eins. Das kleinste Element in einem Computer kann entweder den Zustand Null oder Eins haben – ein Bit. Fügt man acht Bits zusammen, kann man so 256 (28) verschiedene Zeichenfolgen abbilden, das entspricht dem soge- nannten ASCII-Code, der die wichtigsten Zeichen wie Buchstaben, Zahlen, Satz- und Rechenzeichen enthält. Daher werden die Achter-Folgen zu einem Byte zusammengefasst. Damit ist auch schon der Unterschied zwischen 2 Megabit und 2 Megabyte klar: Letzteres ist die achtfache Menge des ersten. Aber Marketingmenschen finden, dass „2-MBit-Leitung“ nun mal beeindruckender klingt als „250-KByte-Leitung“.

Illustration: Hannes Geipel

Im normalen Alltag sind die Tausender jeweils eine markante Zahlenmarke und werden gern durch „Tausenderpunkte“ verdeutlicht. 210 ist 1.024, der bekannten 1.000 also recht nahe. Ein Informatiker bezeichnet mit einem Kilobyte 1.024 Byte und somit 8.192 Bit. Ein normaler Mensch versteht darunter 1.000 Byte und somit 8.000 Bit – 2,4 Prozent Unterschied zur Informatikerwelt. Rechnet man zu „Mega“ weiter, wird die Differenz noch größer. Der Informatiker rechnet 1.024 mal 1.024 = 1.048.576 – fast fünf Pro- zent Unterschied zur normalen 1.000.000. Bei „Giga“, „Tera“, „Peta“ und so weiter wird der Abstand zum Dezimalsystem jeweils noch größer.

Illustration: Hannes Geipel

Die Kombination aus dem Faktor acht zwischen Bit und Byte und dem Faktor 1.024 statt 1.000 führt gerade bei großen Zahlen zu erheblichen Abweichungen, die im Fall der Festplatte mehr als fünf Gigabyte Differenz zwischen realem und beworbenem Speicherplatz ergeben können.

Aber auch jenseits der Zahlen läuft es in der Informatikerwelt anders. Computer werden nicht angeschaltet, sondern „gebootet“ oder „hochgefahren“; statt sie auszuschalten, müssen sie „heruntergefahren“ werden. Wer diese Berge-Metapher verstanden hat, wundert sich nicht über zweckfreie Flucht-Tasten (Escape) und hat sich damit abgefunden, dass es Welten gibt, die anders rechnen und funktionieren als jene um uns herum.

erschienen in „bus“, Winter 2007

Nachtrag (2010)

Mit Mac OS X 10.6 („Snow Leopard“) hat Apple die Zählung des Speichers auf das Dezimalsystem umgestellt. Damit ist ein Gigabyte auch genau 1.000.000.000 Byte groß. Eine 160-Gigabyte-Festplatte wird auch im System als 160 GB und nicht als 142 GB angezeigt.

Alexander Florin: Alexander Florinein Kind der 70er • studierter Anglist/Amerikanist und Mediävist (M.A.) • wohnhaft in Berlin • Betreiber dieses Blogs zanjero.de • mehr über Alexanders Schaffen: www.axin.de ||  bei Google+ || auf Twitter folgen

Ein Kommentar

  1. Pingback: Der Apple-Faktor: Die Anfänge | zanjero.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*