Klein aber oho! - Das Bit

Bits begegnen uns oft im Alltag, zum Beispiel bei Übertragungsgeschwindigkeiten. Doch was sind sie überhaupt? Was ist der Unterschied zwischen Bits und Byte? Wie werden sie in der Informatik und im Alltag verwendet? Alle diese Fragen beantwortet Ihnen WechselJetzt.de im folgenden Beitrag. 

Was ist ein Bit?

Das Bit ist die kleinste Informationseinheit der Computersprache und bestimmt die digitale Welt. 1946 wurde die Maßeinheit offiziell von dem Mathematiker John W. Tukey vorgeschlagen. Sie kennen bestimmt die Einsen und Nullen, die zum Beispiel in dem Film “Matrix” die Computerwelt illustrieren. Nun: das ist tatsächlich das, was sich hinter unseren Bildschirmen versteckt! Ein Bit ist eine Einheit und kann eine Zustand haben: Eins oder Null. Diese Zustände können auch als "false" (0) und "true” (1) angegeben werden. Der Name Bit kommt von “Binary Digit”, was im Deutschen Binärziffer bedeutet und sich auf die binäre Informationseinheit bezieht.

binärcode

Im Inneren des Computers kann das Bit auf verschiedene physikalische Weise dargestellt werden. Möglich sind beispielsweise Ladungszustände, Spannungszustände oder aber Magnetisierungszustände.

Okay, aber was ist dann ein Byte?

Ein Byte ist nicht das gleiche wie ein Bit! Ein Byte bezieht sich auf Datenspeicherung, während das Bit Datenübertragung bezeichnet. Ein Byte basiert aber auf Bit, doch da ein Computer zur Speicherung mehr als ein Bit verwendet, wird diese Einheit zu einem Byte zusammengefasst. Ein Byte sind also 8 Bit, und kann so 256 Zustände darstellen. Ganz schön viel für 8 Einsen und Nullen! Es gibt auch kleinere Angaben für Speicherkapazitäten, beispielsweise das Nibble, jedoch sind diese nicht so geläufig.

Wo finden Bits Verwendung?

Bit werden meist zur Betitelung von Übertragungsgrößen verwendet, zum Beispiel für Downloadgeschwindigkeiten aus dem Internet oder Schreibgeschwindigkeit von Speichermedien. Die Größen variieren je nach Verwendungszweck: Von Kilobit bis Terabit ist häufig im Rahmen der Internetgeschwindigkeit zu hören.

Das Bit wird in Bitfolgen zusammengefasst, um etwas anderes als eine simple Zahlenreihe darzustellen. Zum Beispiel sind Buchstaben, Zahlen und noch viel mehr mit komplexen Aneinanderreihungen möglich.

Meist findet man Bits im Kontext zu der Download-Geschwindigkeit, wo Mbit/S oder Kbit/S oft zu hören sind. Diese Angaben betiteln die Größe des Downloads pro Sekunde, also wie viele Bits pro Sekunde heruntergeladen werden können.

Mit verschiedenen Anschlüssen, wie beispielsweise DSL, VDSL oder Glasfaser, kann man die für den alltäglichen Gebrauch die je nach persönlicher Nutzung benötigte Download-Geschwindigkeit leicht erreichen. Die Datenmenge, welche hier pro Sekunde heruntergeladen werden kann, liegt je nach Vertrag zwischen 50 und 1000 Mbit/s. Für den normalen Gebrauch und etwas Streaming sind 100 Mbit/s meist ausreichend. 

 Bits, Bytes und ihr Vielfaches

Für Speicherkapazitäten werden Bytes, aber auch ihr Vielfaches verwendet, bei Übertragungsgeschwindigkeiten werden Bits und ihr Vielfaches genutzt.

Die Verwendung des Vielfachen ist teilweise etwas unterschiedlich. Nach SI-Einheit ist die korrekte Erweiterung nach Zehnerpotenzen gemeint. Das bedeutet, dass 1000 Bit ein Kilobit sind. 

Doch oft wird auch die Zweierpotenz berechnet, das würde dann bedeuten, dass Zwei hoch zehn, also 1024 Bits auch ein Kilobit wären. Um diese Verwechslung zu vermeiden, wird das Vielfache der Zweierpotenz korrekterweise als Kibit bezeichnet. Dies wird auch als binäres Bit bezeichnet. Für 1024 Bit wäre dann ein “Kibibit”.

Um die Bedeutungen der Byte-Größen besser zu verstehen, hier mal eine Einordnung der Größen:

Speicherkapazitäten:

  • 1 MB: ca. 1 Buch
  • 1 GB: ca. 3.333 Bücher
  • 1 TB: ca. 3.333.000 Bücher

Datenverbrauch:

  • 100–200 KB: 1 Bild in einer Messenger-App
  • 100–200 MB: 1 Stunde Videoanruf
  • 300 GB: 100 Stunden Video-Streaming

Kein Bit ist unwichtig!

In vielen Situationen kann ein Unterschied in einer Bitfolge schwere Folgen haben.

Zum Beispiel beim Entsperren eines Mobiltelefons mit Hilfe eines Fingerabdrucks muss das Computerprogramm so geschrieben sein, dass es mit kleinen Unterschieden in der Bitfolge des gespeicherten Fingerabdrucks und des neu eingegebenen Fingerabdrucks intelligent umgehen kann. Ansonsten könnte man sein Handy nicht entsperren.

Auch bei Dateien können kleine Unterschiede eine große Auswirkung haben. Wird bei einer ausführbaren Datei ein Bit fälschlich verändert, wird diese meist unbrauchbar. 

Bei CDs und DVDs führen Bitfehler zu Lücken in Bild oder Ton, bei Daten-CDs sind selbst kleine Fehler fatal, wenn die CDs keine Fehlerkorrektur-Codes enthalten.

Bei Computersystemen, welche die Sicherheit von Menschen feststellen, können selbst einzelne Bits über Leben und Tod entscheiden.

Doch um solche und andere Risiken zu minimieren gibt es Möglichkeiten, wie beispielsweise die Redundant-Codierung, eine Möglichkeit hier ist die binäre Quersumme, sodass eine korrekte Datenübermittlung geprüft werden kann.

Fazit

Ein Bit ist also die kleinste Datenmenge in der digitalen Welt. Bits sind eine Möglichkeit der Messung von Übertragungsgeschwindigkeiten, aber nicht zu verwechseln mit Bytes, welche für Speicherkapazitäten verwendet werden.

Fun Fact! Es gibt auch das sogenannte “Quantenbit” (QuBit), welches bei Quantencomputern verwendet wird. Im Gegensatz zu dem normalen Bit kann dieses sowohl die Zustände 1 und 0 einnehmen, als auch beide gleichzeitig.