Sonderdruck aus: n'm "Naturwissenschaft und Medizin". 3. Jahrgang 1966, Nr. 13, S. 38. Herausgeber: C.F.Boehringer & Soehne GmbH, Mannheim

Hinweis: Dem vorliegenden Text liegt eine aus dem Original durch eine automatische Texterkennung entstandene Version zugrunde. Dieser vom Computer erzeugte Text wurde anschließend redigiert, dennoch können wir nicht ausschließen, daß sich manche Stellen noch versehentlich vom Original unterscheiden.
Als Grundlage authentischer Zitate und zur Klärung evtl. Zweifel können Sie den Original-Scan (12 MB) einsehen. Für den Fall, daß Sie eine nicht mit dem Original übereinstimmende Textstelle entdecken, wären wir Ihnen für eine kurze Mitteilung an uns überaus dankbar.

Was ist Information?

Bernhard Hassenstein

Die "Informationstheorie" stellt einen der folgenreichsten wissenschaftlichen Fortschritte der letzten Jahrzehnte dar. Ihre Terminologie macht es dem interessierten Nichtfachmann jedoch schwer, ihre Bedeutung zu verstehen. Auf unseren Wunsch hat es der Autor unternommen, unseren Lesern den Grundbegriff der neuen Disziplin zu erläutern.

Der Begriff der "Information" ist einer der wichtigsten Termini der Kybernetik. Seine Aufstellung war eine wissenschaftliche Leistung ersten Ranges. An ihr waren mehrere Wissenschaftler beteiligt, und zwar die Mathematiker R. A. FISHER und NORBERT WIENER sowie der Ingenieur CLAUDE SHANNON. Als der eigentliche Schöpfer des Begriffs "Information" gilt jedoch SHANNON, der diesen Terminus zum Mittelpunkt einer mathematischen Theorie, der Informationstheorie, machte.

In diesem Beitrag will ich versuchen, die wissenschaftliche Bedeutung dieses Begriffes zu erläutern, und zwar dadurch, daß ich den Informationsbegriff unserer Umgangssprache dem von SHANNON geprägten wissenschaftlichen Informationsbegriff gegenüberstelle. Dabei stellen sich sogleich drei Fragen:

Gibt es denn, so lautet die erste, nicht nur einen, sondern mehrere Informationsbegriffe mit verschiedener Bedeutung?

Zweitens: Wenn das der Fall ist, wenn also der wissenschaftliche Informationsbegriff vom umgangssprachlichen abweicht, wie kann man dann beide Termini miteinander vergleichen, da doch der umgangssprachliche wahrscheinlich gar nicht eindeutig definiert, sondern unklar und vage ist?

Drittens ist zu fragen: Wie konnte es dazu kommen, daß eine neue wissenschaftliche Disziplin ihren Kernbegriff so definierte, daß er etwas anderes bedeutet als dasselbe Wort in der Umgangssprache? Wird damit nicht zahllosen Mißverständnissen Tür und Tor geöffnet?

Alle diese Fragen sind zu bejahen. Bedauerlicherweise gibt es in der Tat zwei Informationsbegriffe verschiedenen Inhalts, einen uns aus der Umgangssprache vertrauten und einen anderen, welcher die Grundlage von Kybernetik und Informationstheorie darstellt. Jedoch ist der umgangssprachliche Informationsbegriff keineswegs so unklar oder verwaschen, wie man vermuten könnte, sondern ein durchaus gleichwertiges Gegenstück zum wissenschaftlichen Informationsbegriff und daher auch mit ihm vergleichbar1). Leider trifft es auch zu, daß die Unterschiede zwischen beiden Begriffen häufig zu Verwechslungen und Mißverständnissen führen.

Sehen wir uns also die Unterschiede und Übereinstimmungen zwischen den beiden Begriffen näher an! Ich will zunächst den Informationsbegriff der Alltagssprache herausarbeiten. Danach soll dasselbe mit dem wissenschaftlichen Informationsbegriff geschehen, und anschließend wollen wir beide einander gegenüberstellen.

Der Informationsbegriff der Umgangssprache

Was heißt "Information" in der Umgangssprache? Viele Wissenschaftler sind der Ansicht, daß der Sinn umgangssprachlicher Begriffe in der Regel ungenau, verwaschen und schillernd sei. Das ist jedoch nicht zutreffend. Wäre dem so, dann wäre die Fähigkeit jener Schriftsteller und Dichter schlechthin unerklärlich, die auch die kompliziertesten menschlichen Situationen mit unübertrefflicher Präzision zu schildern verstehen, obwohl sie die von ihnen verwendeten Wörter vorher keineswegs der wissenschaftlichen Methodik entsprechend nach genus proximum und differentia specifica definiert haben. Nein, die Wörter der Umgangssprache sind meist sogar sehr genau auf ganz bestimmte Inhalte festgelegt! Allerdings ist dabei der Begriffsinhalt durch eine Vorstellunggekennzeichnet, die das Zentrum, den Schwerpunkt eines Bedeutungsfeldes festlegt, und nicht durch eine Definition.

Zum Ausgangspunkt der Darstellung des Informationsbegriffs der Umgangssprache wollen wir daher auch eine dessen Schwerpunkt entsprechende Vorstellung wählen, und zwar die Vorstellung des "Informationsbüros", also des mit dem Wort "Information" gekennzeichneten Auskunftschalters, wie wir ihn auf Flugplätzen, im Reisebüro, in Banken oder ähnlichen Einrichtungen des täglichen Lebens finden. An einer solchen Stelle können Menschen mündlich oder durch "Informationsmaterial", wie z. B. Prospekte, etwas erfahren über Reisemöglichkeiten, Veranstaltungen, über die Orientierung innerhalb eines bestimmten Gebäudes oder Geländes, kurz über Tatbestände, deren Kenntnis ihnen sonst nicht oder nicht unmittelbar zugänglich wäre.

Wo das Wort "Information" in diesem Sinne verwendet wird, liegt dementsprechend im allgemeinen folgendes vor: Bestimmte Tatbestände, die den Inhalt der jeweiligen Information bilden, sind "repräsentiert" im Gedächtnis von Menschen oder in Bild und Schrift, und sie können weitergegeben werden an Empfänger der Information, also an Leute, welche die betreffenden Tatbestände nicht kennen, aber über sie informiert sein wollen oder sollen. Der Funktion eines Informationsbüros liegt im typischen Falle also ein dreigliedriger Zusammenhang zugrunde (siehe Abb. 1):

  1. Tatbestände als Inhalt der Information,

  2. Worte oder Schriften als Träger der Information, und

  3. vorher noch nicht informierte Menschen als Empfänger der Information.

Vergewissern wir uns, ob alle drei Glieder, die zu einem typischen Informationszusammenhang gehören können, auch notwendig gegeben sein müssen, wenn man im Sinne unserer Umgangssprache von einer Information sprechen will! Die Frage danach ist für das erste und das dritte Glied des Informationszusammenhanges sinnvoll. Ist das erste Glied dieses Zusammenhanges notwendig. gehören also Tatbestände oder etwas Ähnliches als Inhalt zum Wesen einer Information oder ist diese auch ohne Inhalt vorstellbar? Kann man eine Information empfangen, die keinen Gegenstand. keinen Inhalt hat? Mir scheint, daß dies dem Begriff der Information widerspräche. Zeichen oder Laute, die mir gegeben oder zugerufen werden, ohne etwas auszusagen. ohne etwas zu repräsentieren, wären eben gerade keine Information im Sinne unserer Alltagssprache. Eine Information ohne Inhalt ist eine in sich widersprüchliche Vorstellung wie ein Meer ohne Wasser oder ein Ruf ohne Stimme. Information ist hier also stets Information über etwas. Das erste Glied des Informationszusammenhanges, ein Tatbestand oder sonstiger Inhalt, der durch die Informationsträger repräsentiert wird, ist also tatsächlich unentbehrlich.

Die zweite Frage, die sich hier sinnvoll stellen läßt, lautet: Ist, wenn man von "Information" sprechen will, ein Empfänger denknotwendig, der vor Empfang der Information noch nicht im Bilde war? Daß diese Voraussetzung tatsächlich ebenfalls notwendig ist, wird zunächst durch die Überlegung nahegelegt, daß ein Informationsbüro seinen Sinn verliert, wenn alle in Frage kommenden Interessenten den Inhalt der von ihm angebotenen Information schon kennen. Noch stärker ist ein anderes Argument: Es leitet sich aus dem ursprünglichen Wortsinn des Begriffes Information her, der aus dem Lateinischen stammt. Informare heißt wörtlich: einem noch nicht geformten Material, etwa einem Klumpen Wachs, eine bestimmte Form geben, oder, metaphorisch: einem Menschen Bildung vermitteln. Unser Wortgebrauch: "Jemanden informieren" ist etwas weniger prägnant. Aber wir können hier eine Redensart einsetzen, die dem lateinischen informare fast wörtlich entspricht: jemanden "ins Bild setzen"! In der Tat bedeutet ja, jemanden zu informieren, etwas in seiner Vorstellung zu formen. Zum Wesen eines jeden Formungsprozesses gehört nun aber eine bestimmte Bedingung, die ihrer Selbstverständlichkeit wegen meist unbeachtet bleibt, in unserem Zusammenhang aber plötzlich wichtig wird: Eine Formung ist nur an noch ungeformtem oder an anders geformtem Material möglich, nicht aber an einem Material, das schon in der beabsichtigten Weise geformt ist! Formen ist etwas Einmaliges. Daher liegt auch ein innerer Widerspruch in der Vorstellung, man könne jemanden über etwas informieren — "ins Bild setzen" —worüber er bereits völlig im Bilde ist. Auf das Gleiche deuten die Worte, die man unwillkürlich ausspricht, wenn man merkt, daß einem jemand etwas erzählen will, was man bereits weiß: man winkt ab und sagt "danke, ich bin schon informiert". Einen bereits Informierten zu informieren, ist in dem gleichen Sinne unmöglich, in dem man Eis nicht gefrieren, einen Bürger nicht einbürgern, kurz: nichts zu dem machen kann, was es schon ist.

Zum Informationsbegriff der Umgangssprache gehört also als notwendige Voraussetzung auch der noch nicht oder noch nicht vollständig ins Bild gesetzte Empfänger. Eine Information muß für den Empfänger neu sein oder doch etwas Neues in sich tragen.

Abb. 1.

Schema eines dreigliedrigen "Informationszusammenhangs". Er schließt zwei "Übersetzungen" ein: 1. Der Tatbestand wird in Symbole, Bilder oder Signale übersetzt; diese Übersetzung ist in der Abbildung durch den linken Pfeil symbolisiert. 2. Die empfangenen, aus Symbolen, Bildern oder Signalen bestehenden Meldungen werden vom Empfänger "gedeutet", also in seine Vorstellungen übersetzt. Dieser zweite Schritt (rechter Pfeil) kann z. B. dadurch gestört sein, daß der Empfänger einen (etwa fremdsprachigen) Text nicht deuten kann, also nicht in seine Vorstellung übersetzen kann.

Für das Verständnis des Informationsbegriffes ist ferner folgende Überlegung besonders wichtig: Für den Empfänger ist der Inhalt einer Information vor deren Empfang "möglich" oder "denkbar", aber noch nicht sicher. Vor dem Empfang einer Information hat ihr Inhalt eine bestimmte Wahrscheinlichkeit. Durch den Empfang der Information wird der Tatbestand, den die Information repräsentiert, für den Empfänger wahrscheinlicher oder sogar sicher. Dieses "Sicherer-Machen" kann man sogar als die eigentliche Leistung, als die Funktion des Vorgangs der Information ansehen. Jede Information setzt also unter diesem Aspekt einen noch nicht hundertprozentig sicheren "Vor-Zustand" voraus. Informationen verwandeln also Unsicherheit in Sicherheit, oder, noch allgemeiner formuliert: Information verringert Unsicherheit.

Wir können daher ganz allgemein feststellen: Man spricht von Information, wenn Tatbestände oder sonstige Inhalte durch sprachliche oder andere Zeichen repräsentiert sind und in dieser Form für einen noch nicht informierten Empfänger zur Verfügung stehen. Damit sind alle vom Beispiel des Informationsbüros abgeleiteten Bestimmungsstücke des umgangssprachlichen Informationsbegriffs als in der Tat notwendig erwiesen. Ein "Informationszusammenhang" besteht aus drei Gliedern: dem Informationsinhalt, dem Informationsträger (Bild oder Zeichen oder sprachliche Formulierung) sowie dem noch nicht informierten Empfänger. Die eigentliche Funktion der Information: Sie behebt oder vermindert die Unsicherheit des Empfängers.

Wir wollen drei Beispiele betrachten, in denen aus verschiedenen Gründen keine Information zustande kommt. An ihnen läßt sich die eben gewonnene Begriffsbestimmung nachprüfen, außerdem bilden sie den Übergang zur Erörterung des wissenschaftlichen Informationsbegriffs.

1. Beispiel: Ein Wärter eines Zoologischen Gartens sagt mir auf meine Frage, daß die Fütterung der Raubtiere um 4.00 Uhr nachmittags erfolgen werde. Als ich zur angegebenen Zeit dorthin gehe, muß ich aber feststellen, daß die Fütterung bereits um 3.00 Uhr stattgefunden hatte. Ich stelle den Wärter zur Rede und halte ihm vor: "Die Information, die Sie mir gegeben haben, war falsch." — Was heißt hier der Ausdruck "falsche Information"? Antwort: Der Tatbestand — die Zeit der Fütterung — wurde in der Information (also der Mitteilung durch den Wärter) nicht richtig repräsentiert. Die Beziehung zwischen Glied 1 und 2, also zwischen Tatbestand und informierendem Wort war verfälscht. In diesem Sinne spricht man von einer falschen Information.

2. Beispiel: An dem Informationsschalter eines Museums wird mir versehentlich ein Prospekt ausgehändigt, der in einer mir unbekannten Sprache gedruckt ist. In einem solchen Fall stelle ich fest: "Diesem Prospekt kann ich keine Information entnehmen, denn diese Sprache verstehe ich nicht." Im Sinne der Umgangssprache ist das einwandfrei ausgedrückt: Auch wenn die Tatsachen in der mir ausgehändigten Informationsschrift an sich richtig repräsentiert sind, so versagt hier doch die Übertragung der Information an mich als den Empfänger, weil ich die mir angebotenen Sprachsymbole nicht in meine Sprache und meine Vorstellungen übersetzen kann. Hier ist also der Zusammenhang zwischen Glied 2 und 3 gestört, zwischen Information und Empfänger. Das Ergebnis ist eine unverständliche Information.

3. Beispiel: Ein Freund erzählt mir, er habe sich von einer Wahrsagerin mit der Hilfe von Würfeln die Zukunft deuten lassen. Ich halte ihm entgegen: "Mein Lieber, das Würfeln liefert keinerlei Information über irgend etwas! Es besteht nämlich kein sinnvoller Zusammenhang, keine Korrelation, zwischen dem Ergebnis des Würfelns und irgendeinem sonstigen Geschehen." —Warum also liefert der Wurf mit dem Würfel keine Information? Weil kein Bedeutungszusammenhang besteht zwischen irgendeinem Tatbestand (1. Glied des Informationszusammenhanges) und dem angeblichen Informationsmittel (2. Glied). Das Resultat ist in diesem Falle eine Schein-Information.

Diese drei Beispiele — von der falschen, der unverständlichen und der Schein-Information —habe ich hier nicht nur deshalb angeführt, weil sie den zwiefachen Zusammenhang, der für das Zustandekommen einer Information im Sinne der Umgangssprache notwendig ist, nämlich den Zusammenhang zwischen 1. Tatbestand und Information sowie 2. zwischen Information und Empfänger, bestätigen, sondern auch deshalb, weil sich an ihnen der Unterschied zum naturwissenschaftlichen Informationsbegriff besonders deutlich machen läßt. Ich möchte diese Verdeutlichung mit einer Feststellung einleiten, die dem Leser im ersten Augenblick fraglos höchst befremdlich vorkommen wird. Sie besteht darin, daß in jedem der drei Beispiele die Schlußfolgerung (falsche, unverständliche oder nur scheinbare Information), so offensichtlich und überzeugend sie auch zu sein schien, trotzdem sofort falsch wird, wenn wir in den drei Fällen statt des umgangssprachlichen den wissenschaftlichen Informationsbegriff einsetzen:

  1. Die "falsche" Information über die Fütterungszeit wäre im Sinne der Informationstheorie weder richtig noch falsch. Im Sinne des wissenschaftlichen Informationsbegriffes wurde in dieser Situation lediglich eine bestimmte Informations-"Menge" übertragen, wobei die Begriffe richtig oder falsch völlig irrelevant sind.

  2. Auch eine "unverständliche" Information gibt es im naturwissenschaftlichen, kybernetischen Sinne dieses Begriffes nicht. In einem Text steckt immer eine bestimmte Informations-"Menge", gänzlich unabhängig von der Verständlichkeit des Textes.

  3. Auch eine Schein-Information gibt es in der Informationstheorie nicht. Beim Würfeln steckt in dem Resultat jedes Wurfes eine bestimmte formale Informationsmenge, gänzlich unabhängig davon, ob durch die gewürfelten Zahlen irgend etwas ausgedrückt wird oder nicht.

Krasser als an diesen drei Beispielen kann man, wie mir scheint, nicht verdeutlichen, daß der wissenschaftliche Informationsbegriff sich von dem der Umgangssprache in grundlegenden Punkten unterscheidet. Der naturwissenschaftliche, kybernetische Informationsbegriff anerkennt einen "Informationsgehalt" ohne Rücksicht darauf, ob eine bestimmte Information richtig oder falsch ist, ob sie verstanden wird oder nicht, ja sogar unabhängig davon, ob mit bestimmten Vorgängen — wie etwa dem Würfeln — überhaupt irgend etwas ausgedrückt wird oder nicht. Ohne Zweifel ist es ungewöhnlich, daß sich ein grundlegender wissenschaftlicher Begriff in seiner Bedeutung so weit von der des gleichlautenden Begriffs der Umgangssprache entfernt, wie es hier geschehen ist. Sehen wir uns daher einmal an, wie es dazu kommen konnte!

Der Informationsbegriff der Kybernetik

Der kybernetische Informationsbegriff ist ein naturwissenschaftlicher Terminus. Für einen Begriff im Bereiche der messenden Naturwissenschaften wird aber — im Unterschied zu umgangssprachlichen Begriffen — bekanntlich zuerst gefordert, daß er zahlenmäßig erfaßbar, also meßbar sei. Zu jedem naturwissenschaftlichen Begriff gehört daher auch eine bestimmte Maßeinheit, sei sie einfach oder zusammengesetzt. Zur Länge gehört als Maßeinheit das Meter, zur Geschwindigkeit die zusammengesetzte Einheit Meter/Sekunde, zum elektrischen Strom u. a. die Stromstärke in Ampere, zur Temperatur die Gradskala nach Celsius, Réaumur, Fahrenheit oder Kelvin. Auch bei der Ableitung des wissenschaftlichen Informationsbegriffs besteht daher die Aufgabe, eine Wesensbestimmung zu erarbeiten, welche "Information" auf irgendeine Weise zahlenmäßig erfaßbar macht und es somit gestattet, sie durch eine Meßvorschrift zu definieren!

Wie sollte das möglich sein? An was für ein Maßsystem könnten wir uns dabei anschließen? Was ist denn "Information" überhaupt, naturwissenschaftlich verstanden? Doch kein physikalisches Etwas wie Energie oder Bewegung, auch nichts Chemisches wie Substanz oder Moleküle? Wo finden wir einen Ansatz? Versuchen wir, zunächst wieder Hinweise in der Umgangssprache zu finden und uns von dort aus in der Richtung auf unser Ziel vorzutasten. Hier bietet sich nun sofort ein in der Umgangssprache geläufiger Begriff an, nämlich die Informations-"Menge". Jeder versteht, was gemeint ist, wenn man auf ein dickes Aktenbündel zeigt und zu jemandem sagt: "Heute liegt viel Information für Sie vor." Damit ist eine Richtung vorgezeichnet, in der wir nach einer Begriffsbildung suchen müssen, die es uns gestattet, ein Maß zu finden, mit dem man eine Informations-"Menge" messen kann.

Im täglichen Leben finden wir auch schon den Ansatz zu einem solchen Maß. Es ist die Anzahl und die Länge der Wörter, die notwendig sind, um einen bestimmten Inhalt auszudrücken. Ein Telegramm kostet ja um so mehr, je mehr Wörter es enthält, jedes Wort bis zu 15 Buchstaben 30 Pfennig. Hier ist also schon im Bereich unserer täglichen Erfahrung etwas handfest Quantitatives, nämlich der Preis eines Telegramms, mit der in ihm enthaltenen Informationsmenge verknüpft. Jedoch kann die Anzahl der Wörter oder auch Buchstaben (oder Ziffern) natürlich auch noch kein endgültiges wissenschaftliches Maß für die Informationsmenge sein, denn wie sehr hängen diese Zahlen von zufälligen Konventionen ab! Gleiche Inhalte bedürfen ja z. B. weniger Buchstaben, wenn sie in englischer, als wenn sie in deutscher Sprache repräsentiert sind. Ferner hängt die Anzahl der Zeichen und der Wörter entscheidend davon ab, wie gewandt oder präzise der Absender sich auszudrücken vermag. Und schließlich hängt die Anzahl auch noch davon ab, was für Zeichen verwendet werden, Buchstaben oder z. B. etwa Morsezeichen, bei denen jeder Buchstabe aus ein bis vier Punkten oder Strichen besteht.

Der Gedanke, eine Informationsmenge durch die Anzahl der Zeichen zu definieren, die zu ihrer Repräsentation notwendig sind, bringt uns unserem Ziel zwar näher, jedoch steht jetzt das Problem vor uns, daß das Ergebnis der Messung einer Informationsmenge ganz verschieden ausfallen kann, je nachdem, welche Zeichen Verwendung finden. Wenn wir weiterkommen wollen, müssen wir also fragen, welche Eigenschaften von Zeichen eigentlich dazu führen, daß man einmal mehr und einmal weniger von ihnen braucht, um eine bestimmte Information auszudrücken. Ich will wieder mit einem Beispiel beginnen, das zwar nicht unmittelbar in den Bereich der Informationsübertragung gehört, das jedoch das gleiche Prinzip besonders deutlich macht. An Stelle von Zeichen handelt es sich in diesem Beispiel um Entscheidungen:

Sechs Pfadfinder sitzen bei schlechtem Wetter in einem Zelt. Einer von ihnen muß jedoch noch einmal nach draußen, um Wasser zu holen. Wer soll es sein? Es wird beschlossen, den Betreffenden auszulosen. An dieser Stelle fassen wir nun drei denkbare Möglichkeiten ins Auge:

  1. Die Pfadfinder verfügen über einen Würfel. In diesem Falle ist die Sache einfach: Jeder der sechs Pfadfinder ordnet sich eine der sechs Ziffern des Würfels zu. Ein einziger Wurf genügt, um zu entscheiden, wer das Wasser holen muß.

  2. Die Pfadfinder besitzen ein langgestrecktes vierseitiges Knochenstück, wie es die alten Römer und bis auf den heutigen Tag die Argentinier als "Taba" zum Glücksspiel benutzen (Abb. 2). Die Taba hat nur vier stabile Lagen. Hier ist es daher unmöglich, durch einen einzigen Wurf einen beliebigen der sechs Pfadfinder zu bestimmen. Um einen aus ihrem Kreise auszulosen, müssen sie die Taba also mindestens zweimal werfen.

  3. Die sechs Pfadfinder können zum Auslosen aber auch eine geworfene Münze benutzen. "Kopf" oder "Adler" entscheiden dabei zwischen zwei Möglichkeiten. Jetzt reichen auch zwei Entscheidungen nicht mehr aus, um einen der sechs Pfadfinder auszulosen: Die Münze muß dreimal geworfen werden!

Abb. 2.

Gebräuchliche Hilfsmittel für die Herbeiführung einer Zufallsentscheidung unter verschiedenen Möglichkeiten. Durch das einmalige Werfen einer Münze läßt sich eine von zwei Möglichkeiten auswählen. Der Wurf einer "Taba" entscheidet über eine unter vier Möglichkeiten (die Taba, heute nach in Argentinien aus einem Mittelfußknochen eines Rindes hergestellt, war schon im alten Rom bei Glücksspielen gebräuchlich). Beim Würfeln schließlich entscheidet jeder Wurf über eine aus sechs verschiedenen Möglichkeilen. Über den Informationsgehalt dieser verschiedenen Techniken der Entscheidung siehe Text.

Um von den sechs Pfadfindern einen bestimmten zu bezeichnen, sind also notwendig:

1 Entscheidung bei sechs möglichen Zeichen (Würfel);

2 Entscheidungen bei vier möglichen Zeichen (Taba);

3 Entscheidungen bei zwei möglichen Zeichen (Münze).

Wir sehen, daß bei einer Entscheidung zwischen gegebenen Möglichkeiten ein Zeichen um so leistungsfähiger wird, je mehr andere Zeichen es außer ihm selbst gibt. Wenn nur wenige Zeichenarten existieren, kann die gleiche Entscheidung nur durch mehrmalige Wiederholung des Bestimmungsvorgangs gefällt werden. Unter Zeichen, die gleich häufig verwendet werden, kommt es für die Differenzierungsleistung des einzelnen Zeichens merkwürdigerweise also darauf an, wie viele andere Zeichen außerdem noch zugelassen sind.

Von den bisher genannten Mitteln zur Entscheidung erwies sich die Münze als merkmalsärmstes: Nur zwei Alternativen, Kopf oder Adler. Ist womöglich ein noch einfacheres Mittel denkbar? Also: Könnten die Pfadfinder auch mit einer Anordnung auskommen. die nur eine einzige Entscheidung zuläßt, also etwa durch den Wurf einer Münze, deren beide Seiten ununterscheidbar gleich sind? Schon während man das ausspricht, spürt man den Widerspruch. In einem solchen Falle wäre ja gar keine Einzelentscheidung mehr möglich, aus der sich die Entscheidung insgesamt aufbauen könnte.

Die Alternative zwischen zwei Möglichkeiten ist also die einfachste denkbare Entscheidung, die Vergabe von zwei zugelassenen Symbolen das einfachste mögliche Los-System. Die darin liegende elementare "binäre" Unterscheidungsmöglichkeit bietet sich daher als Element, als Maßeinheit für den "Entscheidungsgehalt" irgendwelcher Ereignisse an. Sie trägt in der Kybernetik den Namen "bit" (abgeleitet aus dem englischen "binary digit" = binäre Ziffer). 0 und 1 sind, wenn nur diese beiden Zeichen zugelassen sind, "binäre" Ziffern. Ein einzelnes Ereignis, das durch sein Eintreten zwischen zwei gleich wahrscheinlichen Möglichkeiten — z. B. "Kopf oder Adler", oder "0 oder 1" — entschieden hat, repräsentiert somit den elementaren Entscheidungsgehalt "1 bit".

Bitte beachten Sie, daß damit in das neu gefundene Maßsystem für Entscheidungen insofern ein ungewohntes Zahlenverhältnis Eingang gefunden hat, als "1 bit", also die Einheit, zwei alternativen Möglichkeiten entspricht, nicht etwa nur einer. Das aber liegt, wie wir gesehen haben, im Sinn des Begriffes Entscheidung begründet, der erst beim Vorliegen von zwei Möglichkeiten eine "elementare Entscheidung" zuläßt.

Zwei binäre Ereignisse, z. B. das zweimalige Werfen einer Münze, können eine eindeutige Entscheidung für eine unter vier Möglichkeiten herbeiführen. Nach der Definition, die wir besprochen haben, entspräche das dann "2 bit". Drei binäre Entscheidungen differenzieren schon unter acht Möglichkeiten, wie sich jeder leicht selbst klarmachen kann. (Drei Würfe mit einer Münze leisten also etwas mehr als ein Wurf mit einem Würfel!)2) Die Feststellungen, die wir damit am Beispiel des Loswerfens durch die sechs Pfadfinder getroffen haben, lassen sich nun auch auf unser eigentliches Thema, die Übertragung von Nachrichten oder Informationen, anwenden. Zunächst wollen wir dabei noch keine sprachlich formulierten Informationen, sondern einfache Signale ins Auge fassen.

Wir beginnen mit der Frage nach der einfachsten denkbaren Nachrichtenverbindung. Denkt man über diese Frage einmal nach, so stößt man sofort auf ein Gesetz, das dem eben besprochenen Entscheidungsspiel analog ist: Wenn Nachrichten übertragbar sein sollen, müssen mindestens zwei alternative Arten übertragener Zustände zur Verfügung stehen, also die einfache Alternative "entweder — oder". Eine derart einfache Verbindung wird z. B. durch eine Klingelleitung dargestellt. Eine Klingel kann entweder klingeln oder schweigen. Auf diese Weise gibt sie Nachricht darüber, ob jemand Einlaß begehrt. Ihre Einrichtung stellt mit anderen Worten eine übertragbare Entweder-Oder-Alternative zur Verfügung. Sie leistet ihre Aufgabe bekanntlich nicht, wenn sie nur einen Zustand beibehält, wenn sie also entweder immer nur schweigt oder immer nur klingelt. Daraus ergibt sich: Wenn das einmalige Werfen der Münze 1 bit Entscheidungsgehalt liefert, so überträgt auch die Klingelleitung als Beispiel einer elementaren Signalübertragung in jedem Augenblick, gleichgültig, ob sie gerade klingelt oder schweigt, 1 bit an Entscheidung: Die Entscheidung nämlich zwischen zwei Bedeutungen, die beide im voraus bekannt sind3). Es dürfte somit klar geworden sein, daß zwischen dem Werfen einer Münze und einer elementaren Nachrichtenübertragung eine Parallelität besteht: Beide Situationen haben die gleiche Struktur, hier die geworfene (und in bestimmter Weise gefallene) Münze, dort das empfangene Signal. Beide spielen die gleiche Rolle: Sie entscheiden zwischen einer Anzahl gegebener Möglichkeiten. Beim Losen wird die Person bestimmt, die etwas tun soll, beim empfangenen Signal diejenige unter den vorher verabredeten Nachrichten, die man erfahren soll. Von der elementaren "binären" Nachrichtenverbindung, welche nur die Übertragung zweier Signale oder Signalzustände zuläßt, ist es jetzt nur noch ein einfacher Gedankenschritt zur sprachlichen, schriftlich formulierten Information. Diese besteht formal bekanntlich aus Buchstaben. Jeder Buchstabe aber ist ein Element aus dem Alphabet, wie jede Ziffer eines Würfels ein Element aus den ersten sechs Ziffern der Zahlenreihe ist. Einen geschriebenen Buchstaben kann man formal als eine "Entscheidung für eine unter 26 Möglichkeiten" bezeichnen, ebenso wie ein Wurf mit dem Würfel eine von sechs Personen auswählen kann. Daraus ergibt sich auch die Anzahl der bit, die in einem Buchstaben enthalten sind: Aus den oben erläuterten Gründen sind es ld 26, d.h. 4,7 bit. Mit diesem Wert läßt sich in jedem beliebigen Text zahlenmäßig angeben, wieviel bit er (formal) repräsentiert.

Noch immer sind wir, wie sich gleich herausstellen wird, nicht ganz am Ziele, aber das Prinzip, das die Kybernetik anwendet, um sprachliche Informationen meßbar zu machen, dürfte hier schon deutlich geworden sein: In beiden Bereichen, beim Treffen von Entscheidungen durch Losen und ebenso bei der Übertragung von Informationen ist das Maß "bit" gleichermaßen anwendbar. Information ist, formal gesehen: Mitteilung getroffener Entscheidungen! Es dürfte danach auch nicht mehr überraschen, wenn man erfährt, daß diese Überlegungen historisch gar nicht vom Werfen des Loses, sondern zunächst tatsächlich am Beispiel der Signal- und Nachrichtenübertragung durchgeführt worden sind. Formal kommt in beiden Fällen das gleiche heraus: 1 bit, die Alternative zwischen zwei Signalen gleicher Häufigkeit, ist das Einheitsmaß.

Jetzt müssen wir das Gesagte aber noch durch ein weiteres Charakteristikum des wissenschaftlichen Informationsbegriffes ergänzen: Seltene Zeichen oder Symbole tragen mehr Information als häufige. Konkret heißt das z. B. im Falle der deutschen Sprache: Häufige Buchstaben wie e, n oder r tragen weniger Information als seltene Buchstaben wie p, j oder die Umlaute wie ä, ö oder ü. Ich selbst hatte diese Gesetzmäßigkeit zwar viele Jahre lang formal verstanden, sie jedoch noch nicht anschaulich als sinnvoll eingesehen. Eines Tages aber fand ich mich in einer Situation, in der mir deutlich wurde, was es mit dieser "umgekehrten" Beziehung zwischen Buchstabenhäufigkeit und Informationsgehalt auf sich hat. Ich will dieses Erlebnis hier schildern, weil es vielleicht dem Leser die Einsicht in die Zusammenhänge erleichtert:

Vor einigen Jahren war ich in Buenos Aires, um dort Gastvorlesungen über biologische Kybernetik zu halten, während gleichzeitig in der Familie meines Bruders ein "freudiges Ereignis" erwartet wurde. Ich rechnete deshalb mit der Möglichkeit einer entsprechenden telegraphischen Benachrichtigung. Dabei kam mir der Gedanke, daß das Telegramm mich zwar erreichen — daß die Adresse also zutreffend übertragen werden würde — daß aber der Text bei der Übertragung von Erdteil zu Erdteil derartig verstümmelt werden könnte, daß nur noch ein einziger Buchstabe übrigbliebe. Bei diesem Gedankenspiel wurde mir klar, daß es in diesem Falle von entscheidender Bedeutung sein würde, ob dieser einzige erhaltene Buchstabe ein in der deutschen Sprache selten oder häufig vorkommender Buchstabe sein würde. Denn nur ein selten vorkommender Buchstabe hätte mir die erwünschte Information doch noch bringen können: Ein j (an 26. Stelle der Häufigkeitsskala) hätte auf alle Fälle nur bedeuten können, daß ein Junge angekommen sei. Ein ä (Nr. 24 der Häufigkeitsskala) hätte mir mit der gleichen Sicherheit die Geburt eines Mädchens angezeigt, und ein z (17. Buchstabe der Häufigkeitsreihe) hätte eindeutig die Ankunft von Zwillingen gemeldet. Wenn jedoch etwa nur ein e übrigbleiben würde — also der am häufigsten verwendete von allen 29 Buchstaben —so würde ich gar nichts erfahren, denn ein e kommt in allen drei Wörtern: Junge, Mädchen und Zwillinge, vor. Das gleiche hätte für den zweithäufigsten Buchstaben, das n, gegolten. An diesem Beispiel wurde mir anschaulich, daß seltene Zeichen tatsächlich mehr Information tragen als häufig verwendete. Natürlich läßt sich das Beispiel nicht als Beweis für diese Regel verwenden, denn die Zahl der hier in Betracht kommenden Wörter ist viel zu klein, um die Möglichkeit eines Zufalls auszuschließen. Das grundsätzliche Prinzip wird durch dieses Beispiel aber richtig wiedergegeben.

Übrigens fiel auch bei den anderen in diesem Beitrag schon erwähnten Beispielen ein größerer Entscheidungs- oder Informationswert immer mit einer geringeren Häufigkeit des betreffenden Symbols zusammen. Beim Werfen einer Münze z. B. kommt jede Seite im Durchschnitt jedes zweite Mal vor, und jeder Wurf repräsentiert, wie wir gesehen hatten, 1 bit. Beim Würfeln ist jede Zahl dagegen im Durchschnitt seltener, sie kommt nur in einem Sechstel aller Fälle vor. Und der größeren Seltenheit entspricht auch hier ein höherer Entscheidungsgehalt, nämlich ld 6 = 2,6 bit.

Die Erkenntnis, daß der Informationsgehalt eines Zeichens mit seiner Seltenheit zunimmt, soll jetzt zum Ausgangspunkt unseres letzten Gedankenschrittes werden: Seltenheit von Ereignissen bedeutet für die Zukunft, daß die Wahrscheinlichkeit für ihr Auftreten geringer ist, daß sie also seltener zu erwarten sind. Auf diese Weise ist der Informationsgehalt von Ereignissen oder Zeichen außer mit der Seltenheit auch mit der Wahrscheinlichkeit verknüpft, was wir am besten folgendermaßen ausdrücken: Der Informationsgehalt eines Ereignisses oder Symbols hängt davon ab, mit welcher Wahrscheinlichkeit es dort, wo es auftritt, zu erwarten ist. Eine Aussage über den Informationsgehalt eines bereits geschehenen Vorkommnisses oder eines vorliegenden Symbols ist gleichbedeutend mit einer Aussage über die Wahrscheinlichkeit, mit der es dort, wo es auftrat oder vorliegt, im voraus zu erwarten war. Damit ist nun tatsächlich das Ziel erreicht, das wir uns gesteckt hatten: Der Informationsbegriff ist mathematisch faßbar geworden, indem er an einen Mathematischen Begriff, nämlich den der Wahrscheinlichkeit, angeschlossen wurde. Dabei hat sich bestätigt, was schon anfangs zur Sprache kam: Information ist kein physikalisches oder chemisches Prinzip wie "Energie" oder "Substanz", auch wenn sie ihrer als Träger bedarf. Information ist im Rahmen der Kybernetik vielmehr eine mathematische Größe, eine Funktion der Wahrscheinlichkeitsstruktur des ins Auge gefaßten Systems4

Vergleich zwischen den Informationsbegriffen der Umgangssprache und der Kybernetik

Damit ist nun auch der Informationsbegriff der Kybernetik definiert, und wir können ihn jetzt dem Informationsbegriff der Umgangssprache gegenüberstellen. Zu den beiden Begriffsbestimmungen waren wir auf verschiedenen Wegen gelangt: Bei dem der Umgangssprache, indem wir die Bedingungen suchten, die notwendig erschienen, um ihn sinnvoll anwenden zu können, und beim naturwissenschaftlichen Informationsbegriff, indem wir den mathematischen Gehalt, das Quantitative, zahlenmäßig Faßbare an ihm zu entdecken suchten.

Es wäre befriedigend gewesen, wenn beide Wege konvergent zum gleichen Ergebnis geführt hätten. Aber in dieser Hinsicht ist unser Fazit enttäuschend. Es ist in der Tat so, als seien in zwei verschiedenen Sprachen unter Verwendung desselben Wortes zwei verschiedene Dinge definiert worden. Wie erwähnt verwendet die Umgangssprache den Ausdruck "Information", wenn Tatbestände oder andere Inhalte sprachlich oder durch sonstige Zwischenträger repräsentiert sind und in dieser Form für vorher noch nicht informierte Empfänger bereitstehen. In der Kybernetik dagegen ist der Informationsgehalt eines Vorkommnisses, Symbols oder Signals gleichbedeutend mit einer quantitativen Angabe über die Wahrscheinlichkeit, mit der es dort, wo es aufgetreten ist, zu erwarten war.

Es ist gar nicht leicht, zwischen diesen beiden Begriffen überhaupt noch eine Verwandtschaft zu entdecken. Der gewohnte Informationsbegriff der Umgangssprache enthält als wesentliches Kennzeichen den oben eingehend erläuterten dreigliedrigen Informationszusammenhang; beim wissenschaftlichen Begriff sind diese Bestimmungsmerkmale radikal entfallen. Die einzig verbleibende begriffliche Gemeinsamkeit verbirgt sich in dem dritten notwendigen Kriterium des umgangssprachlichen Begriffes, in der Bedingung, daß der Empfänger "vorher noch nicht vollständig informiert" sein darf. Daraus folgt, wie ebenfalls schon erwähnt, daß Information Unsicherheit beim Empfänger behebt oder vermindert. Der wissenschaftliche Begriff aber, der Information durch die "Wahrscheinlichkeit, mit der ein Ereignis (oder Symbol) zu erwarten war", definiert, enthält in ähnlicher Weise die Vorstellung, daß das Eintreffen des Ereignisses die Wahrscheinlichkeit seines Bevorstehens zur Sicherheit werden läßt. In beiden Fällen ist also eine Unbestimmtheit gegeben, im ersten Falle: "vorher nicht informiert", im anderen: "mit Wahrscheinlichkeit zu erwarten". Sie wird einmal durch das Eintreffen der Information, das andere Mal durch den Entscheidungsgehalt des Signals oder des Symbols verringert oder zur Bestimmtheit verwandelt.

Diese Gemeinsamkeit aber, die vorgegebene Unbestimmtheit, ist beim wissenschaftlichen, kybernetischen Informationsbegriff über die Bedeutung der Umgangssprache hinausgehend quantifiziert worden. Umgangssprachlich gibt es nur die Alternativen "nicht informiert" oder "informiert". An deren Stelle tritt bei dem wissenschaftlichen Begriff der Information der zahlenmäßig erfaßte Wahrscheinlichkeitsgrad des ins Auge gefaßten Ereignisses.

Der Informationsbegriff der Kybernetik berücksichtigt also ausschließlich meßbare Eigen-schalten. Beurteilt man die Informationen des umgangssprachlichen Bereiches, also etwa eine sprachlich ausgedrückte Nachricht, durch die Brille des informationstheoretischen Begriffs, so sieht man dort nur noch Zeichenarten, Zeichenhäufigkeiten und andere statistische Beziehungen, die durch die Formel log 1/p erfaßt werden. Ob der Text sinnvoll, verständlich, richtig oder falsch ist oder überhaupt eine "Bedeutung" besitzt, ist demgegenüber irrelevant. Der wissenschaftliche Informationsbegriff erfaßt also nur etwas sehr Allgemeines, Abstraktes. Diese Allgemeinheit ist es dann aber, die ihn auch für andere Phänomene als nur für übertragene Signale oder Informationen anwendbar macht, also z. B. für Zahlenreihen, die durch Würfeln entstehen, oder sogar für beliebige andere Gegebenheiten, die nur die formale Eigenschaft aufweisen müssen, als Auswahl oder Entscheidung aus gegebenen Möglichkeiten angesprochen werden zu können.

Nun sind aber die Gesetzmäßigkeiten, die ich oben am Beispiel des Münzen-Werfens und Würfelns erläutert habe, historisch vom Beispiel der Signalübertragung abgeleitet worden. Dies hatte die für unser Thema entscheidende Folge, daß das "bit" nicht von vornherein, wie es richtig gewesen wäre, als Einheit für das Entscheiden zwischen Möglichkeiten aufgefaßt wurde, sondern als elementare Nachricht, also als Einheit der Informationsmenge. Damit wurde das "bit" zum Zentrum der Informationstheorie. Damit aber wurde zur definierenden Eigenschaft der Information, was nur eines der Kennzeichen der Information im Sinne der Umgangssprache ist, nämlich der Aufbau jeder Nachricht aus Zeichen mit der Fähigkeit zur Entscheidung zwischen verschiedenen Möglichkeiten. Die übrigen Eigenschaften des umgangssprachlichen Informationsbegriffs, vor allem die Dreigliedrigkeit des Informationszusammenhanges, wurden in den quantitativen Begriff nicht aufgenommen, sie blieben unberücksichtigt.

Damit ist ein für allemal festgelegt, daß es für den wissenschaftlichen Informationsbegriff ohne Belang ist, ob eine Buchstabenreihe einen sinnvollen Text darstellt oder durch Würfeln zustande gekommen ist. Ja, so paradox es klingt, so enthält gerade eine Zufallsfolge von Buchstaben informationstheoretisch betrachtet aus bestimmten Gründen das Maximum an Informationsgehalt, ein sinnvoller sprachlicher Text demgegenüber stets etwas weniger. Eben aus diesem Grunde aber ist der wissenschaftliche Informationsbegriff auch dort noch anwendbar, wo keine Informationszusammenhänge vorliegen oder — noch krasser — wo Informationszusammenhänge ausdrücklich verfälscht, gestört oder unterbrochen sind. An solchen Stellen ergehen sich dann in den kybernetischen Texten sprachlich solche Paradoxa wie die Feststellung, daß Würfel, unverständliche Texte oder gar das Rauschen einer Meereswoge "Information liefern".

Welche Folgerungen ergeben sich daraus?

  1. SHANNON hätte für den Begriff "ld 1/p" besser ein nicht mißverständliches Wort wählen sollen, jedenfalls nicht das in wesentlich anderer Bedeutung von der Umgangssprache schon mit Beschlag belegte Wort "Informations"-Gehalt. Wissenschaftlich sehr viel geeigneter wäre für den kybernetischen Terminus wahrscheinlich z. B. der Ausdruck "Negentropie" gewesen.

  2. Da eine Änderung jetzt kaum noch möglich sein dürfte, sollte jeder Informationstheoretiker beide Begriffe kennen und sich stets ihrer Unterschiede bewußt sein, um diese didaktisch hervorzuheben, anstatt sie zu verschleiern. Der Wissenschaftler muß sich vor allem vor dem Trugschluß hüten, daß die Umgangssprache fehlerhaft sei, weil ihr Informationsbegriff sich mit seinem eigenen nicht deckt.

  3. Aus der Geschichte der Entstehung des naturwissenschaftlichen Informationsbegriffes sollten entsprechende Folgerungen gezogen werden. In gewissem Sinne stellt der wissenschaftliche Informationsbegriff einen Verstoß gegen die Umgangssprache dar. Es wäre sicher besser gewesen, einen neuen Kunstausdruck zu prägen, als ein aus der Umgangssprache gewohntes Wort zu nehmen und ihm eine gänzlich neue Bedeutung beizulegen. Dergleichen erzeugt Mißverständnisse und erschwert die Verständigung, mit der Gefahr einer Vertiefung der Kluft zwischen Naturwissenschaft und Öffentlichkeit.

Die Bedeutung des kybernetischen Informationsbegriffs

Zum Abschluß möchte ich noch versuchen, zu erklären, warum die Aufstellung des kybernetischen Informationsbegriffes eine epochemachende wissenschaftliche Leistung gewesen ist.

Den Wert eines neuen wissenschaftlichen Begriffes kann man an zwei verschiedenen Aspekten messen: an seinem theoretischen Wert, also an der durch ihn vermittelten Vertiefung allgemeiner Einsichten, oder an seinem heuristischen Wert, also an der Fülle neuer Tatsachen, zu denen man durch ihn geführt wird. Jedoch erweisen auch theoretische Einsichten in der Regel früher oder später einen heuristischen Wert, weshalb ich hier nur diesen Gesichtspunkt berücksichtigen will. Zunächst ein Beispiel aus der Biologie: Die beiden wesentlichen Organsysteme für die Fernsteuerung und Signalübertragung im lebenden Organismus sind die Hormone und das Nervensystem. Dabei sind die Nerven die Vermittler zwischen all unseren Sinnesorganen und dem Gehirn einerseits sowie zwischen dem Gehirn und Rückenmark und den Muskeln andererseits. Mit ihrer Hilfe werden die Meldungen über aufgenommene Reize von den Sinnesorganen an das Gehirn übertragen, und von hier vermitteln sie die Befehle an die Körperperipherie, also z. B. die Auslösung bestimmter Bewegungen. Für Sinnesmeldungen wie für Befehle wird in den Nerven die gleiche Zeichensprache aus elektrischen Impulsen benutzt, und zwar die monotonste aller Zeichensprachen, die möglich ist: Sie besteht aus kurzen, nur etwa 1/1000 Sek. langen Einzelimpulsen gleicher Dauer und gleicher Intensität. Das einzige, was sich ändert, das einzige, was die Information über Reizstärken und Befehle abbilden kann, ist eine wechselnde Häufigkeit dieser ewig gleichen Impulse, also ihre variierende Frequenz (Abb. 3). Es ist eine kaum glaubliche, ja fast unheimliche Vorstellung, daß die unvergleichliche Vielfalt unseres Erlebens, all dieser Reichtum an Nuancen — von Lichtern, Farben und Formen über den Klang von Stimmen und Geräuschen bis zum Bukett eines Glases Wein und zum Wohlgefühl eines warmen Bades, — daß die Meldungen für all dies in unseren Sinneszellen in eine Signalsprache übersetzt werden, die in allen Fällen die gleiche ist, monotoner noch als das Morsealphabet, und daß diese Signalsprache dann die einzige Grundlage ist, diesen ganzen Reichtum in unserem subjektiven Erleben wieder — oder überhaupt erst — entstehen zu lassen. In der gleichen genormten Signalsprache ist auch noch unsere gesamte Aktivität ausgedrückt, von der Körperbeherrschung des Sportlers über die Bewegungen der Hände eines Pianisten bis zur Stimmgebung des Konzertsängers.

Abb. 3.

Oben: Die Intensität eines Reizes nimmt, von null beginnend, zunächst gleichmäßig zu, bleibt dann eine zeitlang konstant und nimmt wieder ab. Darunter: Vier denkbare Möglichkeiten von Signalen, um die Variation der Reizstärke abzubilden und die Information darüber an einen entfernten Ort zu übertragen. — 1. Der Signalstrom ist nicht in Impulse aufgelöst, sondern gibt die jeweilige Reizgröße durch seine Intensität. Beispiele hierfür: Der Photostrom eines Photoelementes, das Elektroretinogramm der Augen mancher Tiere (meist ist das ERG allerdings insofern komplizierter, als es nicht nur auf die Reizstärke, sondern zusätzlich auf deren Änderungsgeschwindigkeit reagiert). — 2. Der Signalstrom ist in Impulse aufgelöst, welche zeitlich sehr dicht aufeinanderfolgen; die jeweilige Reizstärke wird durch die Impulshöhe abgebildet. (Diese Möglichkeit scheint nirgends verwirklicht zu sein.) — 3. Der "Code" der Nervenfaser: Der Signalstrom ist in Impulse gleicher Impulshöhe (und gleicher Zeitdauer) aufgelöst; die Reizstärke wird durch die Frequenz der Impulse wiedergegeben. — 4. Möglichkeit: Die Reizstärke wird durch die Impulsdauer wiedergegeben. Auch für diese Möglichkeit findet sich weder in der Natur noch in der Technik ein eindeutiges Beispiel.

Die Informationskapazität nimmt in der Reihenfolge 1—2—3—4 ab. Danach allein wäre also nicht zu verstehen, warum in lebenden Organismen bei der Übertragung über weitere Entfernungen ausschließlich der Code Nr. 3 verwirklicht ist. Code Nr. 3 zeichnet sich unter den vier Möglichkeiten jedoch durch die größte Unempfindlichkeit gegen Störungen oder Verfälschungen aus.

Daß alles, was der Mensch erlebt oder tut, auf seinem Wege von der Umwelt bis zum erlebenden Bewußtsein oder auf seinem Wege vom Zentralnervensystem zur ausführenden Muskulatur eine Zustandsform durchläuft, in der es nur in Gestalt der monotonsten überhaupt denkbaren Signalsprache aus genormten Impulsen besteht, darüber hat man sich eigentlich erst zu wundern begonnen, seit es den naturwissenschaftlichen Informationsbegriff gibt. Die durch ihn angeregte neuartige Fragestellung lautet: Welchen funktionellen Sinn hat die Auswahl der zeichenärmsten aller Signalsprachen angesichts einer solchen Fülle zu übertragender Informationen? Mit Hilfe des Informationsbegriffs der Informationstheorie ließ sich diese Frage sozusagen im Handumdrehen beantworten. Die Antwort wurde zuerst von dem englischen Physiologen W. H. RUSHTON gefunden, und bei ihr fällt es dem Biologen wie Schuppen von den Augen: Es gibt ein informationstheoretisches Verfahren, um die Kapazität der Informationsübertragung in einem Nachrichtensystem auf eine solche Weise herabzusetzen, daß damit eine Abnahme der Störungsempfindlichkeit parallel geht. Das ist die Methode der Normierung der Impulseigenschaften. In der Technik wurde ein solches Verfahren in den 30er Jahren erfunden und als Puls-Code-Modulation bezeichnet. Das Prinzip wurde erst später informationstheoretisch gedeutet und begründet. Die vom lebenden Nervensystem benutzte Zeichensprache entspricht nun genau diesem nicht mehr weiter zu vervollkommnenden theoretischen Ideal einer störungsunempfindlichen Signalübertragung, es ist in gewisser Hinsicht also die theoretisch überhaupt erreichbare Endstufe der Puls-Code-Modulation. Dabei hat der Verlust an Übertragungskapazität gegenüber dem Gewinn an Sicherheit kein Gewicht. Die Monotonie der Zeichensprache des Nervensystems erklärt sich auf diese Weise also überzeugend als Ausdruck der höchsten überhaupt erreichbaren Störungs-Unempfindlichkeit. Damit aber ist ein erregendes Grundphänomen der Physiologie mit Hilfe eines der neuen informationstheoretischen Begriffe schlechtweg endgültig verstanden.

Zuletzt noch ein Wort über die Rolle des wissenschaftlichen Informationsbegriffes als Basis und einigendes Prinzip der Bereiche, die man heute zur Kybernetik zählt.

Die Kybernetik wurzelt entsprechend der Idee ihres Begründers, des Mathematikers NORBERT WIENER, in zwei Bereichen, der Technik und der Biologie. Ihr Gegenstand sind die technologischen Prinzipien der Steuerung und Kommunikation, die sowohl in der Technik wie in prinzipiell gleicher Form im lebenden Organismus verwirklicht sind. Ziel der Kybernetik ist es, eine Begriffswelt zu schaffen, die neutral genug ist, um in beiden Bereichen angewendet werden zu können, und die es erlaubt, daß sich Techniker, Biologen, und mit ihnen natürlich auch Physiker und Mathematiker über gemeinsame Probleme in einer gemeinsamen wissenschaftlichen Sprache verständigen können.

Die Grundtatsachen, welche dieses Ziel der Kybernetik erreichbar erscheinen lassen, sind im wesentlichen die folgenden:

  1. Der selbsttätigen Regelung der Technik entsprechen viele biologische Regelkreise, die nach gleichen Prinzipien funktionieren, z. B. unsere Wärmeregulation, die Selbststeuerung des Kreislaufs, die Regulierung der Atmung und viele andere "rückgekoppelte" biologische Funktionen.

  2. Der technischen Nachrichtenübertragung entspricht unter anderem, wie bereits erwähnt, die Signalübermittlung im Nervensystem.

  3. Dem elektronischen Rechenautomaten der Technik — allgemeiner ausgedrückt: der maschinellen Datenverarbeitung — entspricht, zumindest im Hinblick auf bestimmte fundamentale Leistungen, die Tätigkeit des Zentralnervensystems.

  4. Zwischen der Speicherung von Daten in Rechenautomaten und der Funktion unseres Gedächtnisses bestehen funktionelle, wenn auch ihrer Natur nach noch völlig ungeklärte Analogien.

Es sind somit völlig verschiedenartige Dinge, die hier zur Diskussion stehen. Was ist das Gemeinsame an ihnen? Allen gemeinsam ist zunächst ein Negativum: Es handelt sich nicht um Einrichtungen oder Organe zur Energieproduktion oder zum Aufbau von Substanzen. Aber das "Material", mit dem alle diese Systeme zu tun haben, ist außerordentlich unterschiedlich und vielfältig: Bei den Regelsystemen sind es Meßwerte; bei der biologischen Signalübertragung Erregungen von Sinneszellen und Nervenimpulse; bei der technischen Nachrichtenübertragung Nachrichten, übertragene Bilder und anderes; Daten, Rechenbefehle, gespeicherte Zahlenwerte bei elektronischen Rechengeräten, Engramme beim Gedächtnis.

Aber ebenso, wie man in den letzten 100 Jahren in der Vielfalt physikalischer Phänomene wie Wärme, mechanische Arbeit, Elektrizität, Licht, Magnetismus und vieler anderer den Begriff der physikalischen Energie als das Gemeinsame zu erkennen gelernt hat, so sehen die Kybernetiker im Lichte der Informationstheorie als gemeinsames Prinzip von Meßwert, Signal, Zeichen, Nachricht, Rechenbefehl usw. die in ihnen jeweils enthaltene Information im Sinne des wissenschaftlichen, aber auch des umgangssprachlichen Informationsbegriffs. Der Informationsbegriff ist demnach die gedankliche Klammer, welche die technischen und biologischen Teildisziplinen der Kybernetik zusammenfaßt, ihre gemeinsame Wurzel erkennen läßt und ihre Probleme in einer gemeinsamen Sprache zu formulieren gestaltet.


Fußnoten:

  1. Es gibt sogar einen neueren Begriff der Informationstheorie, den der "Transinformation", der dem Informationsbegriff der Alltagssprache fast genau entspricht.

  2. Die mathematische Transformation, mit der man von der Anzahl der Alternativen zur Zahl der "bit" kommt, also

    von 2 auf 1

    von 4 auf 2

    von 8 auf 3

    ist der Logarithmus zur Basis 2 (ausgedrückt durch das Symbol ld = logarithmus dualis); denn ld 2 = 1; ld 4 = 2; ld 8 = 3 usw.

  3. Natürlich kann eine Klingelleitung auch mehr als 1 bit übertragen, z. B. dann, wenn bestimmte Personen vorher miteinander bestimmte Klingelzeichen vereinbart haben, mit Hilfe derer sie nicht nur signalisieren, daß jemand um Einlaß bittet, sondern z. B. auch: Hier ist der und der Bekannte, der Einlaß begehrt. Dazu müssen dann aber mehrere Einzelsignale verwendet werden, also 2 bit oder mehr. Hier herrschen also wieder die gleichen Bedingungen wie beim Werfen des Loses.

  4. Natürlich bedarf die damit erarbeitete quantitative Formulierung des Informationsbegriffes auch des mathematischen Ausdrucks. Er lautet: Der Informationsgehalt I eines Ereignisses oder Zeichens x ist gleich dem log dualis des Kehrwertes seiner Wahrscheinlichkeit, also (in der üblichen mathematischen Zeichensprache) I = ld 1/p. Dies ist die mathematische Form der Aussage, daß die Wahrscheinlichkeit eines Symbols oder Ereignisses seinen Informationsgehalt bestimmt.