Am 22.11.2020 um 03:26 schrieb K. Janssen via Philweb
<philweb(a)lists.philo.at>at>:
> (nach SIN = signale (physikalisch) => informationen (was an signalen
> an detektoren gelangt) => nachrichten (was nachgeordnete einheiten, zb
> hirn, anhand der detektor-informationen daraus aufinterpretieren =>
> autopoiesen) ,
> auch zb im genetischen code sind nur "nachrichten" abgelegt, keine
> "informationen", was dessen interpretationen und übersetzungen so
> eminent schwierig macht
Hi Waldemar,
was meinst Du mit „Code" und „Information“? Siehe z.B. Manfred Eigen: "The
Origin of Genetic Information“ bzw. Peter Schusters Manfred Eigen-Lecture: "Bridging
from Chemistry to the Life Sciences: The genotype or genome contains the complete genetic
information. It comes in different variants or subspecies and is the target of selection
in asexual reproduction. Fixation is the process of selection that leads from distribution
of genotypes to a homogeneous population of the selected variant. Genes are best
visualized here as pieces of the genome, which have a defined function. Alleles are
variants of genes and fixation of a given allele implies that all other variants have
disappeared in the population.“
https://www.tbi.univie.ac.at/~pks/Presentation/goettingen-18text.pdf
<https://www.tbi.univie.ac.at/~pks/Presentation/goettingen-18text.pdf>
Wäre die organismische von der evolutionären genetischen Information zu unterscheiden? Im
Lehrbuch „Genetik“ von Jochen Graw heißt es: "Durch die Vielfalt der Möglichkeiten
der Basenreihenfolge im DNA-Strang wird die zur Existenz eines Organismus erforderliche
Information in der DNA festgelegt. Die Beantwortung der Frage des Informationstransfers
von der DNA als Informationsträger zur praktischen Verwertung im zellullären Stoffwechsel
ist etwas komplexer als es zunächst erschien.“ Ja, wie ist die Information der
Proteinsequenzen in der DNA verschlüsselt? Die Antwort dauerte länger als erwartet und
hat sich nicht als universell erwiesen.
Physiker registrieren theoriegeleitet Signale experimenteller Ereignisse. Die
Informationstheorie ist dabei so redundant wie die Mengenlehre in der Mathematik.
Gleichwohl lässt sich der Zusammenhang auch umkehren und die Theorie bzgl. der optimierten
Fisher-Information aus den Signalen erhalten. Formal ist Informations- bloß angewandte
Wahrscheinlichkeitstheorie: Atome und Leere wie Zahl und Wahrscheinlichkeit?
Daraus werde ich (gerade im Augenblick) nicht schlau!
Dennoch: Was ist
eine informationslose Nachricht wert?! Verflucht nochmal! Ich sollte es
wissen, schließlich habe ich Nachrichtentechnik studiert. Nun ja,
vielleicht zu lange her :-))
Hi Karl,
vielleicht hilft der Blick in ein Lehrbuch? Z.B. Martin Werner, Nachrichtentechnik, Eine
Einführung für alle Studiengänge (also auch für Philosophen?). Darin schreibt der an der
Hochschule Fulda lehrende Prof.: "Ein Signal ist der physikalische Repräsentant einer
Nachricht.“ Und erläutert: "Der Begriff Nachricht, obwohl oder weil im Alltag
vertraut, ist im technischen Sinne schwierig zu fassen. Die Nachrichtentechnik stellt ihm
deshalb den Begriff Signal zur Seite. Während der Nachricht - eigentlich eine Mitteilung
um sich danach zu richten - eine Bedeutung zukommt, ist das Signal der physikalische
Repräsentant der Nachricht, der mit physikalisch-technischen Mitteln verarbeitet werden
kann.“
"Eine Mitteilung, um sich danach zu richten", ist auch das, was unter der
meistens großen Überschrift „INFORMATION“ auf Bahnhöfen oder Flughäfen, in Kaufhäusern
oder Behörden zu lesen ist. Das interessiert Ingenieure aber nicht wirklich, ihnen geht es
lediglich darum, hinsichtlich der Nachrichtenübertragung Signale zu verarbeiten. Wie aber
lassen sich trotz aller Signalmanipulationen die Nachrichten erhalten? Damit hatten sich
bereits in den 1920er Jahren der schwedische Ingenieur Harry Nyquist und in den 1940ern
der amerikanische Mathematiker Claude Shannon beschäftigt.
Norman C. Beaulieu beschreibt 2002 in den PROCEEDINGS OF THE IEEE, wie die Theorie der
Kommunikationstechnik durch Nyquists Analyse der Störungen befördert wurde. 1928
veröffentlichte er "the classic paper, `Certain Topics in Telegraph Transmission
Theory' in the Transactions of the American Institute of Electrical Engineers. The
beginnings of modern communication theory originated with this paper and an earlier
companion paper, `Certain Factors Affecting Telegraph Speed' published in April 1924
in the Bell System Technical Journal. The former paper reprinted in this issue is the
subject of this introduction. It is an elaboration and extension of the earlier paper,
giving a `mathematical' in addition to an `engineering’ point of view of the subject
matter. The paper also comprises ideas, insights, and theories beyond the first paper. In
1928, Nyquist also gave a mathematical analysis of the thermal noise in circuits observed
by Johnson, which claried the implications of the phenomenon for communication circuits.“
Zu dem von Nyquist weiter untersuchten thermischen Rauschen kommt noch das erstmals von
Schottky untersuchte elektronische Rauschen. Was mich seinerzeit im physikalischen
Praktikum beeindruckte, war, wie man aus der Messung von so etwas Nebulösem wie einer
Rauschspannung eine Naturkonstante berechnen konnte. Beim elektronischen Schottky-Rauschen
die Elementarladung e und beim thermischen Nyquist-Rauschen die Boltzmannkonstante k. Im
Gegensatz zum thermischen Rauschen am absoluten Nullpunkt lässt sich das elektronische
Rauschen aufgrund der natürlichen Ladungsquantelung prinzipiell nicht vermeiden.
Shannon nimmt in seiner `Mathematical Theory of Communication' 1948 wieder Bezug auf
das Rauschen, indem er untersucht, wie unter störenden Einflüssen auf den
Übertragungskanal der Informationserhalt gewährleistet werden kann: "The recent
development of various methods of modulation such as PCM and PPM which exchange bandwidth
for signal-to-noise ratio has intensified the interest in a general theory of
communication. A basis for such a theory is contained in the important papers of Nyquist
and Hartley on this subject. In the present paper we will extend the theory to include a
number of new factors, in particular the effect of noise in the channel, and the savings
possible due to the statistical structure of the original message and due to the nature of
the final destination of the information."
Auf diese viel zitierte Grundlagenarbeit zur Informationstheorie verweist natürlich auch
Winter in seinem Lehrbuch: "Eine generische Darstellung der Nachrichtenübertragung
liefert das shannonsche Kommunikationsmodell mit der Informationsquelle (Information
Source), der Nachricht (Message), dem Sender (Transmitter) mit dem Sendesignal (Signal),
dem Kanal mit seiner Störgeräuschquelle (Noise Source), dem Empfangssignal (Received
Signal), dem Empfänger (Receiver), der empfangenen Nachricht (Received Message) und
schließlich der Informationssenke (Destination).“
Shannon definiert die „Information" im Anschluss an die Wahrscheinlichkeit, indem er
die Auswahl von Zeichen aus einem Zeichenvorrat quantifiziert und folgt damit mathematisch
der frequentistischen Definition von Wahrscheinlichkeit. Bei der shannonschen Information
beginnt es also auch mit dem schnöden Zählen, dann kommt die Wahrscheinlichkeit, dann die
mathematische Information. Und wie kommt dabei die Physik ins Spiel? In ihr wird ja nicht
nur gezählt, sondern auch gemessen. Und so gelangt man von Ort und Zeit über Bewegung zu
Energie, Entropie und - physikalischer Information als "negativer Entropie".
Folglich kann „Information“ nicht nur umgangssprachlich, philosophisch oder mathematisch,
sondern auch als physikalische Größe verstanden werden.
Mit informativen Grüßen,
Ingo