Am 09.01.2021 um 17:57 schrieb Ingo Tessmann:
Am 12.12.2020 um 18:00 schrieb waldemar_hammel
via Philweb
<philweb(a)lists.philo.at <mailto:philweb@lists.philo.at>>:
… leider ist die "semiotik" bis heute, und offiziell, in mehr
unterschiedliche lehrmeinungen und fraktionen/richtungen zerbröselt,
als ein flugzeug teile hat,
und das, BEVOR sie überhaupt zu einem eigentlichen"fachgebiet"
heranwachsen konnte,
was ua auch daran liegt, dass man sich über die einfachsten
grundlagen und begriffe bis heute nicht einigen kann,
weil nicht von << naturwissenschaftlichen einsichten >> als
grundlagen ausgegangen wird, sondern jeder der will seine philosophen
und pseudo-phil. bis esotheren senfe mit einrührt
dabei könnte semiotik eine der überaus fruchtbaren grundlagen, auch
und gerade der naturwissenschaften inkl der mathematik sein
(bzw mathematiker sind bis heute gezwungermaßen ihre eigenen (und
mitunter begnadeten) semiotiker)
Hi wh.,
was zählt sind Formalismen und Experimente, der Rest ist Schall und
Rauch. Viel "Schall und Rauch“ verhüllt auch das "semiotische
Dreieck". Kürzlich bin ich aber auf erhellende die Arbeit "Rethinking
Evolution, Entropy and Economics: A Triadic Conceptual Framework for
the Maximum Entropy Principle as Applied on the Growth of Knowledge“
gestoßen, in der Carsten Herrmann-Pillath "Semeiotic triads as
inference devices“ auffasst (Frankfurt School - Working Paper Series
No. 146):
https://www.econstor.eu/bitstream/10419/37133/1/632139471.pdf
<https://www.econstor.eu/bitstream/10419/37133/1/632139471.pdf>
Abstract: „Recently, the maximum entropy principle has been applied to
explain the evolution of complex non-equilibrium systems, such as the
Earth system. I argue that it can also be fruitfully deployed to
reconsider the classical treatment of entropy in economics
by Georgescu-Roegen, if the growth of knowledge is seen as a physical
process. Relying on central categories of Peirce’s theory of signs, I
follow the lines of a naturalistic evolutionary epistemology. In this
framework, the three principles of Maximum Entropy (Jaynes), Maximum
Power (Lotka) and Maximum Entropy Production can be arranged in a way
such that evolution can be conceived as a process that manifests the
physical tendency to maximize information generation and information
capacity. This implies that the growth of knowledge is the dual of the
process of entropy production. This theory matches with recent
empirical research showing that economic growth can be tracked by
measures of the throughput of useful work, mediated by the
thermodynamic efficiency of the conversion of exergy into useful work.“
hallo ingo,
oh oh, das versucht jemand, so jedenfalls lese ich das pdf, die
ökonomische, soziale usw ausbeutung der massen mit
naturwissenschaftlicher argumentation zu unterlegen (und damit
festzuklopfen),
and i must deny and sharply reject this !
denn: obwohl ich nicht bestreite, dass der heutige soziale zustand der
welt natürlich und wie alles andere auch naturgesetzliche grundlagen hat
und ausdrückt, gibt es als menschlich-/ethisch/moralisch höherwertig das
soziale gewissen, das den heutigen sozialen weltzustand schlichtweg
verbietet (verbieten müsste/sollte/könnte), und wir alle sollten
naturwissenschaftliche grundlagen und naturwissenschaftlich-abgesicherte
ausführungen suchen, den massen-elenden zustand der weltbevölkerung zu
bessern mit dem ziel, ihn -endlich- zu beenden, statt ihn mit
naturwissenschaftlicher argumentation noch zu zementieren.
(alternative wäre nämlich, ca 4-5 milliarden menschen schnellstens
abzutöten, statt sie wie bislang schön langsam vor sich hinkrepieren zu
lassen, um dabei unsre gutsituierten gepflegten händchen unter bedauern
und spenden in unschuld waschen zu können)
dazu hängen entropie und wissenszugewinn meiner ansicht nach NICHT
zusammen, weil auch im obigen artikel der "information"-begriff
falsch/irrig eingeführt und verwendet ist, denn "information" ist, meine
meinung, eben keine physikalische größe, die man verallgemeinern usw
könnte (mein signal=>information=>nachricht prinzip) = physikalisch real
sind nur signale, zb licht, schall, gerüche usw, die in den detektoren
eines empfängers (zb auge) zu "information" aufinterpretiert werden
können (falls empfänger mit detektoren vorhanden), und im empfänger
selbst (zb gehirn) kann "die im detektor gebildete "information" dann zu
nachrichten weiter aufinterpretiert werden (wobei zb bei mensch mehr als
99% der physikalisch-einströmenden signale keine informationsbildungen
und damit auch keine nachrichten-bildungen auslösen, sonst würden wir
binnen sekunden in der signaleflut=>informationsflut=>nachrichtenflut
tatsächlich ertrinken),
und das ganze gilt auch für alle technischen apparaturen, zb messgeräte,
die im besten fall nur 1 signal in 1 information, und im "interpreter"
diese 1 information dann in 1 nachricht umwandeln ...
solange information, signal, und nachricht und die unterschiede
dazwischen in veröffentlichungen, artikeln, papers immer wieder
verwechselt, durchmischt, gar nicht begriffen werden,
muss man über die inhalte der betreffenden artikel nicht wirklich
nachdenken, denn sie können nur falsch sein ...
(schönes beispiel dazu: "schrödingers katze", als an sich gutes
gedankenexperiment, aber ohweh die folgerungen daraus)
"information" ist ein reines detektoren-subjektivum, und daher keine
"reale" physikalische größe wie etwa materie, deshalb ist auch
shannons/weavers "informations-theorie" eine zudem nur quantitative =
syntaktische "detektorentheorie", ihr semantisches pendant fehlt bis
heute völlig (setze dich mal dran!, denn wechselwirkungen beziehen sich
und wirken auf ausschließlich semantiken, als alle realen
weltbestandteile (eben nur) summen von eigenschaften = semantiken sind,
die per ww komplett oder in teilen
modifiziert/austauscht/genullt/erzeugt werden, deshalb brauchen wir
dringend das semantische pendant zu shannon)
gruß,
wh.
--
Diese E-Mail wurde von Avast Antivirus-Software auf Viren geprüft.
https://www.avast.com/antivirus