Am 12.05.2021 um 07:44 schrieb Landkammer, Joachim via Philweb:
[Philweb]
Liebe Liste,
darf ich die Frage in die hier versammelte Expertenrunde werfen: was ist von dem heute
(12.6.) im Feuilleton der FAZ erschienenen Artikel von Dietmar Dath zur "modalen
Homotopietypentheorie" (HoTT) von David Corfield zu halten? Die hier meist
schreibende und lesende Gemeinde scheint ja offenbar vertraut (viel vertrauter als ich,
zumindest) mit all diesen (scheinbar) neuesten Strömungen der (post-?)analytischen
Wissenschaftsphilosophie und Logik, daher würde mich interessieren, was hierzu gesagt
wird:
- wie relevant und wie sachgerecht wird die Darstellung von Dath eingeschätzt?
- was muß man auch als nicht spezifisch interessierter, trotzdem den sog. "Puls der
Zeit" nicht ganz ignoriend-wollender Philosoph davon verstehen und wissen? Gibt es
simple, auch dem "Laien" zugängliche Alltags-Anwendungen und -Folgen für die
neuen Erkenntnisse? (Dath deutet das immerhin an)
- was genau ist daran neu, weiterführend, revolutionär? Oder: wie hot ist HoTT?
fragt sich
Joachim Landkammer
____________________
Bisweilen fällt es schwer, von tiefgreifenden Themenbereichen,
seien sie
naturwissenschaftlich oder philosophisch angelegt in die reale
Lebenswelt (vor allem durch die augenblicklich von dieser alles
lähmenden Pandemie geprägt) zurück zu finden.
Den von Dir, Joachim, benannten faz-Artikel (Philosophie für Computer
v. D Dath) hatte ich bereits überflogen (er ist leider hinter der
Bezahlsperre), daher erlaube ich mir (als für die online-Zeitung
Zahlender) folgende Passage hier zu zitieren:
Zitat aus faz-Artikel (D. Dath):
Wie man mathematische Objekte verwandelt.
Über die Kategorien und Typen hinaus braucht Corfields Unternehmen
„Homotopien“; es geht ihm eben nicht um irgendwelche, sondern um
„Homotopietypen“. Anschaulich bedeutet „Homotopie“ die Verformung,
Streckung oder anderweitige Umwandlung eines Dings in ein anderes ohne
Riss, Loch oder Sprung. Streng definiert wird die Homotopie als
Beziehung zweier Abbildungen (siehe oben: Morphismen) zueinander, bei
der eine Familie von Abbildungen zwischen diesen Abbildungen existiert
(das ist dann die Homotopie). Diese Begrifflichkeit hat sich als
gleichermaßen nutzbringend
in der Topologie, in der (algebraischen) Geometrie wie in der Logik
erwiesen und stützt die Ansicht, dass Logik, die Lehre von richtig und
falsch, in gewissem Sinn „geometrischen Gehalt“ hat – etwa so, wie
Kinder, falls sie raten oder suchen, behaupten, das Richtige und das
Falsche hätten Temperaturgehalt, wo sie sagen, es würde „wärmer“ oder
„heiß“, sobald man dem Richtigen näher kommt. Man mag das eine Metapher
nennen; mit dem geometrischen Gehalt der Logik aber verhält es
sich eher wie mit der Suche nach einem glühenden Ofen: Es wird
tatsächlich wärmer, wenn man ihm näherkommt.
Die geometrischen Ressourcen der HoTT sind vor allem für Menschen von
Interesse, die statt Metaphysik lieber Physik treiben, John Baez oder
Urs Schreiber etwa, denn Geometrie und Topologie sind engstens mit dem
Grundlagenwissen moderner Physik verflochten.
Die HoTT, die Corfield als Basislogik vorschlägt, hat zu alledem ein
Adjektiv, das an dieser Stelle auch endlich erklärt sein soll – sie ist
„modal“. Eine modale Logik untersucht Modi wie „Notwendigkeit“ oder
„Möglichkeit“; Corfield braucht das, weil die von ihm verlangte
Robustheit und Flexibilität der richtigen philosophischen Logik nach
Aussage-Ebenen differenzieren muss: „Es ist wahr, dass der Satz p gilt“
ist nicht einfach dasselbe wie „Es ist notwendigerweise wahr, dass der
Satz p gilt“ (es könnte ja auch Zufall sein). Diese Modalitäten (und
einige Temporalitäten, also Zeitfragen)
erörtert Corfield in seinem Buch (genau wie Kategorien, Typen,
Homotopien ...) stets nicht nur aus formaler, sondern philosophischer
Perspektive, wobei „philosophisch“ bedeutet: unter den Gesichtspunkten
Bedeutung, Wahrheit, Erkenntnis. Das hat in der kategorientheoretischen
Welt Tradition; schon Francis William Lawvere, einer ihrer
dienstältesten Revolutionäre und ein guter Hegelkenner, sprach von
„Kategorien des Seins und Werdens“.
(Zitat Ende)
Ingo T. schrieb hierzu (neben seinem Hinweis/Link auf die sehr gute
Darlegung zum Themenkreis von
Stefan Müller-Stach
https://www.staff.uni-mainz.de/stach/Wahrheit.pdf):
/it: „Reine Mathematiker interessieren sich nicht für Anwendungen, sie
erfreuen sich an der Komposition und dem Zusammenspiel neuer Strukturen,
wobei HoTT bereits hilfreich dabei ist, algorithmisch mehr Beweise zu
finden oder vorhandene zu überprüfen. Philosophisch interessant scheint
mir die Verbindung von Logik und Pfaden bzw. Typentheorie und Topologie...“/
Diese Aussage mag für manche Mathematiker durchaus zutreffen und
insoweit mathematische Spielereien sich letztlich nutzbringend auf die
Lebenswelt (als in Realität ausformende Körperlichkeit auf der Grundlage
mathematischer resp. geometrischer Formen/Strukturen) auswirkt, kommt
dieser Art "mathematischer Komposition" auch gebührende Anerkennung zu.
Dabei sollte es aber bzgl. Spielereien auch belassen bleiben, denn ohne
konkrete Anwendungen (durchaus auf der Basis von Mathematik/Geometrie)
ist nichts für die Lebenspraxis, also damit auch für unseren
(notwendigerweise technisierten) Alltag gewonnen.
Selbstredend: von Luft und Liebe - ob mit oder ohne mathematische
Formeln im Kopf - lässt sich nun mal nicht leben.
Irritierend in diesem Zusammenhang fand ich die im benannten faz-Artikel
gewählte Formulierung:
„ Die geometrischen Ressourcen der HoTT sind vor allem für Menschen von
Interesse, die statt Metaphysik lieber Physik treiben...“.
Was auch immer der Autor damit gemeint hat; wollte er damit zum Ausdruck
bringen, dass benannte geometrische Morphismen weniger einer
metaphysischen Betrachtung zuträglich, als in die Realwelt
transformierte Strukturen/Muster zu dort nützlicher Anwendung sind,
würde ich ihm zustimmen.
Andernfalls verknüpft sich mir dieser Hinweis auf Metaphysik mit einer
diesbezüglich hier vorgebrachten Feststellung von Ingo T.:
/it: „Warum die Gereiztheit? Der Determinismus zählt gemeinhin zur
Metaphysik, denn in der Physik kommt er nicht vor, dort gelten
Formalismen und Experimente. Und hinsichtlich der mehr oder minder
großen Vagheit jeder Erfahrung, Prognose und Messung geht es stets um
Wahrscheinlichkeiten, die nur in idealisierten Grenzfällen rein
deterministisch oder rein zufällig ausfallen“[...]//
//Im Mikrokosmos wird die Synthese von Zufälligkeit und Kausalität,
Wahrscheinlichkeit und Determinismus erreicht, im Lebensalltag
entspräche ihr ganz im Sinne einer Fokker-Planck-Gleichung das freie
Fluktuieren der Handlungen um eine systemische Tendenz herum."/
Auf diese Behauptung bezogen erstaunt nun, dass im Mikrokosmos (als
solcher definitiv auch zur Physik gehörend) also doch Determinismus
(hier also in Synthese mit Wahrscheinlichkeit) angeführt wird.
Wahrscheinlichkeiten jedoch erfordern hinsichtlich einer real
verwertbaren Anwendbarkeit (und diese ist nun mal essentielle
Voraussetzung individuellen wie gesellschaftlichen Lebens) entsprechende
Rahmenstrukturen.
Diese Strukturen basieren auf partiellen Differentialgleichungen (u.a.
oben erwähnte Focker-Planck-Gleichungen - FPGs), mittels derer der
zeitliche Verlauf der Wahrscheinlichkeitsdichtefunktion (PDF) optimiert
werden kann. Für die unterschiedlichsten stochastischen Prozesse der
Lebenswelt ergeben sich damit auch unterschiedliche Typen von FPGs
(diverse parabolische und hyperbolisch).
Diese genannten Optmierungsprozesse verlaufen definitiv deterministisch
und können sowohl in geschlossenen als auch in offenen Regelkreisen zur
Anwendung kommen. In ersteren gilt es, einen bestimmten Sollwert zu
halten, was (unter Einbeziehung äußerer Störgrößen auf das Gesamtsystem)
durch Rückkoppelung auf die Prozesseingangsgrößen erreicht wird. Bei
offenen Regelsystemen erfolgt hingegen keine Rückführung.
Somit bieten diese Optimierungsverfahren (jeweils Lösung der FPG als
reine deterministische Bewegungsgleichung für Verteilungsfunktion
fluktuierender makroskopischer Variablen) entsprechende Verwertbarkeit
(praktische Anwendungen) durch hinreichende Beschreibungsmöglichkeit
diffuser Vorgänge mittels Bestimmung/Festlegung von Drift- und
Diffusionskoeffizienten stochastischer Prozesse, wobei deren
Langzeitverhalten per Gaußverteilung gemittelt wird.
Das ganze Verfahren hat somit tatsächlich nichts mit „Determinismus“
sondern vielmehr durch die mit den Methoden der Stochastik beherrschbare
(und damit determinierte) dynamische Prozesse zu tun, wie sie überall zu
finden sind, wie z.B. diverse physikalische Anwendungen, Meteorologie,
Biologie, Chemie, Wirtschaft, Finanzen und so fort.
Einen Bezug der Beschreibungsmöglichkeit diffuser Vorgänge zu den oben
erwähnten „geometrischen Ressourcen der hoTT“ könnte ich insoweit
herstellen, als es in beiden Verfahrensweisen darum geht,
Mengen/Überlagerungen gleicher Strukturhaftigkeit in einem dynamischen
System zu ermitteln, wobei grundlegende geometrische Elemente/Strukturen
als Morphismen reale Kategorien /Ordnungsmuster) bilden, deren
assoziative Verknüpfung durch konsekutive Prozesse erfolgt. Dabei
spielen interprozessuale Transformationen (Verformung, Streckung oder
Verkürzung etc.) eine wesentliche Rolle.
Wiederholbare Transformationen sind prognostizierbar– tritt der
Anfangszustand auf, so kann vorhergesagt werden, wie der Endzustand
aussehen wird. Dies ist der Hintergrund für die Effektivität des Lernens
über Erinnerung (das hatte ich hier vor einiger Zeit schon geschrieben).
Dieses „processing“ (Pattern-Recognition) vollzieht sich als
Mustererkennung im Gehirn/ZNS und muss "überlebenstechnisch" in kürzest
möglicher Zeit erfolgen. Dazu passt im weiteren Sinne auch der
umgangssprachlich bestens bekannte Ausdruck: „Ein Bild sagt mehr als
tausend Worte“
Letztendlich geht es um Frage und Antwort, um die Entscheidung zwischen
„richtig und falsch“) , also um ergebnisorientierte
Informationsverarbeitung und dazu muss man das betrachtete System (auch
ein Quantensystem) auf möglichst wenige relevante Freiheitsgrade
einschränken, also das System eingrenzen (auf einen
Phasen-/Definitionsraum begrenzen) und damit gewissermaßen determinieren.
Um mit Frage und Antwort ein erwünschtes, also in der Regel ein
anwendungsorientiertes (praktisch umsetzbares) Ergebnis zu erhalten,
müssen diese in einen zielführenden, kontextuellen Bezug gebracht sein.
Falsch oder sinnlos gestellte Fragen können (zufolge der
Naturgesetzlichkeit der betrachteten Systeme) keine sinnvolle resp.
gültige Antwort haben. Das meinte ich kürzlich hier mit der
Kontextbezogenheit von Frage und Antwort.
Antworten auf komplexe Fragestellungen, mit denen (die oben
beschriebene) Behandlung von meist auch Störeinflüssen ausgesetzten,
kritisch dynamischen Systemen auf der Basis von JA/NEIN bzw,
Richtig/Falsch – Unterscheidungen gelingen kann, lassen sich (neben der
in Organismen autonom unbewusst ablaufenden Bildmusterauswertung)
vorzüglich durch oben erwähnte elementare Ja-Nein-Entscheidungen finden.
Essentiell überlebenswichtige Entscheidungen mittels Mustererkennung in
biologischen Systemen zu treffen (also z.B. im menschlichen Körper),
würde die üblicherweise für bewusste Entscheidungsfindung stattfindende
gedankliche Informationsverarbeitung niemals zeitgerecht leisten. Also
muss man diesbezüglich (zur Verarbeitung autonom ablaufender Prozesse im
Körper) von sehr effizient arbeitender Informationsverarbeitung
ausgehen, wie sie im Bereich der Rechnertechnik eigentlich nur von
dediziert aufgebauten Analog- und künftig eben von Quantenrechnern
geleistet werden kann.
Im weiteren Sinne kann ich damit zum Thema „Philosophie für Computer“
des benannten faz-Artikels von Dath zurück kommen. Allerdings geht es
mir nun nicht so sehr um Philosophie und die dort gestellten (modalen)
Fragen bzgl. Kategorien, Typen oder Homotopien unter dem Gesichtspunkten
von Bedeutung, Wahrheit und Erkenntnis, sondern um konkrete
Anwendbarkeit hinsichtlich temporal relevanter Fragestellungen zu
lebenspraktischen Themen.
So würde ich nun gerne gleich den Sprung zum Quantenrechner machen.
Darüber hatten wir vor einiger Zeit hier geschrieben und ich hatte
erwähnt, dass sich durch Parallelverarbeitung Rechenergebnisse in
unvorstellbar kurzer Zeit ermitteln lassen. Auf derzeit noch
vorherrschende Probleme (Verhindern vorzeitiger Dekohärenz etc.) möchte
ich nicht mehr eingehen (das Prinzip von Q-Rechnern ist im Internet
bestens beschrieben).
Entscheidend für deren praktische Nutzung wird die Art der
Programmierung sein, da Quanten-Rechner bestens geeignet sind, die (und
eben genau die gesuchte) „Nadel im Heuhaufen“ zu finden.
Eine geeignete Methode, zeitnah ein gewünschtes Ergebnis (die Nadel) zu
finden, kann man vom allseits bekannten Kinderspiel „heiß und kalt“
ableiten (wie von Dath im faz-Artikel erwähnt).
Das Spiel hat Ähnlichkeit mit John A Wheelers Fragespiel, das zu meiner
Kinderzeit gerne gespielt wurde: Einer geht aus dem Raum und die dort
verbleibenden denken sich einen zu erratenden Gegenstand oder eine
Person etc. aus.
Der in den Raum Zurückkehrende nähert sich der gesuchten Antwort durch
geschickte Fragestellungen (z.B. organisch oder anorganisch,
technisch-nichttechnisch, Mensch oder Tier, Mann oder Frau usf.).
Frage und Antwort müssen in kontextuellem Bezug stehen, ansonsten das
Spiel entweder endlos oder gänzlich sinnlos sein wird. Jede Antwort
erhöht den spezifischen Wissensfundus des Fragenden und je geschickter
die Fragen gestellt, je mehr kontextbezogenes Wissen angesammelt wird,
desto eher findet sich die zutreffende Antwort.
Da jede Frage stets immer nur ja oder nein beantwortet werden darf,
entspricht das also der 1/0-Logik klassisch digitaler Rechner.
Hochleistungscomputer sind heute bereits in der Lage, Ergebnisse zu
hochkomplexen Fragestellungen zu liefern. Selbst auf minimaler Basis
liefert dediziert anwendungsbezogene Mikrorechnertechnik per
“Fuzzy-Logic“ (Schwazen Hut im dunklen Keller finden, oder eben das
„heiß-kalt-Spiel) ebenso erstaunliche Ergebnisse.
Um so effizienter werden Quantenrechner dementsprechende Aufgaben lösen.
Auch mit dieser Technik werden JA/Nein-Entscheidungen getroffen, da ein
sog. Q-Bit grundsätzlich zwei Zustände (z.B. Spin up oder Spin-down)
hat. Im Zustand der Überlagerung (also vor der bei dieser Technik
gefürchteten Dekohärenz) stehen jedoch weitere „logische“ Zustände zur
Verfügung, die mit geschickter Programmführung eine hocheffiziente
Informationsverarbeitung ermöglicht.
Mit dieser Technologie und entsprechender Programmierung würden die
Fragestellungen des Wheeler-Spiels (gestützt auf ein im Q-Rechner
abgelegtes Expertenwissen und dessen laufende Aktualisierung des
Frage-Antwortmechanismus) in unvorstellbar kurzer Zeit zu verarbeiten sein.
Und wiederum geht es bei Quantentechnik um Anwendungen, wie diese seit
den 70/80er Jahren in stark zunehmendem Maß unsere Lebenswelt
beeinflussen. Angefangen hat es sicher mit der Entdeckung des
Tunnel-Effekts (dem wir das Elektronenmikroskop und damit - im weiteren,
indirekten Sinne - auch den heute verfügbaren Impfstoff verdanken);
ebenso bahnbrechend war die Entdeckung der Superleitfähigkeit, die zu
bedeutsamen Erfindungen im Zusammenhang von Formgestaltung
(Oberflächenveredelung etc.) führten und künftig noch erstaunliche
Anwendungen zeitigen werden.
Dabei spielt natürlich die Mathematik (insbes. die Erkenntnisse und
Modellierung geometrischer Formen) eine grundlegende Rolle, aber doch
vornehmlich mit dem Ziel praktischer Anwendbarkeit.
Abschließend (wenn man überhaupt von einem Abschluss dieser Thematik
sprechen kann) möchte ich nochmal auf hoTT zurück kommen: Gerade für die
Mustererkennung topologischer Strukturen (z.B. auch ein mittels
Schrödinger- oder eben auch PFG-Gleichung betrachtetes Wellenpaket)
eignen sich Quantenrechner, da zum Finden der erforderlichen Minima die
(vorhin benannte) Durchtunnelung von „Wellenbergen“ genutzt werden kann.
Bei allem Beschriebenen kommt es für die anwendungsorientierte, also
lebenspraktisch relevante Informationsverarbeitung an, betrachtete
Systeme auf die dafür notwendigen entscheidenden Freiheitsgrade zu
beschränken (und das ist wahrlich eine Kunst!).
Zu Freiheitsgraden hatte ich hier im Zusammenhang unserer Erörterung von
Zufall vs Determination geschrieben und die Auffassung vertreten, dass
beides nie alleine vorherrscht, sondern diese zusammen einhergehen. Wie
oben erwähnte lineare DGLs (FPG oder auch Schrödinger-Gleichung u.a.)
durch einen realen und komplexen Anteil bestimmt sind, sind die
„Differentialgleichungen allen Lebens“ durch Notwendigkeit und Zufall
bestimmt.
Es ist also die „Kunst“, abgeleitet von bahnbrechenden Erkenntnissen der
Physik stochastischer Prozesse, dass man mit der Beschränkung
(Determinierung) auf mittlere Zeitskalen und relevante Freiheitsgrade
(Zufall), einfach handhabbare Bewegungsgleichungen (FPG u.a.) erzeugt,
die einen makroskopisch deterministischen Anteil und einen sehr
schnellen, unregelmässig fluktuierenden stochastischen Anteil haben: x‘
= D(x,t) + η(t).
Und damit lange ich wieder in der Philosophie an, wo dieser Zusammenhang
von Zufall und Notwendigkeit seit jeher entsprechend beschrieben ist.
Das hat mit Metaphysik im engeren Sinn eher wenig, sondern mit
Lebenswirklichkeit zu tun! Wenig mit Wirklichkeit hingegen hatte auch
Maxwells Daemon zu tun, so dachte man!
Weniger mit üblich empfundener Lebenswirklichkeit haben auch neueste
Überlegungen und Experimente zu tun:
Die in deterministische Bewegungsgleichungen eingehende Detailkenntnisse
eines betrachteten Systems (die Fokker-Planck-Gleichung ist äquivalent
zu einem Pfadintegral, der FP-Operator entspricht dem Hamilton-Operator
wie die Wahrscheinlichkeitsdichte der Schrödinger-Wellenfunktion),
wodurch man (durch oben erwähnte Transformation) aus einer
Anfangsbedingung (Zustand der Freiheitsgrade z.B. Ort und
Geschwindigkeit) auf die Freiheitsgrade eines beliebig späteren
Zeitpunkts schließen kann. Das Besondere hierbei: es können auch frühere
Zeitpunkte sein! Ein entscheidendes Charakteristikum der betrachteten
Bewegungsgleichungen ist, dass sie hinsichtlich Zukunft als auch
Vergangenheit vollkommen deterministisch sind, also damit eine exakte
Symmetrie bezüglich einer Zeitumkehr aufweisen. Maxwells Daemon comes in!
Die Psi-Funktion (Schrödinger-Gleichung) des betrachteten Systems zeigt
ein "verwaschenes Bild", dessen eigentliche Absurdität Schrödinger
selbst mit seinem Katzenbeispiel (lebende oder tote Katze) zum Ausdruck
bringen will. Die zuvorderst auf den Mikrobereich (Atomstruktur)
beschränkte Unbestimmtheit wird quasi in eine von sinnlicher Wahrnehmung
zu erkennende Unbestimmtheit transformiert und stellt damit den
Unterschied zwischen einem verwaschenen (unscharfen) und scharf
differenzierten Bild dar.
Das ist wie bei einem Münzwurf! Nur bei hinreichender Auflösung
(z.B.Zeitlupe einer Videoaufnahme des Wurfs) ist man in die Lage
versetzt, die jeweils augenblicklichen Zustandswerte zu erkennen bzw. zu
bestimmen. Doch immer noch bewegt man sich bei diesem „Gedankenmodell“
im Meso/Makrokosmos und offenbar (und zumindest bislang) kann man eine
derartige Festlegung nicht im Mikrokosmos (also im Bereich der
Quantensysteme) tätigen; hier bleibt nur, die entsprechende
Wahrscheinlichkeiten zu berechnen.
Letzteres ad hoc für Elemente der Lebenswelt zu schaffen, ist
offensichtlich mit herkömmlichen Methoden und Werkzeugen (konventionelle
IT) nicht zu leisten. Das Gehirn/ZNS scheint dazu in der Lage zu sein,
zwar nicht als sequenziell bewusst ablaufende
Informationsverbeitungsprozesse (Informationsspeicherung in den
Kleinhirnkernen), sondern diese als unbewusst vornehmlich im Cerebellum
ablaufend. In der Kleinhirnrinde erfolgt die Verarbeitung der
Informationen, danach werden die integrierten Informationen zur
Ansteuerung der Efferenzen am Ausgang des Kleinhirns gesammelt.
Damit tritt auch die hier von wh erwähnte „Lateralisierung“ in den
Hintergrund. Interessante Details finden sich hierzu in den Schriften
zur IIT (Tononi/Koch u.a.) aber auch denen von Hameroff (zu Teilen
gestützt durch Penrose bzgl. der Verarbeitung der damit in Verbindung
stehenden imaginär-komplexen Funktionen).
Doch nochmal zurück zu Maxwells Daemon:
Erstaunlich in diesem Zusammenhang, welch unerwartetes aber dennoch
beachtenswertes „Revival“ Maxwells Spekulation zeitigt, wenn man von den
jüngsten Forschungsansätzen eines israelischen Forscherteams zu
reversibel nutzbarer Energie/Information erfährt; so spekulativ und
gegen jede bisherige theoretische oder empirische Erkenntnisse zur QM
stehend sie sind, würden sie (falls sie sich bestätigen) einen
„Quantensprung“ bzgl. der bisherigen Lehrmeinung der Quantentheorie
bedeuten: Abweichend vom bisherig angenommenen Sachverhalt,
Teilcheneigenschaften nicht exakt im Zustand der Superposition bestimmen
zu können, hat der israelische Physiker Yakir Aharonov mit seinem Team
einen sog. „two-state-vector formalism (TSVF)“ der QM entworfen, der die
Quantenzustände nicht erst nach einer Messung/Beobachtung festzulegen
erlaubt, sondern diese nun auch davor zu beobachten und festzulegen
ermöglicht. Damit geht die TSVF (vielleicht könnte man es mit
„Zwei-Zustands-Vektor-Formalismus übersetzen) davon aus, dass
Quanten-Ereignisse zeitlich vorwärts und rückwärts auf die gleiche Weise
funktionieren, Ursachen demnach zeitlich rückwärts gerichtet erst nach
ihren Auswirkungen auftreten (so wurde dieses Phänomen unter dem Begriff
„Retrocausation“ eingeführt).
Mich lässt dieses Phänomen (wie oben bereits erwähnt) an einen filmisch
festgehaltenen Münzwurf denken, dessen Zeitlupendarstellung Positionen
der Münze zwischen Wurf und Landung erkennen lassen und sich der Wurf
zudem rückwärts laufend darstellen lässt. Dabei geht es weniger um die
Festlegung einer Position, sondern vielmehr um das Wissen (also die
Information) um diese; absolutes Wissen also, das Maxwell seinerzeit nur
einem Daemon zugestanden hat .
Was ich damit zum Ausdruck bringen will ist, dass die Quantentheorie
immer noch als provisorisch angesehen werden muss, wie dies Dirac auch
so benannte.
Philosophie und Computer! Mit steigendem Komplexitätsgrad ist das
bewusst menschliche Berechnen (etwa Merken und Vorausdenken von Zügen
beim Schachspiel) überfordert, nicht jedoch ein Quantenrechner (sofern
es darum geht, jeweils nur eine gezielte Antwort zu „berechnen“, also
die berühmte Nadel im Heuhaufen oder eben den nächsten Schachzug zu finden).
Damit wird eindeutig der Weg der Mathematik (hier die Informatik und
insbes. die AI) beschritten und erneut stellt sich die Frage nach Sinn
und Nutzen der Philosophie.
Für meine Begriffe stellt Philosophie nach wie vor neben den
logisch-mathematischen, bio-chemischen und sonstig
naturwissenschaftlichen Sichtweisen und Erkenntnissen die Möglichkeit
einer gedanklich grenzüberschreitenden (transzendentalen) Betrachtung
von Welt und Kosmos dar. So sollten beide Anschauungsformen
gleichberechtigt interdisziplinär nebeneinander stehen.
So kann man versuchen, die Dinge, wie auch die "Dinge hinter den
Dingen" mal rechnerisch mal spielerisch oder einfach auch nur
gedanklich (jedoch immer staunend) zu ergründen.
Bester Gruß in die Runde! - Karl
PS: Das war jetzt ein mindestens ebenso langer Beitrag, wie der von Dath
in der faz verfasste. Anspruch auf jedwede Allgemeingültigkeit meiner
hier vorgebrachten Ideen erhebe ich keinesfalls. Allenfalls könnten sie
zu weiterm Nachdenken und zu fortgesetzter Diskussion hier in philweb
führen.
Für die kommenden Tage werde ich allerdings offline und damit für derart
umfangreiche Beiträge (Gott sei dafür gedankt, mögen einige denken)
nicht eingerichtet sein.
Vielleicht noch der Hinweis, dass diese länglich gehaltene Abhandlung
wohl besser direkt im Archiv (
http://lists.philo.at/pipermail/philweb/)
zu lesen ist.
Und noch zu Josephs Frage zur Rück-Datierung des Archivs: In Form der
derzeit vorliegenden Archivierung habe ich alle Beiträge bis zurück in
2014. Generell habe ich (auf älteren Rechnern bzw. HDDs) alle
philweb-Beiträge seit Gründung gespeichert. Da ist also nichts verloren.
Doch dazu ggf. zu einem späteren Zeitpunkt.
___________________________
Philweb mailing list
Philweb(a)lists.philo.at
http://lists.philo.at/listinfo/philweb