Und wenn ich das – weiter soliloquirend, scheint offenbar keinen zu interessieren, aber egal – kurz noch selber weiterspinnen darf: das Interessante ist ja vielleicht auch, daß der Esel in Buridans Denkmodell ja gerade deswegen verhungert, weil er fressen WILL, weil er tatsächlich hungrig ist. Wenn er es nicht wäre, würde er ja zwischen den beiden Heuballen einfach durchgehen, sie gar nicht wahrnehmen, die für ihn so gefährliche Patt-Situation gar nicht als solche auffassen und einfach weiter stumpf vor sich hintrotten. Aber er WILL ja etwas essen, er braucht dringend Heu, und sieht eben die eine und („gleichzeitig“) die andere Option, mit genau identischer Attraktivität. Und das wird ihm zum Verhängnis.
Das hieße also: er müßte lernen (in der Lage sein zu lernen), daß er nicht fressen WILL, sondern fressen MUSS, daß er also nicht seinem (zerrissenen, spaltbaren, von externen Vorgaben abhängigen) Willen, sondern einer plumpen Notwendigkeit folgen muß, und dann einfach irgendeine beliebige (also: nicht mehr „gewollte“) zu Option wählen hat. Damit er wieder „wollen“ kann, muß er das „wollen“ verlernen. Er braucht also so etwas wie einen „Willen zweiter Ordnung“, der vollkommen beliebig / random sein muß. (Gibt´s das nicht, in der Informatik/Robotik/Kybernetik, solche „Notfall“-Algorithmen, die dann, wenn das System riskiert, sich selbst lahmzulegen, also in eine solche Entscheidungs-Paradoxie gerät, das System so „triggern“ können, daß es ihm sagt: „mach einfach IRGENDwas…“ ?)
Hat das irgendwie Sinn oder ist das vollkommene… Eselei?
J. I.A. Landkammer