Am 16.06.2023 um 13:00 schrieb Joseph Hipp über PhilWeb <philweb@lists.philo.at>:


Ich schreibe ganz dreist: Die Antwort auf meine Frage habe ich noch nicht bekommen, die Antwort von den Kompetenten, auf die auch Claus Zimmermann vielleicht hoffte. Ist Claus mit deiner Antwort zufrieden? Soll ich die Frage anders stellen, sie aufteilen?


Es ist nun etwas schwierig, die zuletzt hier vorgebrachten Stellungnahmen zum Thema Künstlicher vs menschlicher Intelligenz, bzw. das auf die jeweilige Intelligenz aufsetzende „Denken“, sowohl eines Automaten, als auch eines Menschen in eine gewisse Kongruenz zu bringen, obgleich jeder Aspekt das Thema gültig trifft.

Zunächst nochmal ein Bezug auf meine Aussage, dass es zwischen menschlichem und maschinellen Denken noch gravierende Unterschiede gibt. Joseph würde sich dieser anschließen, sofern ich „noch“ und „gravierend“ daraus entfernte. Das würde auf die nüchterne Feststellung hinauslaufen, dass zwischen diesen Denkformen schlichtweg ein Unterschied besteht und somit dieser Satz ebenso nur einen zutreffenden Sachverhalt beschreibt. Das Faktum dabei ist jedoch, dass damit nicht ausgesagt ist, wie groß der Unterschied zwischen beiden Formen des Denkens ist und ob zu erwarten ist, dass dieser Unterschied im Verlauf fortgeführter KI-Forschung bzw. -Entwicklung weiter verringert werden wird.

Doch nun erst mal auf Josephs Frage zurückkommend, deren Beantwortung mir bislang offensichtlich nicht gelungen ist:

jh: Meine Frage geht nun so: Wenn dieser Automat, der nur einen Rahmen bekommen hat, Lösungen findet, weiß dann jemand, was in ihm vor sich geht? Das scheint ja der Unterschied zu programmierten "Wesen" zu sein. Wenn im Nachhinein nicht feststellbar ist, was in dem "Wesen" oder "Automat" geschah, auf welcher Grundlage kann dann jemand sagen, dieses hätte nicht gedacht? 

Ich interpretiere diese Frage nun wie folgt: Du, Joseph fragst, ob ein Automat, dem man einen gewissen Handlungspielraum („Rahmen“) programmiert hat und der innerhalb dieser Vorgabe „Lösungen“ findet, Rückschlüsse von außen ableiten lässt, dessen „inneres Handlungsschema“ quasi als „Denkleistung“ zu deuten ist.

Sofern es sich nicht um einen selbstlernenden Automaten handelt, wird dieser streng nach den ihm einprogrammierten Abläufen funktionieren, d.h. er wird hinreichend genau diese „Lösungen“ erbringen, für die er programmiert wurde und der Entwickler/Programmierer wird/sollte genau wissen, was in diesem Automaten vor sich geht, da dessen „Denkleistung“ lediglich eine Abbildung des vom Entwickler vorgedachten Programmablaufs ist.

Für den von Dir angenommenen Automat, Joseph, wurde jedoch kein striktes Ablaufschema programmiert, sondern lediglich ein „Rahmenprogramm“ innerhalb dessen „Lösungen“ erbracht werden sollen. Um das etwas abstrakte Denkmodell auf eine praktische Ebene zu bringen, nehme ich meinen Staubsauger-Robot zum Beispiel:

Das Teil ist mit einem Antriebs- und Saugmotor, Laufrädern und Kameras ausgestattet. Sein Innenleben besteht u.a. aus einer Elektronikplatine, die mit Prozessor, Arbeits- und Datenspeicher, sowie entsprechender Elektronikperipherie samt Lautsprecher bestückt ist. Damit ist dieser „Automat“ bestens ausgerüstet, um den Staub eines Wohnraums/Hauses mit beliebigen Zimmern aufzusaugen. Die Funktionsweise des vorprogammierten Ablaufschemas hier zu beschreiben, würde den Rahmen des Beitrags sprengen, bezogen auf Deine Frage kann man jedoch die Unterscheidung zwischen der jeweiligen Betrachtungsebene auf dieses Teil vornehmen:

Wenn meine schon etwas in die Jahre gekommene Nachbarin das Gerät sieht, vermutet sie darin einen Art Geist, der das Teil durch die Räume schickt. Sie kann - sofern man es ihr nicht näher erklärt – quasi „im Nachhinein“ nicht wissen, was in dem Automaten vor sich geht, sondern sieht nur dessen „Lösungen“ und muss nahezu unausweichlich annehmen, das Gerät könne denken. Und sie liegt ja nicht so falsch, was „maschinelles Denken“ anbelangt, wenn man „maschinelles“ Denken – wie bereits erwähnt – als ein von Inspiration und Intuition unabhängiges Ein-/Zuordnen von Wahrnehmungen (in diesem Fall durch Sensoren vermittelte Gegenständlichkeiten) definiert. Diese Frau wird auf Grundlage von Nichtkenntnis der inneren Vorgänge des Saugroboters annehmen, das Teil könne (wie ein Mensch) denken.

Für mich, wie für alle (mehr oder weniger) technisch geschulte Personen, geschieht da natürlich nichts von „Geisterhand“, sondern es erfolgt schlichtweg ein vorprogrammierter, ggf. durch technische Interaktion (über Handy-App) zusätzlich gesteuerter Ablauf eines Gerätes. Auf Grundlage dieses Wissens ist anzunehmen, dass dieser Robot nicht in der Lage ist, wie Menschen zu denken, sondern nach deren vorgedachten Modellen ein Programm abzuspulen.

Diese Unterscheidung wird für weit entwickelte KI-gesteuerte Automaten jedoch weitaus schwieriger vorzunehmen sein. Und es wird noch mehr „Wirrwarr der Instanzen“ entstehen, Fragen nach Vermögen auftauchen, deren Beantwortung nicht oder nur sehr bruchstückhaft möglich sein wird. 

Für mich stellt sich nun die Frage, ob ich Deine Frage nun beantworten konnte, sofern mein Vermögen hierzu hinreichend war.

Bester Gruß an Dich und in die Runde! - Karl