Am Fr., 16. Juni 2023 um 01:56 Uhr schrieb Karl Janssen über PhilWeb
<philweb(a)lists.philo.at>at>:
Was einem Automaten definitiv fehlt, ist das Vermögen
der Empfindung. Oft hatte ich dieses untrügliche Gefühl von
Gefahr, quasi eine Vorahnung, dass z.B. eine Vorfahrt nicht gewährt würde oder Kinder auf
die Straße laufen, etwa
um einen Ball zurück zu holen.
Dieses "Empfinden" könnte man so interpretieren, dass deine
langjährige Praxis dir bereits ein Gefühl für das, was beim Autofahren
passiert, vermittelt hat. Es ist eine Lernerfahrung, auch wenn nicht
bewusst zugänglich.
Analog könnte man "Intuition" definieren als ein nicht verbalisiertes,
jedoch nicht-reflexhaftes erlerntes Verhalten.
Jetzt wird man vielleicht einwenden wollen, dass ich das auch nur
sage, um den Empirismus zu retten. Ich schließe nicht aus, dass dieses
Gefühl eine gewisse "Vorahnung" mit eigenen Erkenntniswert sein
könnte. Hierzu müsste man jedoch mehr argumentieren.
„Ich hab gedacht“ sage ich zu meiner Frau und sie sagt
(zumeist zurecht) „was du immer denkst“. Hier geht es um Inferenz und
zwar um eine subjektiv unzureichende, dem Urteil meiner Frau entsprechend. Grundsätzlich
handelt es sich dabei aber um das
gedankliche Ein-/Zuordnen von Wahrnehmungen, Vorstellungen, Begrifflichkeiten, eine von
Inspiration und Intuition
unabhängige Gehirnleistung. Hier könnte sich tatsächlich ein (mit Methoden der KI
programmierter) Automat als Konkurrenz für
das menschliche Denken erweisen. Dabei würden Datenbanken, spezifische Algorithmen etc.
in Verbindung mit
Hochleistungsprozessoren in kürzester Zeit die jeweilige Wissensbasis bereitstellen, um
dann im Dialog mit Menschen z.B. mit
Werkzeugen wie ChatGPT den Eindruck zu vermitteln, man hätte es mit menschlichen Wesen zu
tun. Das lässt an ELIZA denken,
einem Computerprogramm, mit dem sich regelbasiert aber ohne dessen eigentliche
Intelligenz und tatsächliche Empathie ein einfacher
Dialog führen ließ.
Ich musste bei dem Beispiel daran denken:
"Da ein Computer nicht in einer Situation ist, müßte der KI-Forscher
versuchen, daß In-einer-Situation-sein mit Hilfe einer künstlichen
Beschränkung zu repräsentieren, [...]. [Terry Winograd versuchte dies,
indem er die Zugriffszeit des Computers auf die Datenbanken
beschränkte, so dass er nur noch "relevante Informationen" zugreifen
würde, Ratfrag] Winograd hat inzwischen die Schwierigkeit erkannt,
'den alltagsweltlichen Hintergrund zu formalisieren, der bestimmt,
welche Skripte, Ziele und Strategien wichtig sind und wie diese
interagieren.' Er hat in der Folge den Suchbegrenzungsansatz verworfen
und sein Vertrauen in die KI-Forschung verloren. In seinen
computerwissenschaftlichen Seminaren an der Universität in Stanford
unterrichtet er jetzt Heideggers Philosophie."
(ZITAT: "Martin Heidegger: Sein und Zeit" (Herausgeber: Thomas
Rentsch, 2010 bei De Gruyter), Seite 77, 4.3. "Heideggers Kritik des
Kognitivismus" Beitrag von Hubert L. Dreyfus.
Onlinevorschau:
https://books.google.de/books?id=_0ud-j13YjQC&newbks=0&lpg=PA80hl=d…
)
LOL
Was sagt ihr dazu?
Vor über 10 Jahren war das Problem des Kontextes so ernsthaft, dass es
KI-Forscher dazu veranlasste, das Feld zu räumen und Heidegger zu
unterrichten.
Allerdings, vermute ich, liegt hier in der Tat ein Problem vor uns.
Die Sprachmodelle der KI wie ChatGPT haben -- bedient man sich der
bisweilen eigenwilligen Terminologie des Heideggers -- keinen
"Weltbezug", deshalb auch keine Präsenz und keine Wahrheit. Auch wenn
ich den Wahrheitsbegriff bei ihn nicht vollständig verstehe, so
scheint er hier einen Punkt gehabt zu haben:
ChatGPT erfindet irgendwelche wissenschaftlichen Publikationen (hat er
bei mir gemacht), Gerichtsurteile, selbst Biographen von Personen aus
dem 19. Jahrhundert, welche niemals existiert haben.
Das ist natürlich technisch darauf zurückzuführen, was die KI
eigentlich macht. Sie "assoziiert" sozusagen.
Überhaupt scheint mir die KI-Forschung reichlich philosophische
Implikationen zu haben. Man kann von ihr aus Epistemologie,
Kognitionspsychologie usw. noch mal neu aufrollen.