Am 06.04.2023 um 18:30 schrieb Rat Frag über PhilWeb
<philweb(a)lists.philo.at>at>:
Hallo,
ich hatte kurz eine Überlegung:
Eine starke künstliche Intelligenz hätte an sich keinen Grund, Angst
vor der Abschaltung zu haben.
Biologische Lebenwesen haben Angst vor dem Tod, weil Todesangst ihre
Chance zu überleben und damit indirekt die Verbreitung ihrer
Erbinformationen dient. So eine psychologische Disposition wird also
durch die Evolutionstheorie entwickelt.
Eine künstliche Intelligenz hätte das nicht.
Was denkt ihr?
Künstliche Intelligenz (KI), soweit diese bisher entwickelt ist und eingesetzt wird, fehlt
schlichtweg (noch) die dem menschlichen Gehirn/ZNS zu eigene sensomotorische und (damit
verknüpft) emotionale Intelligenz, soweit man diese als Kriterien von Intelligenz
schlechthin einstufen will.
Dabei scheint gerade die Sensomotorik eine der Stärken bis heute entwickelter KI zu sein.
Die diesbezügliche Schwäche von KI ist darin begründet, dass über Sensoren aufgenommene
Wahrnehmungen von „Sinneseindrücken“ nicht bzw. nur eingeschränkt assoziativ kombiniert
werden können. Der ganzheitliche Gehalt – auch im Sinne von emergenter Wahrnehmung – eines
perzeptierten Sachverhalts bzw. einer Gegenständlichkeit kann nicht von einer KI-basierten
Maschine erfasst und damit auch nicht prozessual verarbeitet werden, wie das (instantan)
durch neuronale Prozesse im Gehirn von Lebewesen erfolgt.
Konkret bedeutet dies, dass die Qualität technisch sensorischer Erfassung, gleich ob
optisch, olfaktorisch oder sonstwie haptisch, jener den über menschliche Sinne
perzeptierten zumeist schon gleichwertig und in Teilen überlegen sind.
Jedoch lassen die (noch) fehlende Kombination verschieden technisch-sensorisch
perzeptierter Sinnesreize, bzw. -eindrücke als Voraussetzung zu ganzheitlicher Wahrnehmung
und damit die dementsprechend unzureichende Inferenz zu Entscheidungsfindungen, zusammen
mit total fehlender Intuition und Inspiraton (wie diese dem Menschen verfügbar sind),
KI-basierte Maschinen noch weit hinter der menschlichen Intelligenz zurückstehen.
Damit ist aber keineswegs gesagt, dass diese Systeme nicht eine entscheidende Funktion in
kommenden technischen Gesellschaften haben würden. Und genau diese Postition wird den
klassischen „Fluch und Segen“ von Technisierung um ein vielfaches verstärken. Denn alles,
was diese Maschinen genuin beherrschen werden, muss diesen als Programm vorgegeben werden,
um dann in mehr oder weniger autonomen Prozessabläufen zu funktionieren (z.B. sog.
eingebettete Systeme - „embeddet systems“). Es sind und bleiben (bis auf weiteres)
Menschen, mit ihren Unzulänglichkeiten, die derartige Systeme programmieren und soweit
diese noch Herr der Lage bleiben können, sind derartige Systeme i.W. noch beherrschbar.
Sobald jedoch selbstlernende Maschinen die Kontrolle über sie nicht mehr zulassen, bzw.
diese nicht mehr – z.B. aus unvorhergesehenen Konditionen – ermöglichen, kann es schwierig
werden und Stephen Hawkings apokalyptische Prophezeiung könnte sich vollziehen.
Aber auch wenn künftige Polit-Zwerge ganze Heere KI-basierter Killer-Roboter in ihnen
nicht freundlich gesonnene Länder beordern, wird man den Faust'schen Pakt als Fluch
dieser Technologie erkennen und erleben können.
Dennoch scheint es den Menschen eher möglich zu sein, komplexe Technik, aber nicht
Menschen mit paranoid komplexenPersönlichkeitsstörungen in den Griff zu bekommen. Diese
Gabe fehlt den Menschen bislang und darin liegt das eigentliche Problem von KI. Fluch und
Segen von Technik; Menschen mißbrauchen Technik, wie Zeuss es natürlich wusste und doch
konnte oder wollte er den Raub des Feuers durch Prometheus nicht verhindern.
Feuer resp. Techne als des Menschheit Schicksal, im Guten wie im Bösen.
Bester Gruß! - Karl