Am 06.04.2023 um 18:30 schrieb Rat Frag über PhilWeb <philweb@lists.philo.at>:Hallo,
ich hatte kurz eine Überlegung:
Eine starke künstliche Intelligenz hätte an sich keinen Grund, Angst
vor der Abschaltung zu haben.
Biologische Lebenwesen haben Angst vor dem Tod, weil Todesangst ihre
Chance zu überleben und damit indirekt die Verbreitung ihrer
Erbinformationen dient. So eine psychologische Disposition wird also
durch die Evolutionstheorie entwickelt.
Eine künstliche Intelligenz hätte das nicht.
Was denkt ihr?
Künstliche Intelligenz (KI), soweit diese bisher entwickelt ist und eingesetzt wird, fehlt schlichtweg (noch) die dem menschlichen Gehirn/ZNS zu eigene sensomotorische und (damit verknüpft) emotionale Intelligenz, soweit man diese als Kriterien von Intelligenz schlechthin einstufen will.
Dabei scheint gerade die Sensomotorik eine der Stärken bis heute entwickelter KI zu sein. Die diesbezügliche Schwäche von KI ist darin begründet, dass über Sensoren aufgenommene Wahrnehmungen von „Sinneseindrücken“ nicht bzw. nur eingeschränkt assoziativ kombiniert werden können. Der ganzheitliche Gehalt – auch im Sinne von emergenter Wahrnehmung – eines perzeptierten Sachverhalts bzw. einer Gegenständlichkeit kann nicht von einer KI-basierten Maschine erfasst und damit auch nicht prozessual verarbeitet werden, wie das (instantan) durch neuronale Prozesse im Gehirn von Lebewesen erfolgt.
Konkret bedeutet dies, dass die Qualität technisch sensorischer Erfassung, gleich ob optisch, olfaktorisch oder sonstwie haptisch, jener den über menschliche Sinne perzeptierten zumeist schon gleichwertig und in Teilen überlegen sind.
Jedoch lassen die (noch) fehlende Kombination verschieden technisch-sensorisch perzeptierter Sinnesreize, bzw. -eindrücke als Voraussetzung zu ganzheitlicher Wahrnehmung und damit die dementsprechend unzureichende Inferenz zu Entscheidungsfindungen, zusammen mit total fehlender Intuition und Inspiraton (wie diese dem Menschen verfügbar sind), KI-basierte Maschinen noch weit hinter der menschlichen Intelligenz zurückstehen.
Damit ist aber keineswegs gesagt, dass diese Systeme nicht eine entscheidende Funktion in kommenden technischen Gesellschaften haben würden. Und genau diese Postition wird den klassischen „Fluch und Segen“ von Technisierung um ein vielfaches verstärken. Denn alles, was diese Maschinen genuin beherrschen werden, muss diesen als Programm vorgegeben werden, um dann in mehr oder weniger autonomen Prozessabläufen zu funktionieren (z.B. sog. eingebettete Systeme - „embeddet systems“). Es sind und bleiben (bis auf weiteres) Menschen, mit ihren Unzulänglichkeiten, die derartige Systeme programmieren und soweit diese noch Herr der Lage bleiben können, sind derartige Systeme i.W. noch beherrschbar.
Sobald jedoch selbstlernende Maschinen die Kontrolle über sie nicht mehr zulassen, bzw. diese nicht mehr – z.B. aus unvorhergesehenen Konditionen – ermöglichen, kann es schwierig werden und Stephen Hawkings apokalyptische Prophezeiung könnte sich vollziehen.
Aber auch wenn künftige Polit-Zwerge ganze Heere KI-basierter Killer-Roboter in ihnen nicht freundlich gesonnene Länder beordern, wird man den Faust'schen Pakt als Fluch dieser Technologie erkennen und erleben können.
Dennoch scheint es den Menschen eher möglich zu sein, komplexe Technik, aber nicht Menschen mit paranoid komplexenPersönlichkeitsstörungen in den Griff zu bekommen. Diese Gabe fehlt den Menschen bislang und darin liegt das eigentliche Problem von KI. Fluch und Segen von Technik; Menschen mißbrauchen Technik, wie Zeuss es natürlich wusste und doch konnte oder wollte er den Raub des Feuers durch Prometheus nicht verhindern.
Feuer resp. Techne als des Menschheit Schicksal, im Guten wie im Bösen.
Bester Gruß! - Karl