Am 16.06.2023 um 16:38 schrieb Claus Zimmermann über PhilWeb
<philweb(a)lists.philo.at>at>:
> ...wenn es sich statt konditionierter Reflexe um
Wahrscheinlichkeitsberechnungen handeln würde, wäre das auch kein
künstliches Erleben.
-------
und darauf hin am 16.06.23 um 16:49 Ingo Tessmann:
… ich halte ja an der Unterscheidung von (er)lebenden
Organismen und
bloß funktionierenden Maschinen fest, insofern geht es mir nur um
die
Annäherung von maschineller an menschlicher Intelligenz. Äußerlich
könnte sie sehr weit gehen, auch hinsichtlich der Farbenbestimmung. Und
solange wir den Organismus bzw. die Maschine als black box betrachteten,
gäbe es kaum noch Abweichungen.
------
Mit diesem Hinweis geht es schon zur Beantwortung der Frage des Claus
Zimmermann, aus dessen Schreiben vom 14.06.2023 um 19:58 nicht
hervorging, ob er den Unterschied zwischen einem klassischen und einem
KI-Programm erkannt hatte:
"Nach meinem Informationsstand passt sich bei KI die Hardware ähnlich
wie das Gehirn an die zu lösenden Probleme an. Das allerdings nicht von
selbst, sondern nach vorgegebenen Regeln. Im Prinzip könnte
nachvollzogen und protokolliert werden, was da geschieht, in der Praxis
ist das wegen der Unmenge der Recheneinheiten nicht möglich."
------
Das war nicht so ganz korrekt. Ich bin kein Lehrer, zitiere trotzdem
einfach geschriebene Stellen nach einfacher Suche mit Suchwörtern Antworten:
1.
https://www.nooxit.com/glossar/artificial-intelligence
"AI-Lösungen unterscheiden sich in mehrerlei Hinsicht von klassischen
Programmen. So schreiben Entwickler im traditionellen Fall einen Code,
der aus verschiedenen Anweisungen (z. B. Wenn-Dann-Regeln) besteht.
Systeme dieser Art werden auch als regelbasiert bezeichnet.
Anders stellt sich die Situation bei einer Artifical Intelligence dar.
Hier gibt der Programmierer nicht jeden einzelnen Schritt vor. Vielmehr
schreibt er einen Algorithmus, der die notwendigen Schritte
selbstständig erstellen kann. Unter diesen Voraussetzungen lassen sich
Probleme lösen, die für regelbasierte Programme viel zu kompliziert wären."
2.
https://www.thats-ai.org/fr-CH/units/ki-mehr-als-nur-ein-programm
"Darüber hinaus sind aktuelle “Tiefes Lernen”-Modell sehr schwer zu
interpretieren und zu verstehen. Dies führt oft dazu, dass sie sich wie
eine Blackbox verhalten, da man nicht wirklich weiß was sie genau machen."
Aus 1. geht hervor, dass Claus am 14.6. richtiger geschrieben hätte:
Nach meinem Informationsstand passt sich bei KI die Hardware ähnlich wie
das Gehirn an die zu lösenden Probleme an. Das allerdings nicht von
selbst, sondern nach vorgegebenen Algorithmen. Es hätte also statt
Regeln das Wort Algorithmen stehen müssen. Sicher kann jeder hingehen
und sagen, das wäre doch dasselbe, oder fast dasselbe, so einfach ist es
aber nicht. Und der Satz des Ingo:
"Im Prinzip könnte nachvollzogen und protokolliert werden, was da
geschieht, in der Praxis ist das wegen der Unmenge der Recheneinheiten
nicht möglich."
müsste umgewandelt werden in: "Im Prinzip kann nicht einmal
nachvollzogen und protokolliert werden, was das geschieht, nicht nur
wegen der Unmenge der Recheneinheiten, was ja noch dazu kommt."
Ich füge hinzu:
Nur mit einem destruktiven Untersuchung könnte vielleicht nachvollzogen
und protokolliert werden, was da geschieht. Hier bin ich nun so sicher
auch nicht. Und doch gehe ich zurück und über zur zweiten Frage, die
auch Ingo mit dem Hinweis auf die Black Box zumindest ansatzweise
beantwortete:
Am 16.06.23 um 16:49 schrieb Ingo Tessmann über PhilWeb:
… ich halte ja an der Unterscheidung von (er)lebenden
Organismen und
bloß funktionierenden Maschinen fest, insofern geht es mir nur um
die
Annäherung von maschineller an menschlicher Intelligenz. Äußerlich
könnte sie sehr weit gehen, auch hinsichtlich der Farbenbestimmung. Und
solange wir den Organismus bzw. die Maschine als black box betrachteten,
gäbe es kaum noch Abweichungen.
Ich habe die Bemerkung des Claus jetzt ungewollt aus Zeitgründen
übersprungen, die sich auf das Erleben bezieht. Hier müsste lange
diskutiert werden, inwieweit "erleben" und "denken" etwas gemeinsam
haben, bzw. eine Redundanz vorliegt. Wie zu erwarten war, hat Karl noch
das "verstehen" gebracht, was gleichermaßen sehr viel Zeit zu
diskutieren bräuchte, um den gemeinsamen Nenner für all das zu finden,
der allen drei, und noch viel anderem, was mit anderen Wörtern gedacht
werden soll, wie etwa das "empfinden."
Und hier noch einmal die Frage 2, die ich am 14.6. stellte:
Meine Frage geht nun so: Wenn dieser Automat, der nur einen Rahmen
bekommen hat, Lösungen findet, weiß dann jemand, was in ihm vor sich
geht? Das scheint ja der Unterschied zu programmierten "Wesen" zu sein.
Wenn im Nachhinein nicht feststellbar ist, was in dem "Wesen" oder
"Automat" geschah, auf welcher Grundlage kann dann jemand sagen, dieses
hätte nicht gedacht? Wie können Mathematiker das beweisen? Und dazu
gehört ja auch das Angst haben, oder etwa nicht? Wie kann jemand
behaupten, dass etwas in einer Sache nicht ist, wenn er die Sache nicht
versteht? Kann mir das jemand klar machen?
----
Die Frage bleibt bei mir offen, auch wenn ein Minister oder ein Kanzler
mir sagt, dass da doch ein großer Unterschied zwischen Menschdenken und
Automatendenken gibt, zwischen Spatzendenken und Rattendenken. Das ist
für mich leider keine Antwort, mit Hinweis auf Vermögen und Fähigkeiten.
Formal kann ich auch schreiben: Sache A gibt den Satz von sich, dass er
xyz kann, und B, dass er ijk kann. Wenn A und B schwarze Kisten sind,
wie kann ich dann sagen, dass sie etwas nicht können, was ich bei mir
vermute? Ich bin eben kein Wittgenstein, der von oben herab sagen kann,
A oder B könnten nicht das, was sie vorgeben. Woher weiß ich, ob ich
eine Mutter Theresa vor mir habe, oder einen Hoodlum? Ich kann ja auch
nicht behaupten, dass jemand, der sagt, er wäre mit dem Teufel in
Kontakt, wenn er das behauptet. Dann entferne ich mich lieber ein wenig,
denn es könnte ja was dran sein.
Ich lasse mich jedoch gerne belehren, damit ich auf die Sprünge komme,
aber bitte nicht mit Sätzen wie: Na ja, die MT hat die Nächstenliebe,
der H. hat die Kriminalität in sich.
Entschuldigt bitte das englische Wort, ich will auch mal ein englisches
Wort gebrauchen dürfen, ein Hoodlum scheint mir so ungefähr ein Halunke
zu sein. Aber bitte denkt nicht so wie ich, die Menschenwürde muss
schließlich geehrt werden, kein Mensch kann ein Halunke sein!
JH