Am 16. Juni 2023 17:53:04 MESZ schrieb "Joseph Hipp über PhilWeb"
<philweb(a)lists.philo.at>at>:
Ersatz des Schreibens vorhin.
Kleine Korrektur hier unten schon getan:
Nicht so: Und der Satz des Ingo
Sondern: Und der Satz des Claus
Am 16.06.2023 um 16:38 schrieb Claus Zimmermann über PhilWeb
<philweb(a)lists.philo.at>at>:
> ...wenn es sich statt konditionierter Reflexe
um Wahrscheinlichkeitsberechnungen handeln würde, wäre das auch kein künstliches Erleben.
-------
und darauf hin am 16.06.23 um 16:49 Ingo Tessmann:
… ich halte ja an der Unterscheidung von
(er)lebenden Organismen und bloß funktionierenden Maschinen fest, insofern geht es mir nur
um die Annäherung von maschineller an menschlicher Intelligenz. Äußerlich könnte sie sehr
weit gehen, auch hinsichtlich der Farbenbestimmung. Und solange wir den Organismus bzw.
die Maschine als black box betrachteten, gäbe es kaum noch Abweichungen.
------
Mit diesem Hinweis geht es schon zur Beantwortung der Frage des Claus Zimmermann, aus
dessen Schreiben vom 14.06.2023 um 19:58 nicht hervorging, ob er den Unterschied zwischen
einem klassischen und einem KI-Programm erkannt hatte:
"Nach meinem Informationsstand passt sich bei KI die Hardware ähnlich wie das Gehirn
an die zu lösenden Probleme an. Das allerdings nicht von selbst, sondern nach vorgegebenen
Regeln. Im Prinzip könnte nachvollzogen und protokolliert werden, was da geschieht, in der
Praxis ist das wegen der Unmenge der Recheneinheiten nicht möglich."
------
Das war nicht so ganz korrekt. Ich bin kein Lehrer, zitiere trotzdem einfach geschriebene
Stellen nach einfacher Suche mit Suchwörtern
Antworten:
1.
https://www.nooxit.com/glossar/artificial-intelligence
"AI-Lösungen unterscheiden sich in mehrerlei Hinsicht von klassischen Programmen. So
schreiben Entwickler im traditionellen Fall einen Code, der aus verschiedenen Anweisungen
(z. B. Wenn-Dann-Regeln) besteht. Systeme dieser Art werden auch als regelbasiert
bezeichnet.
Anders stellt sich die Situation bei einer Artifical Intelligence dar. Hier gibt der
Programmierer nicht jeden einzelnen Schritt vor. Vielmehr schreibt er einen Algorithmus,
der die notwendigen Schritte selbstständig erstellen kann. Unter diesen Voraussetzungen
lassen sich Probleme lösen, die für regelbasierte Programme viel zu kompliziert
wären."
Ich hatte ja nur eine laienhafte Vermutung geäussert.
Jetzt muss ich erst mal bei Wikipedia nachlesen, was ein Algorithmus ist, da ich davon nur
eine vage Vorstellung habe. Ich werde nie wieder eine laienhafte Vermutung äussern, wenn
das dazu führt, dass ich anschliessend in Fachgebieten herumstümpern muss, von denen ich
nichts verstehe.
...Ein Agorithmus ist also eine eindeutige Handlungsvorschrift zur Lösung eines Problems
oder einer Klasse von Problemen.
Vielleicht so:
1) sortiere nach...
2) bilde Mittelwerte
3) ...
Ausserdem muss der Algorithmus bei gleichen Voraussetzungen immer das gleiche Ergebnis
hervorbringen und die nächste anzuwendende Regel muss jederzeit feststehen.
Das Regelsystem ist also nicht ergebnisoffener als die einzelne Regel. Der Ablauf ist
vollständig durch den Algorithmus bestimmt und von Selbstständigkeit zu reden etwas
irreführend.
2.
https://www.thats-ai.org/fr-CH/units/ki-mehr-als-nur-ein-programm
"Darüber hinaus sind aktuelle “Tiefes Lernen”-Modell sehr schwer zu interpretieren
und zu verstehen. Dies führt oft dazu, dass sie sich wie eine Blackbox verhalten, da man
nicht wirklich weiß was sie genau machen."
Eine echte Blackbox wäre für mich ein Wesen, dass Unterscheidungen machen kann, die ich
nicht nachvollziehen kann und die es mir nicht anders erklären kann als mit: das sieht man
doch! So wie das Lebewesen ja ständig tun. Meist kann man es allerdings nachvollziehen und
steht dann nicht vor einer Blackbox, weil man von der gleichen Sorte ist.
Aus 1. geht hervor, dass Claus am 14.6. richtiger
geschrieben hätte:
Nach meinem Informationsstand passt sich bei KI die Hardware ähnlich wie das Gehirn an die
zu lösenden Probleme an. Das allerdings nicht von selbst, sondern nach vorgegebenen
Algorithmen. Es hätte also statt Regeln das Wort Algorithmen stehen müssen. Sicher kann
jeder hingehen und sagen, das wäre doch dasselbe, oder fast dasselbe, so einfach ist es
aber nicht. Und der Satz des Claus:
"Im Prinzip könnte nachvollzogen und protokolliert werden, was da geschieht, in der
Praxis ist das wegen der Unmenge der Recheneinheiten nicht möglich."
müsste umgewandelt werden in: "Im Prinzip kann nicht einmal nachvollzogen und
protokolliert werden, was das geschieht, nicht nur wegen der Unmenge der Recheneinheiten,
was ja noch dazu kommt."
Nein, das geht aus dem Zitat
"Darüber hinaus sind aktuelle “Tiefes Lernen”-Modell sehr schwer zu interpretieren
und zu verstehen. Dies führt oft dazu, dass sie sich wie eine Blackbox verhalten, da man
nicht wirklich weiß was sie genau machen."
nicht hervor. Wenn man davon ausgeht, dass die Autoren ihre Worte bewusst und genau
gewählt haben, steht da das Gegenteil. "Sehr schwer zu interpretieren" heisst
nämlich "im Prinzip schon zu interpretieren, wenn man die Schwierigkeiten
überwindet".
Claus
Ich füge hinzu:
Nur mit einem destruktiven Untersuchung könnte vielleicht nachvollzogen und protokolliert
werden, was da geschieht. Hier bin ich nun so sicher auch nicht. Und doch gehe ich zurück
und über zur zweiten Frage, die auch Ingo mit dem Hinweis auf die Black Box zumindest
ansatzweise beantwortete:
Am 16.06.23 um 16:49 schrieb Ingo Tessmann über PhilWeb:
… ich halte ja an der Unterscheidung von
(er)lebenden Organismen und bloß funktionierenden Maschinen fest, insofern geht es mir nur
um die Annäherung von maschineller an menschlicher Intelligenz. Äußerlich könnte sie sehr
weit gehen, auch hinsichtlich der Farbenbestimmung. Und solange wir den Organismus bzw.
die Maschine als black box betrachteten, gäbe es kaum noch Abweichungen.
Ich habe die Bemerkung des Claus jetzt ungewollt aus Zeitgründen übersprungen, die sich
auf das Erleben bezieht. Hier müsste lange diskutiert werden, inwieweit
"erleben" und "denken" etwas gemeinsam haben, bzw. eine Redundanz
vorliegt. Wie zu erwarten war, hat Karl noch das "verstehen" gebracht, was
gleichermaßen sehr viel Zeit zu diskutieren bräuchte, um den gemeinsamen Nenner für all
das zu finden, der allen drei, und noch viel anderem, was mit anderen Wörtern gedacht
werden soll, wie etwa das "empfinden."
Und hier noch einmal die Frage 2, die ich am 14.6. stellte:
Meine Frage geht nun so: Wenn dieser Automat, der nur einen Rahmen bekommen hat, Lösungen
findet, weiß dann jemand, was in ihm vor sich geht? Das scheint ja der Unterschied zu
programmierten "Wesen" zu sein. Wenn im Nachhinein nicht feststellbar ist, was
in dem "Wesen" oder "Automat" geschah, auf welcher Grundlage kann dann
jemand sagen, dieses hätte nicht gedacht? Wie können Mathematiker das beweisen? Und dazu
gehört ja auch das Angst haben, oder etwa nicht? Wie kann jemand behaupten, dass etwas in
einer Sache nicht ist, wenn er die Sache nicht versteht? Kann mir das jemand klar machen?
----
Die Frage bleibt bei mir offen, auch wenn ein Minister oder ein Kanzler mir sagt, dass da
doch ein großer Unterschied zwischen Menschdenken und Automatendenken gibt, zwischen
Spatzendenken und Rattendenken. Das ist für mich leider keine Antwort, mit Hinweis auf
Vermögen und Fähigkeiten.
Formal kann ich auch schreiben: Sache A gibt den Satz von sich, dass er xyz kann, und B,
dass er ijk kann. Wenn A und B schwarze Kisten sind, wie kann ich dann sagen, dass sie
etwas nicht können, was ich bei mir vermute? Ich bin eben kein Wittgenstein, der von oben
herab sagen kann, A oder B könnten nicht das, was sie vorgeben. Woher weiß ich, ob ich
eine Mutter Theresa vor mir habe, oder einen Hoodlum? Ich kann ja auch nicht behaupten,
dass jemand, der sagt, er wäre mit dem Teufel in Kontakt, wenn er das behauptet. Dann
entferne ich mich lieber ein wenig, denn es könnte ja was dran sein.
Ich lasse mich jedoch gerne belehren, damit ich auf die Sprünge komme, aber bitte nicht
mit Sätzen wie: Na ja, die MT hat die Nächstenliebe, der H. hat die Kriminalität in sich.
Entschuldigt bitte das englische Wort, ich will auch mal ein englisches Wort gebrauchen
dürfen, ein Hoodlum scheint mir so ungefähr ein Halunke zu sein. Aber bitte denkt nicht so
wie ich, die Menschenwürde muss schließlich geehrt werden, kein Mensch kann ein Halunke
sein!
JH
_______________________________________________
PhilWeb Mailingliste -- philweb(a)lists.philo.at
Zur Abmeldung von dieser Mailingliste senden Sie eine Nachricht an
philweb-leave(a)lists.philo.at