Am 16. Juni 2023 17:53:04 MESZ schrieb "Joseph Hipp über PhilWeb" <philweb@lists.philo.at>:
>Ersatz des Schreibens vorhin.
>
>Kleine Korrektur hier unten schon getan:
>
>Nicht so: Und der Satz des Ingo
>Sondern: Und der Satz des Claus
>
>Am 16.06.2023 um 16:38 schrieb Claus Zimmermann über PhilWeb <philweb@lists.philo.at>:
>
>>> ...wenn es sich statt konditionierter Reflexe um Wahrscheinlichkeitsberechnungen handeln würde, wäre das auch kein künstliches Erleben.
>-------
>und darauf hin am 16.06.23 um 16:49 Ingo Tessmann:
>
>> … ich halte ja an der Unterscheidung von (er)lebenden Organismen und bloß funktionierenden Maschinen fest, insofern geht es mir nur um die Annäherung von maschineller an menschlicher Intelligenz. Äußerlich könnte sie sehr weit gehen, auch hinsichtlich der Farbenbestimmung. Und solange wir den Organismus bzw. die Maschine als black box betrachteten, gäbe es kaum noch Abweichungen.
>
>------
>
>Mit diesem Hinweis geht es schon zur Beantwortung der Frage des Claus Zimmermann, aus dessen Schreiben vom 14.06.2023 um 19:58 nicht hervorging, ob er den Unterschied zwischen einem klassischen und einem KI-Programm erkannt hatte:
>
>"Nach meinem Informationsstand passt sich bei KI die Hardware ähnlich wie das Gehirn an die zu lösenden Probleme an. Das allerdings nicht von selbst, sondern nach vorgegebenen Regeln. Im Prinzip könnte nachvollzogen und protokolliert werden, was da geschieht, in der Praxis ist das wegen der Unmenge der Recheneinheiten nicht möglich."
>
>------
>
>Das war nicht so ganz korrekt. Ich bin kein Lehrer, zitiere trotzdem einfach geschriebene Stellen nach einfacher Suche mit Suchwörtern
>Antworten:
>
>1. https://www.nooxit.com/glossar/artificial-intelligence
>"AI-Lösungen unterscheiden sich in mehrerlei Hinsicht von klassischen Programmen. So schreiben Entwickler im traditionellen Fall einen Code, der aus verschiedenen Anweisungen (z. B. Wenn-Dann-Regeln) besteht. Systeme dieser Art werden auch als regelbasiert bezeichnet.
>Anders stellt sich die Situation bei einer Artifical Intelligence dar. Hier gibt der Programmierer nicht jeden einzelnen Schritt vor. Vielmehr schreibt er einen Algorithmus, der die notwendigen Schritte selbstständig erstellen kann. Unter diesen Voraussetzungen lassen sich Probleme lösen, die für regelbasierte Programme viel zu kompliziert wären."
>

Ich hatte ja nur eine laienhafte Vermutung geäussert.
Jetzt muss ich erst mal bei Wikipedia nachlesen, was ein Algorithmus ist, da ich davon nur eine vage Vorstellung habe. Ich werde nie wieder eine laienhafte Vermutung äussern, wenn das dazu führt, dass ich anschliessend in Fachgebieten herumstümpern muss, von denen ich nichts verstehe.
...Ein Agorithmus ist also eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen.

Vielleicht so:
1) sortiere nach...
2) bilde Mittelwerte
3) ...

Ausserdem muss der Algorithmus bei gleichen Voraussetzungen immer das gleiche Ergebnis hervorbringen und die nächste anzuwendende Regel muss jederzeit feststehen.
Das Regelsystem ist also nicht ergebnisoffener als die einzelne Regel. Der Ablauf ist vollständig durch den Algorithmus bestimmt und von Selbstständigkeit zu reden etwas irreführend.

>2. https://www.thats-ai.org/fr-CH/units/ki-mehr-als-nur-ein-programm
>"Darüber hinaus sind aktuelle “Tiefes Lernen”-Modell sehr schwer zu interpretieren und zu verstehen. Dies führt oft dazu, dass sie sich wie eine Blackbox verhalten, da man nicht wirklich weiß was sie genau machen."
>

Eine echte Blackbox wäre für mich ein Wesen, dass Unterscheidungen machen kann, die ich nicht nachvollziehen kann und die es mir nicht anders erklären kann als mit: das sieht man doch! So wie das Lebewesen ja ständig tun. Meist kann man es allerdings nachvollziehen und steht dann nicht vor einer Blackbox, weil man von der gleichen Sorte ist.

>Aus 1. geht hervor, dass Claus am 14.6. richtiger geschrieben hätte:
>
>Nach meinem Informationsstand passt sich bei KI die Hardware ähnlich wie das Gehirn an die zu lösenden Probleme an. Das allerdings nicht von selbst, sondern nach vorgegebenen Algorithmen. Es hätte also statt Regeln das Wort Algorithmen stehen müssen. Sicher kann jeder hingehen und sagen, das wäre doch dasselbe, oder fast dasselbe, so einfach ist es aber nicht. Und der Satz des Claus:
>
>"Im Prinzip könnte nachvollzogen und protokolliert werden, was da geschieht, in der Praxis ist das wegen der Unmenge der Recheneinheiten nicht möglich."
>
>müsste umgewandelt werden in: "Im Prinzip kann nicht einmal nachvollzogen und protokolliert werden, was das geschieht, nicht nur wegen der Unmenge der Recheneinheiten, was ja noch dazu kommt."

Nein, das geht aus dem Zitat

"Darüber hinaus sind aktuelle “Tiefes Lernen”-Modell sehr schwer zu interpretieren und zu verstehen. Dies führt oft dazu, dass sie sich wie eine Blackbox verhalten, da man nicht wirklich weiß was sie genau machen."

nicht hervor. Wenn man davon ausgeht, dass die Autoren ihre Worte bewusst und genau gewählt haben, steht da das Gegenteil. "Sehr schwer zu interpretieren" heisst nämlich "im Prinzip schon zu interpretieren, wenn man die Schwierigkeiten überwindet".

Claus

>
>Ich füge hinzu:
>
>Nur mit einem destruktiven Untersuchung könnte vielleicht nachvollzogen und protokolliert werden, was da geschieht. Hier bin ich nun so sicher auch nicht. Und doch gehe ich zurück und über zur zweiten Frage, die auch Ingo mit dem Hinweis auf die Black Box zumindest ansatzweise beantwortete:
>
>Am 16.06.23 um 16:49 schrieb Ingo Tessmann über PhilWeb:
>
>> … ich halte ja an der Unterscheidung von (er)lebenden Organismen und bloß funktionierenden Maschinen fest, insofern geht es mir nur um die Annäherung von maschineller an menschlicher Intelligenz. Äußerlich könnte sie sehr weit gehen, auch hinsichtlich der Farbenbestimmung. Und solange wir den Organismus bzw. die Maschine als black box betrachteten, gäbe es kaum noch Abweichungen.
>
>Ich habe die Bemerkung des Claus jetzt ungewollt aus Zeitgründen übersprungen, die sich auf das Erleben bezieht. Hier müsste lange diskutiert werden, inwieweit "erleben" und "denken" etwas gemeinsam haben, bzw. eine Redundanz vorliegt. Wie zu erwarten war, hat Karl noch das "verstehen" gebracht, was gleichermaßen sehr viel Zeit zu diskutieren bräuchte, um den gemeinsamen Nenner für all das zu finden, der allen drei, und noch viel anderem, was mit anderen Wörtern gedacht werden soll, wie etwa das "empfinden."
>
>Und hier noch einmal die Frage 2, die ich am 14.6. stellte:
>
>Meine Frage geht nun so: Wenn dieser Automat, der nur einen Rahmen bekommen hat, Lösungen findet, weiß dann jemand, was in ihm vor sich geht? Das scheint ja der Unterschied zu programmierten "Wesen" zu sein. Wenn im Nachhinein nicht feststellbar ist, was in dem "Wesen" oder "Automat" geschah, auf welcher Grundlage kann dann jemand sagen, dieses hätte nicht gedacht? Wie können Mathematiker das beweisen? Und dazu gehört ja auch das Angst haben, oder etwa nicht? Wie kann jemand behaupten, dass etwas in einer Sache nicht ist, wenn er die Sache nicht versteht? Kann mir das jemand klar machen?
>----
>
>Die Frage bleibt bei mir offen, auch wenn ein Minister oder ein Kanzler mir sagt, dass da doch ein großer Unterschied zwischen Menschdenken und Automatendenken gibt, zwischen Spatzendenken und Rattendenken. Das ist für mich leider keine Antwort, mit Hinweis auf Vermögen und Fähigkeiten.
>
>Formal kann ich auch schreiben: Sache A gibt den Satz von sich, dass er xyz kann, und B, dass er ijk kann. Wenn A und B schwarze Kisten sind, wie kann ich dann sagen, dass sie etwas nicht können, was ich bei mir vermute? Ich bin eben kein Wittgenstein, der von oben herab sagen kann, A oder B könnten nicht das, was sie vorgeben. Woher weiß ich, ob ich eine Mutter Theresa vor mir habe, oder einen Hoodlum? Ich kann ja auch nicht behaupten, dass jemand, der sagt, er wäre mit dem Teufel in Kontakt, wenn er das behauptet. Dann entferne ich mich lieber ein wenig, denn es könnte ja was dran sein.
>
>Ich lasse mich jedoch gerne belehren, damit ich auf die Sprünge komme, aber bitte nicht mit Sätzen wie: Na ja, die MT hat die Nächstenliebe, der H. hat die Kriminalität in sich.
>
>Entschuldigt bitte das englische Wort, ich will auch mal ein englisches Wort gebrauchen dürfen, ein Hoodlum scheint mir so ungefähr ein Halunke zu sein. Aber bitte denkt nicht so wie ich, die Menschenwürde muss schließlich geehrt werden, kein Mensch kann ein Halunke sein!
>
>JH
>_______________________________________________
>PhilWeb Mailingliste -- philweb@lists.philo.at
>Zur Abmeldung von dieser Mailingliste senden Sie eine Nachricht an philweb-leave@lists.philo.at