Eine Frage an die KI-Experten: KIs werden ja gelegentlich als Black Boxes bezeichnet, bei
denen wir nicht nachvollziehen können, wie sie zu ihren Ergebnissen kommen. Handelt es
sich dabei um prinzipielle Unverständlichkeit oder könnten wir bei einer ganz kleinen KI
sehr wohl übersehen, wie sie zu ihren grob geschnitzten und unzutreffenden Ergebnissen
kommt und können das bei einer grossen KI mit sehr vielen Recheneinheiten nur wegen der
Länge des Protokolls nicht, das einen menschlichen Leser überfordert? In diesem Fall
könnte man sagen: es ist eigentlich ganz einfach und in keiner Weise geheimnisvoll, nur zu
viel für uns.
Claus