Eine Frage an die KI-Experten: KIs werden ja gelegentlich als Black Boxes bezeichnet, bei denen wir nicht nachvollziehen können, wie sie zu ihren Ergebnissen kommen. Handelt es sich dabei um prinzipielle Unverständlichkeit oder könnten wir bei einer ganz kleinen KI sehr wohl übersehen, wie sie zu ihren grob geschnitzten und unzutreffenden Ergebnissen kommt und können das bei einer grossen KI mit sehr vielen Recheneinheiten nur wegen der Länge des Protokolls nicht, das einen menschlichen Leser überfordert? In diesem Fall könnte man sagen: es ist eigentlich ganz einfach und in keiner Weise geheimnisvoll, nur zu viel für uns.

Claus