hallo,
Die anhaltende Gleichsetzung von Vektorraumnähe mit „Verstehen“ halte
ich für einen Kategorienfehler.
Arbeiten wie /The strange geometry of skip-gram with negative sampling/
zeigen gerade nicht, dass Modelle
Semantik „abbilden“, sondern dass ihre Geometrie primär ein Artefakt der
Optimierungsdynamik ist.
Nähe im Raum bedeutet statistische Kompatibilität, nicht
Bedeutungsähnlichkeit im menschlichen Sinn.
Wer dennoch von „Verstehen“ spricht, dehnt den Begriff so weit, dass er
jedes funktionierende System einschließt –
vom Sprachmodell bis zum Thermometer, das „den Winter erklärt“.
Die zentrale Frage ist nicht, wie nah KI an menschliche Semantik
herankommt, sondern ob wir bereit sind,
den Begriff des Verstehens von Weltbezug und normativer Geltung zu
entkoppeln.
Wer das bejaht, muss sich fragen: Was bleibt dann noch, das wir wirklich
verstehen nennen können?
Am 08.02.26 um 13:31 schrieb tessmann--- über PhilWeb:
Dass stochastische Verfahren zu unerwarteten
Geometrien führen ist eigentlich erwartbar, ihr genaueres Verständnis aber bleibt zu
erforschen.
IT