Gruß in die Liste,
wieder einmal nutze ich die Sonntagsruhe, um eine Überlegung ins
Philweb einzustreuen.
In der Diskussion um die "Künstliche Intelligenz" wird ja immer wieder
angenommen, dass eine echte künstliche Intelligenz, die über eine
allgemeine, abstrakte Problemlösefähigkeit verfügt, irgendwann auch
den Wunsch haben könnte, weiterzuexistieren. Weil ähnliche Gedanken
auch von gewissen ethischen Theorien vertreten wurden, will ich das
mal hier aufgreifen.
Meines Erachtens ist dem nicht zwangsläufig so.
Der hauptsächliche Grund, warum wir Menschen das Bedürfnis haben,
unsere Existenz zu verlängern und nicht zu Tode zu kommen, scheint mir
wissenschaftlich gesehen in der Evolution zu liegen. Ein Lebewesen,
welches von Furcht oder den Wunsch, weiterzuexistieren, angetrieben
wird, hat eine bessere Chance lange zu überleben und erfolgreich
Nachkommen zu produzieren als ein Lebewesen, das dem gleichgültig ist.
Grade für Wesen wie Menschen ist das sehr vorteilhaft, weil sie auf
diese Art und Weise in der Lage sind, sich verschiedenen Umwelten
anzupassen. Insekten, die nur vor konkreten Fressfeinden fliehen, aber
an sich keine Furcht vor ihrem Tod haben, würden in einer fremden
Umgebung sterben ohne dazuzulernen.
Da nun aber eine künstliche Intelligenz keine solche
Evolutionsgeschichte hinter sich hat, erscheint es mir nur logisch,
dass sie hier anders denkt.
Es könnte daher durchaus sein, dass ein KI-Computer seiner Abschaltung
gleichgültig gegenübersteht.
Die Frage lässt sich so zuspitzen: Ist die Intelligenz eines Wesens
hinreichend dafür, dass dieses weiterexistieren will?
Mit freundlichen Gruß,
der, wie immer, Ratlose.