Philosophen über Künstliche Intelligenz: Was denken die sich?

Philosophen über Künstliche Intelligenz: Was denken die sich?

Künstliche Intelligenz (KI) ist ein Thema, das sowohl Faszination als auch Unsicherheit in uns hervorruft. Die Frage, ob KI tatsächlich wie Menschen denken kann und ob sie ähnliche Rechte wie Menschen haben sollte, beschäftigt den Linguisten Noam Chomsky.

Diese Debatte ist jedoch nicht neu. Bereits in den 1940er Jahren sorgte der Kybernetiker Alan Turing mit seiner universellen Rechenmaschine für Aufsehen. Turing stellte die Differenz zwischen Maschinen und menschlichen Rechnern in Frage und entwickelte den berühmten Turing-Test. Dabei sitzt ein Mensch einer Maschine gegenüber, die intellektuelle Fähigkeiten simuliert. Wenn der Mensch keinen Unterschied zwischen sich und der Maschine feststellen kann, gilt der Test als bestanden und der Beweis erbracht, dass die Maschine denken kann.

Ein Film, der sich mit diesem Experiment befasst, ist “Ex Machina”. In diesem Film versucht ein Programmierer festzustellen, ob ein weiblicher Roboter mit einem KI-System tatsächlich Gefühle hat oder sie nur vorspielt. Die Maschine überlistet den Programmierer jedoch und kündigt damit das Zeitalter der maschinellen Herrschaft über den Menschen an.

Die Schöpfer des Films haben das Technologie-Unternehmen “Bluebook” genannt, was kein Zufall ist. Der Philosoph Ludwig Wittgenstein diskutierte in seinem Werk “Das blaue Buch” zentrale Fragen wie “Was ist Schmerz?” und “Was ist Denken?”. Wittgenstein betont, dass wir diese Fragen nicht durch einfaches Zeigen auf konkrete Gegenstände beantworten können. Die Antwort liegt in unserem gesellschaftlichen und sprachlichen Umgang. Nur von etwas, das sich verhält wie ein Mensch, können wir sagen, dass es Schmerzen hat.

Es bleibt jedoch fraglich, ob wir jemals erkennen können, ob Maschinen Bewusstsein haben. Der australische Philosoph David Chalmers weist darauf hin, dass wir auch bei Menschen nicht wirklich wissen, ob sie ein Bewusstsein haben. Wir nehmen es lediglich an, dass ihre inneren Zustände den unseren ähneln. Chalmers schließt jedoch nicht aus, dass Maschinen eines Tages Bewusstsein entwickeln könnten. Schließlich sind Programme wie ChatGPT in der Lage, unbegrenzt zu lernen. Warum sollte also nicht auch Bewusstsein entstehen?

LESEN  iPad Air 4 vs. iPad Air 5: Lohnt sich ein Upgrade?

Es gibt jedoch einen entscheidenden Unterschied zwischen menschlicher und künstlicher Intelligenz, der fast schon essenziell ist. Programme wie ChatGPT können zwar riesige Datenmengen verarbeiten und statistisch wahrscheinliche Ergebnisse erzeugen, aber sie unterscheiden sich grundlegend von der Art und Weise, wie Menschen denken und Sprache verwenden. Der menschliche Verstand ist ein effizientes und elegantes System, das mit kleinen Informationsmengen arbeitet und Erklärungen schafft.

Laut Chomsky basiert menschliches Denken auf möglichen Erklärungen und Fehlerkorrekturen, ein Prozess, der die rational in Betracht gezogenen Möglichkeiten allmählich einschränkt. Das menschliche Denken baut auf Grammatik und der Fähigkeit komplexe Sätze und Gedankengänge zu bilden auf. Maschinen hingegen sind auf Beschreibungen und Vorhersagen spezialisiert. Künstliche Intelligenzen sind daher eher dazu verurteilt, Halluzinationen zu erzeugen. Eine höhere Leistungsfähigkeit ändert daran nichts.

Es besteht die Gefahr, dass wir die KI überschätzen und über das menschliche Denken stellen. Dies hätte schwerwiegende Folgen für Wissenschaft und Ethik. Die Zeit der Verheißungen könnte dann in einer Tragödie enden.

Die Frage, ob Maschinen tatsächlich wie Menschen denken können, ist also noch nicht abschließend geklärt. Es bleibt spannend zu beobachten, wie sich die KI-Entwicklung weiterentwickeln wird und welche Auswirkungen dies auf unser Verständnis von Bewusstsein und Denken haben wird.

Gehirne sind effizienter als Maschinen