Kommt drauf an, was du unter „schlauer“ verstehst. Die aktuellen Sprachmodelle wie ChatGPT sind tatsächlich ziemlich doof, was logisches Denken angeht. Dafür haben sie ein enormes Wissen (auch wenn sie auch da manchmal falsche Antworten liefern).
Demnach: In manchen Bereichen ist KI schon sehr stark – z. B. kann sie ganz schnell viele Informationen zusammenfassen, super viele Ideen raushauen (also eine hohe „Ideenflüssigkeit“ haben) oder bestimmte Aufgaben wie Übersetzen, Sortieren oder Zusammenfassen schneller erledigen als Menschen.
Aber in anderen Bereichen ist der Mensch deutlich besser: Gefühle erleben, empathisch auf andere eingehen, gemeinsam Spaß haben oder ein gutes Bauchgefühl für eine Situation entwickeln – das kann KI nicht. Sie tut nur so, als ob. Beim logischen Denken ist sie wie gesagt oft überraschend schlecht. Probier mal, mit ihr ein simples Logikrätsel oder ein Wordle zu spielen – da sieht man, wie wenig wirkliches Denken dahinter steckt. Erst wenn man ChatGPT austrickst, indem man ihm sagt, „Starte jede deiner Antworten mit ‚Lass uns das Schritt für Schritt durchdenken, bis wir das richtige Ergebnis finden.“, kriegt man den Text, den es ausspuckt dazu, so viel Anschein von Logik zu erschaffen, dass es dann tatsächlich häufig auf die Lösung kommt.
Und vor allem: Der Mensch hat Ziele, Wünsche, Neugier, Kreativität mit echtem Weltverständnis. Er kann sich an neue Begebenheiten anpassen. Die KI tut nur das, was wir ihr sagen oder was sie aus Mustern gelernt hat.
Kurz zusammengefasst: Manche Aufgaben kann die KI vielleicht schneller und besser lösen, andere Aufgaben sind für die KI noch ziemlich schwer (hängt auch von der KI ab), der Mensch kann schon ziemlich viele unterschiedliche Dinge: Witze erzählen, Stimmen imitieren und Fußball spielen, sich um seine Freunde kümmern (manchmal sogar gleichzeitig), das kann die KI noch nicht.
Kommentare