-
0
Frage: Kann ChatGPT mir auch ohne Fehler bei den Hausaufgaben helfen?
- Stichworte:
-
Elisa Nguyen Beantwortet am 16 Mai 2025:
Hallo! Leider ist die Antwort hier ein nein…
ChatGPT und eigentlich jedes KI System wird nie 100% fehlerfrei sein (sind wir Menschen ja allerdings auch nicht!). Das liegt daran, dass KI Systeme aus Daten lernen, das funktioniert so, dass man erstmal Daten sammelt und die dann als Beispiele für eine bestimmte Aufgabe dem KI System zeigt. Im Fall von ChatGPT sind das verschiedene Texte, z.B. Wikipedia Seiten oder im Allgemeinen und die Aufgabe, die ChatGPT lernen soll, ist, wie Text aussieht, und welche Wörter oft *mit hoher Wahrscheinlichkeit* nacheinander kommen. Da der Datensatz sehr sehr groß ist, wird auch sehr viel gelernt. Allerdings kann es besonders bei neuen Texten oder Daten, die vielleicht ein neues Thema besprechen (vielleicht ein Event, was gerade erst passiert ist und dadurch noch gar nicht im Datensatz drin ist), schon zu Fehlern kommen. Meine Empfehlung wäre: Gerne KI Systeme nutzen (wenn Lehrkräfte das erlauben), aber immer die Antworten überprüfen und auch immer versuchen die Antwort nachzuvollziehen um auch wirklich zu lernen. 🙂
-
Steffen Albrecht Beantwortet am 16 Mai 2025:
Da kann ich nur zustimmen, man muss immer mit Fehlern rechnen! Wobei… weil ChatGPT auf Wahrscheinlichkeit (anders gesagt, Zufall) basiert, kann es durchaus auch mal richtig liegen und liefert sogar häufig gute Antworten und Hilfestellung. Mit den richtigen Fragen (Prompts) kann ChatGPT eine tolle Unterstützung bieten, z.B. beim Erlernen von fremdsprachen. Man kann – und sollte – sich aber nicht darauf verlassen, sondern lieber noch mal weitere Quellen zu Rate ziehen.
-
Sebastian Gombert Beantwortet am 17 Mai 2025: last edited 17 Mai 2025 7:47 am
Hallo,
das ist technisch bedingt nicht immer möglich. Aktuelle KI-Technologie wie ChatGPT basiert darauf, für eine Eingabesequenz (also bspw. eine Anweisung), schrittweise das nächste Wort (Token) zu generieren. Abhängig von dem bisher generierten wird dabei für jedes neue Wort mit Hilfe eines sog. Transformer-Decoder-Modells eine Wahrscheinlichkeitsverteilung über alle Wörter, die das Modell kennt, berechnet. Aus den x wahrscheinlichsten dieser Wörter wird dann jeweils eines mit einem Zufallsverfahren, das die jeweiligen Wahrscheinlichkeiten beachtet, ausgewählt und der Eingabesequenz angehängt. Für diese neue Sequenz wird dann wiederum das nächste wahrscheinliche Wort berechnet. Das nennt sich Autoregression. Oft kommen dabei hilfreiche und sehr sinnvolle Antworten heraus, manchmal aber auch glatter Unsinn, der nicht immer direkt als solcher erkennbar ist. Das passiert insbesondere dann, wenn bei der Zufallsauswahl mehrmals hintereinander unglücklich ausgewählt wird. Deshalb: ChatGPT kann sicherlich bei den Hausaufgaben helfen. Aber es ist gefährlich, alles, was das Modell einem vorsetzt, direkt für bare Münze zu nehmen.
Kommentare