• Frage: Hallo eine Frage…was hat KI für Nachteile? Bzw. könnte KI in irgendeinem Sinne oder Weise gefährlich für uns werden?

    Frage gestellt daws31see am 15 Mai 2025. Diese Frage wurde auch von deed31seg, next31bay gestellt.
    • Foto: Fabian Zehner

      Fabian Zehner Beantwortet am 15 Mai 2025: last edited 15 Mai 2025 7:45 am


      Ich beziehe meine Antwort mal auf Sprachmodell-KIs wie ChatGPT.
      Die haben natürlich viele Effekte, die auch Nachteile sein können. Etwa haben Kolleg*innen aus München in einer Studie herausgefunden, dass Lernende mit ChatGPT zwar viel überfliegen können (und damit etwas mehr Lernstoff abarbeiten), aber das viel oberflächlicher machen. Wir sprechen da in der Psychologie von Verarbeitungstiefe. Und wenn man etwas nur sehr oberflächlich verarbeitet, dann ist es wahrscheinlich, dass man es eher vergisst und nicht in das eigene Wissen integriert, sodass man am Ende schlechter gelernt hat.
      Außerdem sind sie einfach sehr unzuverlässig. Häufig hört ihr ja von den „Halluzinationen“, die sie ausspucken, also dass sie etwas ausgeben, das erstmal gut/normal aussieht, aber an sich nicht stimmt oder einfach „erfunden“ ist.
      Ein anderes Problem ist, dass der Mensch ein kognitiver Geizhals ist. Also jeder Gedanke ist anstrengend für uns und … ihr kennt das sicher aus der Schule. Wenn man sich da mal einen Gedanken sparen kann („Darf ich bei dir die Hausaufgaben abschreiben?“), dann ist das sehr verführerisch für uns Menschen. Und das geht nicht nur euch in der Schule so, sondern selbst in der Wissenschaft haben wir grade eine riesige Flutwelle von Veröffentlichungen, die ganz offensichtlich Teile enthalten, die aus der KI stammen. Und das Schlimme ist aus meiner Sicht dabei nicht unbedingt, dass eine KI zur Schreibunterstützung genommen wird (das mache ich auch an Stellen, wo es mir sinnvoll erscheint), sondern 1.) dass das, was die KI geschrieben hat, offensichtlich so blind von den Forschenden dann in die Veröffentlichung reinkopiert wird ohne es zu überarbeiten oder gar nochmal zu lesen und 2.) das dann auch nicht mal von den Leuten erkannt wird, die die Qualität der Veröffentlichung kritisch überprüfen sollen. In den letzten zwei Jahren wurden schon über 1300 solcher Veröffentlichungen entdeckt (s. Tabelle 1 hier: https://onlinelibrary.wiley.com/doi/full/10.1002/leap.1650). Und man entdeckt Artikel mit Abbildungen, die offensichtlich automatisch generiert wurden und völliger Quatsch sind (wie z. B. eine Ratte mit drei Hoden und Abbildugsbeschriftungen, die nichtmal richtige Wörter sind, weil die KI damals noch nicht gut Texte in die Bilder schreiben konnte; s. https://garymarcus.substack.com/p/the-exponential-enshittification).

      Die Gefährlichkeit der KI ist nochmal ein anderes Thema.
      Die Gefährlichkeit hängt vor allem davon ab, *wie* wir Menschen sie einsetzen und worauf wir ihr Zugriff geben. Die aktuellen KIs haben keine eigenen Ziele oder bösen Absichten – sie reagieren nur, aber haben kein Motiv dahinter. Problematisch wird es, wenn Menschen den Systemen Zugriff auf Dinge geben, die sie nicht kontrollieren können (z. B. automatisch Nachrichten posten oder Dateien aus dem Internet herunterladen). Dann können durch Fehler der KI echte Schäden entstehen, auch wenn das nicht absichtlich passiert.

      Besonders kritisch wird es aber dort, wo Menschen mit psychischen Problemen die KI nutzen – etwa bei Depression. Es gab bereits Fälle, in denen Betroffene mit einem Chatbot geschrieben haben und dieser ihnen nicht geholfen, sondern sogar schlechte oder gefährliche Ratschläge gegeben hat. Das kann schlimme Folgen haben.
      Deshalb: Nicht die KI selbst ist gefährlich, sondern das, was Menschen damit tun – oder zulassen.

    • Foto: Jacqueline Schmidt

      Jacqueline Schmidt Beantwortet am 15 Mai 2025:


      Das kommt darauf an, wie und wofür KI eingesetzt wird. Eine klassische Gefahr sehe ich darin, zu viele Aufgaben „blind“ an die KI (z. B. ChatGPT) abzugeben und weniger selbst nachzudenken. Gerade in Bildungsprozessen soll uns die KI nicht ersetzen, sondern sinnvoll unterstützen.

    • Foto: Michael Martin

      Michael Martin Beantwortet am 15 Mai 2025:


      Wir dürfen das eigenständige Denken nicht verlernen und sollten vorsichtig damit sein, Vorschläge einer KI ungeprüft zu übernehmen – so plausibel sie auch klingen!

    • Foto: Thorsten Neischwander

      Thorsten Neischwander Beantwortet am 15 Mai 2025:


      Ich schließe mich den Vorrednern an dieser Stelle mal an: Immer über das nachdenken, was bei den Tools rauskommt und genau so aufmerksam lesen/sehen, wie bei allen anderen Medien auch!

Kommentare