-
0
Frage: Werden Roboter mal die Welt übernehmen?
- Stichworte:
-
Fabian Zehner Beantwortet am 16 Mai 2025:
Meine kurze (und naive) Antwort ist Nein. Vieles ist Panikmache und Unverständnis über das, was die aktuellen Methoden eigentlich tun.
Allerdings verfolge ich seit einiger Zeit mit wachsendem Stirnrunzeln, >wie< KI eingesetzt wird. Sprich: Nicht die KI selbst ist die Gefahr, sondern das, was der Mensch damit macht.
Es gibt ja viele Geschichten und Filme von KIs, die plötzlich auf die Idee kommen, dass es viel besser für die Welt wäre, wenn sie die Menschen überwältigen würde. Auf solche Ideen kommen die sogenannten schwachen KIs, die wir aktuell haben, aber gar nicht. Sie haben keinen eigenen Antrieb oder Ziele, sie haben auch nicht plötzlich Zugriff auf den Sicherheitszaun um eine Forschungsanlage oder gar die Energieversorgung einer Stadt. Und diesen eigenen Antrieb werden sie (aus meiner Sicht) auch nie bekommen. Dann wäre sie eine starke KI. Das kann sich vielleicht ändern, sollten wir Menschen irgendwann verstehen, was Bewusstsein ist und es nachbauen können.
Was aber nun, wenn wir den schwachen KIs mit all ihren bekannten und unbekannten Fehlern plötzlich Zugriff geben? Im Hype rund um GPT letztes Jahr etwa haben so einige dem Chatbot direkt Zugriff auf ihren Computer gegeben. Oder Zugriff auf Onlinedienste (über sog. APIs), sodass die Chatbots beispielsweise auf X/Twitter posten konnten. Der Chatbot konnte damit alles tun, was man mit einem Computer nunmal machen kann, und auch viele andere Menschen über Sprache erreichen. Diese Chatbots haben dabei keinen bösen Willen; sie haben ja, wie gesagt, keinen Antrieb. Aber sie machen Fehler und können z. B. sozusagen versehentlich schlechte Dinge auf den eigenen Computer laden, Dateien auf dem Computer so verändern, dass er nicht mehr funktioniert, halluzinierte Falschinformationen über Onlinedienste verbreiten und Ähnliches. Deshalb bin ich der Meinung, dass die Menschen gerade einige Ingenieursfehler begehen, die nicht in der Gefährlichkeit der KI begründet sind, sondern darin, dass so einige nicht ganz wissen, was sie da eigentlich tun.
Als ein weiteres Beispiel gibt es Berichte von Personen mit psychischen Störungen (wie Depression), die mit den Chatbots schreiben und dann schlechten Ratschlägen mit ernstzunehmenden Konsequenzen folgen. Auch das ist ein Risiko, das in der Nutzung durch den Menschen besteht.
Es gibt natürlich auch die Möglichkeit, dass übelmeinende Menschen die KI so gestalten, _dass_ sie durchaus schlechte Dinge verfolgt. Auch das ist wieder vom Menschen ausgehend und deshalb gibt es zum Beispiel inzwischen von der EU Richtlinien für den Einsatz von KI in bestimmten Bereichen. Und übrigens sieht man solche Tendenzen bereits in der Wissenschaft: Es gibt immer mehr wissenschaftliche Publikationen, die einfach nur automatisch generiert sind und u.a. die Wissenschaft in einem schlechten Licht dastehen lassen. Schaut euch zum Beispiel mal die Abbildung von einer Ratte an, die vermeintliche Wissenschaftler*innen in einer wissenschaftlichen Zeitschrift veröffentlicht haben: https://garymarcus.substack.com/p/the-exponential-enshittification — dass eine normale Ratte so nicht aussieht und auch die Abbildungsbeschriftungen nichtmal richtige Wörter sind, erkennt man ja eigentlich schnell, aber leider ist das in den Qualitätskontrollen nicht aufgefallen. Auch diese Kontamination von Informationen und große Menge neuer Informationen ist ein ernstzunehmendes Risiko in der Art und Weise, wie die generativen KIs zur Verfügung stehen.
-
Michael Martin Beantwortet am 16 Mai 2025:
Szenarien wie bei „Terminator“ halte ich für ziemlich übertrieben. Aber KI, die von Wirtschaft und Unternehmen inzwischen für alles Mögliche eingesetzt wird, um damit mehr Geld zu verdienen, bringt durchaus Risiken mit sich. Denn wir alle wissen: Geld regiert die Welt!
Kommentare