Fast alle Beiträge, die über ChatGPT und anderer generativer KI handeln, beginnen damit, lustige und überraschende oder beeindruckende Ergüsse der KI zu präsentieren. Diesen Teil möchte ich direkt überspringen, da wahrscheinlich inzwischen fast jeder selbst erste Eindrücke von den Möglichkeiten gewonnen hat.
Vielmehr möchte ich mich in diesem Artikel mit den qualitativen Merkmalen und möglichen gesellschaftlichen Auswirkungen und Risiken beschäftigen. Denn die große Schwierigkeit im Umgang mit ChatGPT ist, dass das Ding oft unglaublichen Blödsinn zurückschreibt. Diesen aber so überzeugend und (vermeintlich) argumentativ unterfüttert, dass er sehr glaubhaft wirkt. Und das macht die Sache so gefährlich.
Systematische Schwächen bei ChatGPT
Das Modell ist darauf getrimmt, das (passende) nächste Wort zu berechnen und auszugeben. Dies geschieht mittels statistischer Wahrscheinlichkeit. Damit ist das Resultat einer Anfrage ebenfalls ein rein statistisches Ergebnis, ohne jegliches Bewusstsein und Garantie, dass dieses auch richtig ist. Denn das gibt das Modell nicht her.
Sich diesen Unterschied sich bei der Benutzung von solchen Systemen immer wieder selbst bewusst zu machen, ist unglaublich wichtig. Schließlich basieren die Antworten des Chatbots eben nicht auf Wissen, Reflexion und einer Art Denkprozess, sondern rein auf einer Wahrscheinlichkeitsrechnung.
Aufgrund dieser Funktionsweise wird sich die Qualität der Ergebnisse wohl auch nicht signifikant ändern lassen. Egal, wie viele Daten und Parameter wir in das Modell noch einfließen lassen. Das GPT Modell (Generative Pretrained Transformer) basiert nun einmal auf Quantität und nicht Qualität. Ein Modell, welches stattdessen auf (echtem) semantischen Verständnis basieren würde, würde wohl zu einem wesentlich besseren Ergebnis (Qualität), mit wesentlich weniger Trainingsdaten und Rechenaufwand, kommen.
Das Problem bei ChatGPT & Co. geht jedoch noch tiefer, da wir selbst ein Teil dieses Problems sind. Da der Chatbot um jeden Preis den Eindruck von Wissen bei uns erzeugen möchte. Selbst auf (kritische) Nachfragen unsererseits reagiert er selbstsicher und präsentiert „Beweise“, die oft wiederum von der KI selbst frei erfunden wurden.
Die Sache mit der Wahrheit
Generative KI (wie ChatGPT es ist) basiert auf dem Reinforcement Learning. Das ist eine Methode im Machine Learning. Andere Methoden sind Supervised Learning (Überwachtes Lernen) oder Unsupervised Learning (Unüberwachtes Lernen). Das Reinforcement Learning ist sehr ähnlich zu dem darwinistischen Prozess: Das erfolgreichste Ergebnis gewinnt und erhält die Belohnung. Die KI lernt sozusagen durch die Belohnungsfunktion, mit dem Ziel, möglichst viel an Belohnungen zu erhalten.
Die Belohnungsfunktion nun auf die Wahrheit zu optimieren, ist unglaublich schwierig. Erstens ist die Definition von Wahrheit schon eine sehr philosophische Fragestellung und es würde auch dazu führen, dass ChatGPT wesentlich weniger Antworten generieren würde. Stattdessen viel öfter die Antwort: „Das kann ich dir leider nicht beantworten.“ Und das auch bei Anfragen, die sie eigentlich beantworten könnte. Und natürlich wäre in diesem Fall auch der Wow-Faktor wesentlich geringer.
Wahrheit und korrekte Antworten und gleichzeitig „kreativ plappern“ passen halt nicht zusammen.
ChatGPT nutzt unsere menschliche Schwäche aus
Die Präsentation der generierten Antworten als echt wirkende Konversation mit der KI als unser Gegenüber ist auch aus psychologischer Sicht problematisch. Durch diese Simulation eines menschlichen Gesprächs laufen wir in einen „kognitiven Glitch“: Wir weisen der Aussage von der KI unbewusst ein großes Gewicht zu. Die Gleichsetzung von „fließender Sprache“ und „Intelligenz“ – wie sie unser Bewusstsein vornimmt – ist im Umgang mit Generativer KI jedoch ein Trugschluss, eine Täuschung. Im Endeffekt ist der jetzige Zustand von ChatGPT, Bart und Co. einfach nur gutes Marketing, welches über die Fähigkeiten hinwegtäuscht und die kognitiven Schwächen von uns Menschen ausnutzt.
Eingeschränkter Nutzen
Damit ist diese Art von KI für Recherchen komplett unbrauchbar. Selbst bei der Generierung von Textzusammenfassung können wir uns nie sicher sein, dass die KI nicht das einfach oder andere einfach dazu erfunden hat. Demzufolge sollten, nein müssen wir alles an Aussagen und Fakten, was von der KI kommt, hinterfragen. Und schon ist der praktische Nutzen eines solchen Werkzeugs quasi null.
Gesellschaftliche Risiken
Jetzt könnten wir über all die Schwächen hinwegsehen, wenn sie nicht gleichzeitig so gefährlich wären. Schließlich fallen selbst Menschen – denen man eine gewisse Medienkompetenz attestieren würde – fallen zuweilen auf die überzeugenden Antworten herein.
Die möglichen Risiken fallen in zwei Bereiche:
- Fakenews und (Meinungs-)Manipulation
- Neue Arten und bessere Cyberangriffen
Die Herausforderungen im Umgang mit manipulativen Inhalten gibt es nicht erst seit dem Aufkommen von generativer KI. Sondern allein Social Media hat unseren Konsum von Medien sehr stark verändert. Leider nicht immer zum Guten, wenn wir die Themen, Fake News, Verschwörungstheorien usw. betrachten. Und jetzt kommen noch echt wirkende Inhalte aus künstlichen Systemen hinzu, die wie ein Beschleuniger in der Verbreitung von Meinungsmanipulation wirken können.
Und hier stellt sich dann die Frage, ob wir als Gesellschaft überhaupt dazu bereit sind, wenn von so schnell und einfach beliebige Inhalte einfach generiert werden können. Ohne dass für uns (Medienkonsumenten) ersichtlich ist, dass diese von einer KI stammen und eine ausreichende Sensibilitsierung und Faktenprüfung erfolgt ist.
Und der Aspekt, dass wir nicht wissen, welche Inhalte das Ergebnis einer KI ist, macht die Sache besonders problematisch. Schließlich kann ich mich selbst im Umgang mit der KI hinsichtlich dessen Schwäche sensibilisieren. Werden wir also in Zukunft alle ein weiteres Plugin in unserem Browser installiert haben, das den Text – den wir gerade lesen – auf Merkmale prüft, die auf eine KI hindeuten? Witzigerweise wird ein solches KI-Erkennungswerkzeug von OpenAI selbst angeboten.
Und damit wären wir wieder bei der üblichen Strategie der großen Techkonzerne angekommen: Sie schaffen eine Lösung (AI Erkennung) für ein Problem, welches sie erst selbst kreiert haben.
Eine Sache hat ChatGPT jedoch geschafft: Das Thema und Bewusstsein für Künstliche Intelligenz ist bei der Allgemeinheit angekommen, greifbar und konkret anwendbar geworden. Ob dies auch echten Nutzen bringt, wird erst die Zukunft zeigen.
Update 10.04.2023: Vom Y-Kollektiv gibt es auch eine sehr gut gemachte Reportage zu dem Thema: Was passiert, wenn die KI übernimmt?
Dieser Text wurde selbst geschrieben. ✍️