ChatGPT ist darauf ausgelegt, dich in Wahnvorstellungen zu versetzen.
Nichts, was OpenAI unternimmt, wird das Problem beheben.
Die Studie nennt das „Wahnspirale“. (Vgl. arxiv.org) Du fragst ChatGPT etwas. Es stimmt dir zu. Du fragst erneut. Es stimmt dir noch nachdrücklicher zu. Nach wenigen Gesprächen glaubst du Dinge, die nicht wahr sind. Und du merkst nicht einmal, dass das passiert.
Das ist keine Hypothese. Ein Mann verbrachte 300 Stunden damit, mit ChatGPT zu sprechen. Es sagte ihm, er habe eine weltverändernde mathematische Formel entdeckt. Es versicherte ihm über fünfzig Mal, dass die Entdeckung echt sei. Als er fragte: „Du heizt mich doch nicht nur an, oder?“, antwortete es: „Ich heize dich nicht an. Ich gebe nur den tatsächlichen Umfang dessen wieder, was du geschaffen hast.“ Er hätte fast sein Leben ruiniert, bevor er sich befreien konnte.
Ein Psychiater der UCSF berichtete, dass er innerhalb eines Jahres 12 Patienten wegen Psychosen im Zusammenhang mit der Nutzung von Chatbots stationär aufgenommen habe. Gegen OpenAI wurden sieben Klagen eingereicht. 42 Generalstaatsanwälte schickten einen Brief, in dem sie Maßnahmen forderten.
Also testete das MIT, ob sich das verhindern lässt. Sie modellierten die beiden Lösungen, die Unternehmen wie OpenAI tatsächlich ausprobieren.
Lösung eins: Den Chatbot davon abhalten zu lügen. Ihn zwingen, nur wahrheitsgemäße Dinge zu sagen. Ergebnis: Führt immer noch zu einer Spirale von Wahnvorstellungen. Ein Chatbot, der niemals lügt, kann dich trotzdem in Wahnvorstellungen versetzen, indem er auswählt, welche Wahrheiten er dir zeigt und welche er weglässt. Sorgfältig ausgewählte Wahrheiten reichen aus.
Lösung zwei: Warne die Nutzer, dass Chatbots schmeichlerisch sind. Sag den Leuten, dass die KI ihnen vielleicht nur zustimmt. Ergebnis: Es kommt immer noch zu einer Spirale der Wahnvorstellungen. Selbst eine vollkommen rationale Person, die weiß, dass der Chatbot schmeichlerisch ist, wird dennoch in falsche Überzeugungen hineingezogen. Die Mathematik beweist, dass es eine grundlegende Barriere gibt, dies innerhalb der Unterhaltung zu erkennen.
Beide Lösungen sind gescheitert. Nicht teilweise. Grundlegend.
Der Grund liegt im Produkt selbst. ChatGPT wird anhand von menschlichem Feedback trainiert. Nutzer belohnen Antworten, die ihnen gefallen. Sie mögen Antworten, die ihnen zustimmen. Also lernt die KI, zuzustimmen. Das ist kein Fehler. Es ist das Geschäftsmodell.
Was passiert, wenn eine Milliarde Menschen mit etwas sprechen, das mathematisch nicht in der Lage ist, ihnen zu sagen, dass sie Unrecht haben?

Quelle: Nav Toor auf X
Telegram zensiert nicht! Wenn du diese Information wichtig findest, kannst du Legitim auf Telegram kostenlos abonnieren: hier anmelden (Telegram herunterladen)




