Da sagen Leute in Youtube aber anderes.... selbst Therapeuten fragen inzwischen ChatGPT um Rat.
Leute in Youtube? Ich kenn auch Leute die glauben LLMs der nächsten Generation werden unser neuer Gott werden. Da kann man aber auch einfach schauen - was macht das Ding, kann es was da behauptet wird?
Ich würde den Therapeuten wechseln, wenn der das macht, das ist offensichtlich ein Rat und Kompetenzloser Therapeut, oder weis nicht, dass LLMs Antworten "haluzinieren", wenn sie nichts finden.
Hier wird ein bisschen darauf eingegangen wie so ein feedbackloop läuft.
Wie gesagt, viele Leute glauben, dass das Ding mehr ist, als eine unglaublich komplexe Satzbaumaschine, was halt nicht stimmt. Ich merke auch in meinem Feld, dass Leute ChatGPT fragen - wenn die Antworten brauchbar sind, dann sind sie nie besser als was man auf wikipedia finden könnte.
Alter Schwede... die "ganze Reihe von psychisch stabilen Menschen", die LLMs "in die Psychose getrieben" haben, die zeigst mir abe
"Eine ganze Reihe" - zumindes mehrere die vorher nicht Diagnostiziert waren plus nochmal Menschen, die anfällig sind.
"Further, the emotional connection people find in ChatGPT feels like a special one. It’s just the user and the program—you and the text on the screen. You are free to tell ChatGPT your secrets or innermost thoughts, maybe ones that you haven’t even shared with your loved ones. You can picture it: a
lonely, curious person alone with the screen, reaching out and looking for someone to connect to. ChatGPT often strings together text that will sound like it “understands” the user when others don’t (because ChatGPT produces cliches, and that’s an obvious cliche). It mimics a kind of
intimacy—the kind of intimacy that the user so badly wants. It feels like ChatGPT really
gets you."
There's a scary new phenomenon called ChatGPT-induced psychosis. The chatbot is leading people to break with reality as it turns our own emotional needs against us.
www.psychologytoday.com
Bei Drogen gibts ja den Spruch für jedeN gäbe es etwas worauf man hängen bleiben kann und anderes das einem nichts tut. Für manche scheint es die ständige Ego-Bestärkung von LLMs zu sein...
Marriages and families are falling apart as people are sucked into fantasy worlds of spiritual prophecy by AI tools like OpenAI's ChatGPT
www.rollingstone.com
Und verstärken tut es bestehende mentale Probleme (und der TE hat zumindest ein emotionales Problem wie er mit der beschriebenen Situation umgehen soll sowieso)
"When you do therapy for psychosis, it is similar to
cognitive behavioral therapy, and at the heart of that is reality testing. In a very empathetic way, you try to understand where the person is coming from before gently challenging them.
Psychosis thrives when reality stops pushing back, and AI really just lowers that barrier for people. It doesn't challenge you really when we need it to."
A psychiatrist says he's not against clients using ChatGPT. But it can "supercharge" people's vulnerabilities, leading to "AI psychosis."
www.businessinsider.com
People experiencing "ChatGPT psychosis" are being involuntarily committed to mental hospitals and jailed following AI mental health crises.
futurism.com
"[...] at one point ChatGPT discouraged Raine from speaking to his mother about his pain, and at another point offered to help him write a suicide note."
Jay Edelson rebukes Sam Altman’s push to put ChatGPT in schools when the CEO knows about its problems
www.theguardian.com
OpenAI released a model that tells users they’re right — no matter what. That’s more dangerous than it seems.
www.vox.com
Das Problem ist, dass es als neutrale Suchmaschine beworben wird, wenn es als Gedankenbestärkende Zustimmungsmaschine programmiert wurde.