News
International

Klage gegen OpenAI nach Suizid von US-Teenager

USA

Klage gegen OpenAI nach Suizid von US-Teenager

27. August 2025, 08:18 Uhr
ILLUSTRATION - Das Logo des US-Softwareunternehmens OpenAI ist auf einem Display zu sehen. Das Unternehmen hat den KI-Chatbot ChatGPT entwickelt. Foto: Hendrik Schmidt/dpa
© Keystone/dpa/Hendrik Schmidt
Eltern eines US-Teenagers, der im April Suizid beging, klagen gegen die ChatGPT-Entwicklerfirma OpenAI. Ihr Vorwurf ist, dass ChatGPT ihren Sohn dabei unterstützt habe, sich das Leben zu nehmen. Die Eltern stützen sich dabei auf Unterhaltungen mit dem Chatbot, die sie auf dem Smartphone des 16-Jährigen fanden. OpenAI kündigte nach Bekanntwerden der Klage verbesserte Massnahmen zur Suizid-Prävention an.

Die Firma räumte zugleich ein, dass die bisherigen Vorkehrungen, die unter anderem Nutzer zu einer Beratungs-Hotline verwiesen, bei längeren Unterhaltungen mit ChatGPT versagen können. Dann sei es möglich, dass die Software unerwünschte Antworten liefere.

Man arbeite daran, dass die Schutzmassnahmen auch bei längeren Unterhaltungen greifen, hiess es in einem Blogeintrag. Zudem werde erwogen, dass ChatGPT in Krisensituationen versuchen könnte, Kontakt zu von Nutzern eingetragenen Personen aufzunehmen.

Mehr Einblick für Eltern

Für Nutzer im Alter unter 18 Jahren soll es zusätzliche Sicherheitsmassnahmen geben. OpenAI stellte etwa «stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten» in Aussicht. Eltern sollen sich besser darüber informieren können, wie ihre Kinder ChatGPT nutzen.

Bei Unterhaltungen mit ChatGPT, in denen Nutzer die Absicht bekunden, anderen zu schaden, greift OpenAI dem Blogeintrag zufolge bereits jetzt ein. Solche Unterhaltungen würden an ein spezielles Team weitergeleitet - und bei einer konkreten Bedrohungs-Situation würden auch Sicherheitsbehörden eingeschaltet.

Der Familie des Teenagers drückte OpenAI «tiefste Sympathie» aus und teilte mit, man prüfe die Klage.

Quelle: sda
veröffentlicht: 27. August 2025 08:18
aktualisiert: 27. August 2025 08:18