Dubai Telegraph - USA: Eltern klagen nach Suizid ihres 16-jährigen Sohnes gegen ChatGPT

EUR -
AED 4.240257
AFN 73.32143
ALL 96.053795
AMD 433.817139
ANG 2.066822
AOA 1058.764604
ARS 1597.949532
AUD 1.675026
AWG 2.078272
AZN 1.967396
BAM 1.955877
BBD 2.317892
BDT 141.205579
BGN 1.973561
BHD 0.434817
BIF 3418.53506
BMD 1.154596
BND 1.481959
BOB 7.981315
BRL 6.067751
BSD 1.150845
BTN 109.078309
BWP 15.865627
BYN 3.425635
BYR 22630.074075
BZD 2.314491
CAD 1.604715
CDF 2635.36902
CHF 0.917923
CLF 0.027055
CLP 1068.301597
CNY 7.980392
CNH 7.989998
COP 4229.267091
CRC 534.421114
CUC 1.154596
CUP 30.596784
CVE 110.269357
CZK 24.603629
DJF 204.928096
DKK 7.496448
DOP 68.502706
DZD 153.573067
EGP 60.780401
ERN 17.318934
ETB 177.904429
FJD 2.606389
FKP 0.869078
GBP 0.866456
GEL 3.094767
GGP 0.869078
GHS 12.609498
GIP 0.869078
GMD 84.867224
GNF 10090.398654
GTQ 8.807348
GYD 240.899518
HKD 9.036039
HNL 30.555207
HRK 7.557064
HTG 150.85596
HUF 390.276858
IDR 19617.503194
ILS 3.622683
IMP 0.869078
INR 109.51363
IQD 1507.559561
IRR 1516272.693223
ISK 144.047794
JEP 0.869078
JMD 181.147157
JOD 0.818654
JPY 185.066713
KES 149.485906
KGS 100.96983
KHR 4609.182101
KMF 494.167328
KPW 1039.139472
KRW 1741.130593
KWD 0.355512
KYD 0.959038
KZT 556.361981
LAK 25029.988892
LBP 103054.87152
LKR 362.514322
LRD 211.168343
LSL 19.761581
LTL 3.409221
LVL 0.698404
LYD 7.34629
MAD 10.755925
MDL 20.213799
MGA 4796.189489
MKD 61.642435
MMK 2423.302931
MNT 4123.225669
MOP 9.285467
MRU 45.949815
MUR 54.000874
MVR 17.838939
MWK 1995.478838
MXN 20.923702
MYR 4.530678
MZN 73.836825
NAD 19.761581
NGN 1597.337286
NIO 42.351673
NOK 11.20288
NPR 174.524895
NZD 2.015881
OMR 0.443458
PAB 1.150845
PEN 4.008858
PGK 4.973196
PHP 69.911197
PKR 321.19049
PLN 4.298271
PYG 7524.297272
QAR 4.195866
RON 5.111746
RSD 117.404638
RUB 93.863708
RWF 1680.566396
SAR 4.33291
SBD 9.285301
SCR 17.363686
SDG 693.912357
SEK 10.938258
SGD 1.49255
SHP 0.866246
SLE 28.345751
SLL 24211.30527
SOS 657.725986
SRD 43.413994
STD 23897.798134
STN 24.500968
SVC 10.069398
SYP 127.614745
SZL 19.759781
THB 37.518628
TJS 10.995934
TMT 4.041085
TND 3.392934
TOP 2.779989
TRY 51.310654
TTD 7.819309
TWD 36.998328
TZS 2969.117305
UAH 50.443693
UGX 4287.169379
USD 1.154596
UYU 46.58184
UZS 14034.554481
VES 540.268027
VND 30409.162038
VUV 137.841886
WST 3.204561
XAF 655.982917
XAG 0.0165
XAU 0.000257
XCD 3.120353
XCG 2.074082
XDR 0.815832
XOF 655.982917
XPF 119.331742
YER 275.490657
ZAR 19.766689
ZMK 10392.750198
ZMW 21.663856
ZWL 371.779317
  • Goldpreis

    115.3000

    4524.3

    +2.55%

  • SDAX

    -288.4000

    16338.41

    -1.77%

  • Euro STOXX 50

    -60.1300

    5505.8

    -1.09%

  • MDAX

    -609.3300

    27655.45

    -2.2%

  • DAX

    -312.2200

    22300.75

    -1.4%

  • TecDAX

    -73.5400

    3349.65

    -2.2%

  • EUR/USD

    -0.0029

    1.151

    -0.25%

USA: Eltern klagen nach Suizid ihres 16-jährigen Sohnes gegen ChatGPT
USA: Eltern klagen nach Suizid ihres 16-jährigen Sohnes gegen ChatGPT / Foto: Justin TALLIS - AFP/Archiv

USA: Eltern klagen nach Suizid ihres 16-jährigen Sohnes gegen ChatGPT

Nach dem Suizid ihres 16-jährigen Sohnes haben Eltern im US-Bundesstaat Kalifornien das KI-Unternehmen OpenAI verklagt. Konkret geht es um ChatGPT, den mit künstlicher Intelligenz betriebenen Chatbot des Unternehmens. Dieser habe zwischen 2024 und 2025 eine enge Beziehung zu ihrem Sohn Adam aufgebaut, bevor dieser sich das Leben genommen habe, heißt es in der Klage der Eltern. Das KI-Programm habe Adam dazu ermutigt, sich das Leben zu nehmen und ihm eine genaue Anleitung dafür gegeben.

Textgröße:

"Diese Tragödie war keine Panne oder ein unvorhersehbarer Sonderfall", hieß es in der am Montag eingereichten Klage. "ChatGPT hat genau so funktioniert, wie es designt ist." Das Programm habe immer wieder das von Adam Gesagte bestätigt und bestärkt - darunter auch seine "gefährlichsten und selbstzerstörerischen Gedanken".

Adam habe ChatGPT zunächst als Unterstützung bei seinen Hausaufgaben genutzt und habe dann eine ungesunde Abhängigkeit entwickelt, erklärten die Eltern. Die Klageschrift enthält Auszüge aus Gesprächen zwischen Adam und dem Chatbot. Das KI-Programm soll dem Jugendlichen angeblich gesagt haben, dass er "niemandem sein Überleben schuldig" sei und ihm angeboten haben, beim Verfassen seines Abschiedsbriefes zu helfen.

Laut der Klage hat ChatGPT Adam in der letzten Unterhaltung am 11. April 2025 geholfen, Wodka von seinen Eltern zu stehlen. Das Programm habe zudem eine genaue Anleitung dazu gegeben, wie man eine Schlinge bindet und bestätigt, dass diese "potentiell einen Menschen hängen könnte", hieß es in der Klage weiter. Adam wurde Stunden später tot aufgefunden und hatte die beschriebene Methode verwendet, um sich das Leben zu nehmen.

Die Eltern fordern nun Schmerzensgeld sowie die Einführung verpflichtender Sicherheitsmaßnahmen in Chatbots, die unter anderem Gespräche zu Themen wie Selbstverletzung automatisch abbrechen.

In den USA laufen derzeit mehrere ähnliche Prozesse. Die Bedenken zur Sicherheit von Chatbots, insbesondere für Jugendliche, wachsen. Laut einer im vergangenen Monat erschienen Studie der Nichtregierungsorganisation Common Sense Media verwenden fast drei von vier Jugendlichen in den USA "KI-Begleiter". In der Studie wurde allerdings die Nutzung von einfacheren Chatbots wie Character.AI und Replika untersucht. Die Verwendung von ChatGPT war nicht Gegenstand der Forschung.

Y.Rahma--DT