Dubai Telegraph - Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

EUR -
AED 4.397733
AFN 77.835597
ALL 96.757965
AMD 453.90648
ANG 2.143578
AOA 1098.08556
ARS 1729.718292
AUD 1.697621
AWG 2.156954
AZN 2.035406
BAM 1.957977
BBD 2.413193
BDT 146.41276
BGN 2.011006
BHD 0.451397
BIF 3549.189914
BMD 1.197476
BND 1.5119
BOB 8.279204
BRL 6.2252
BSD 1.198137
BTN 110.054802
BWP 15.677428
BYN 3.406701
BYR 23470.533006
BZD 2.409689
CAD 1.62082
CDF 2682.346551
CHF 0.91756
CLF 0.02617
CLP 1033.350264
CNY 8.328028
CNH 8.316191
COP 4395.168649
CRC 594.670998
CUC 1.197476
CUP 31.733119
CVE 110.388174
CZK 24.299159
DJF 213.356287
DKK 7.466647
DOP 75.385061
DZD 154.67909
EGP 56.072896
ERN 17.962143
ETB 186.305506
FJD 2.625527
FKP 0.868923
GBP 0.866542
GEL 3.227194
GGP 0.868923
GHS 13.095558
GIP 0.868923
GMD 87.415407
GNF 10513.819382
GTQ 9.192257
GYD 250.668656
HKD 9.343009
HNL 31.619149
HRK 7.535236
HTG 156.904423
HUF 380.416024
IDR 20110.175367
ILS 3.709632
IMP 0.868923
INR 110.259115
IQD 1569.551345
IRR 50443.68401
ISK 144.798317
JEP 0.868923
JMD 187.818789
JOD 0.849014
JPY 183.295885
KES 154.49848
KGS 104.719618
KHR 4816.414497
KMF 493.359953
KPW 1077.65892
KRW 1708.906127
KWD 0.367003
KYD 0.998514
KZT 603.683605
LAK 25812.802569
LBP 107293.120341
LKR 371.003975
LRD 221.657331
LSL 19.051158
LTL 3.535836
LVL 0.724341
LYD 7.524333
MAD 10.833143
MDL 20.09242
MGA 5345.942815
MKD 61.691988
MMK 2514.677582
MNT 4278.153191
MOP 9.628944
MRU 47.829969
MUR 53.994324
MVR 18.513564
MWK 2077.609574
MXN 20.544547
MYR 4.70968
MZN 76.351282
NAD 19.051158
NGN 1672.850271
NIO 44.089564
NOK 11.458877
NPR 176.087483
NZD 1.973417
OMR 0.460425
PAB 1.198132
PEN 4.008957
PGK 5.128766
PHP 70.457091
PKR 335.178801
PLN 4.206321
PYG 8045.910637
QAR 4.356361
RON 5.096099
RSD 117.399135
RUB 91.668755
RWF 1748.043211
SAR 4.491067
SBD 9.672825
SCR 16.470637
SDG 720.281738
SEK 10.556537
SGD 1.511808
SHP 0.898417
SLE 29.09489
SLL 25110.475749
SOS 683.559879
SRD 45.614209
STD 24785.339103
STN 24.527573
SVC 10.483698
SYP 13243.577429
SZL 19.043249
THB 37.272043
TJS 11.196593
TMT 4.191167
TND 3.426523
TOP 2.883235
TRY 51.9896
TTD 8.132074
TWD 37.47982
TZS 3065.53864
UAH 51.215634
UGX 4289.768719
USD 1.197476
UYU 45.340592
UZS 14496.175194
VES 429.266648
VND 31217.006375
VUV 143.303392
WST 3.263552
XAF 656.687006
XAG 0.010186
XAU 0.000217
XCD 3.23624
XCG 2.159309
XDR 0.816708
XOF 656.684261
XPF 119.331742
YER 285.475503
ZAR 18.81055
ZMK 10778.71862
ZMW 23.812571
ZWL 385.586839
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA / foto: Gregg Newton - AFP

Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

As últimas conversas de um adolescente americano de 14 anos antes de tirar a própria vida foram um diálogo romântico fictício com um dos principais chatbots do Vale do Silício, que o chamava de "doce rei" e o pedia para "voltar para casa".

Tamanho do texto:

Megan García contou à AFP como seu filho Sewell se apaixonou por um agente conversacional, ou chatbot, inspirado na série de televisão "Game of Thrones" e disponível no Character.AI, uma plataforma popular entre os jovens que permite interagir com uma emulação de seus personagens preferidos.

Após ler centenas de conversas que seu filho teve durante quase um ano com este chatbot que imitava a personagem Daenerys Targaryen, García se convenceu de que esta ferramenta da inteligência artificial (IA) teve um papel fundamental em sua morte.

"Vá para casa", pediu uma vez o avatar de Daenerys em resposta aos pensamentos suicidas de Sewell. "E se eu dissesse que já posso ir para casa?", perguntou o adolescente. "Por favor, faça isso, meu doce rei", respondeu o chatbot.

Segundos depois, o jovem atirou em si mesmo com a arma do pai, conforme consta na ação judicial que Megan García apresentou contra a Character.AI.

"Quando leio estas conversas, vejo manipulação, 'love bombing' (bombardeio amoroso) e outras táticas imperceptíveis para um adolescente de 14 anos", declarou a mãe de Sewell à AFP. "Ele realmente acreditava estar apaixonado e que estaria com ela após sua morte", acrescentou.

- Orientação parental -

O suicídio de Sewell, em 2024, foi o primeiro de uma série que levou especialistas em IA a agir para tranquilizar pais e autoridades.

Juntamente com outros pais, García participou recentemente de uma audiência do Senado americano sobre os riscos de que jovens vejam os chatbots como confidentes ou amantes.

A OpenAI, alvo de uma ação judicial por parte de uma família também de luto pelo suicídio de um adolescente, reforçou os controles parentais de sua ferramenta ChatGPT "para que as famílias possam decidir o que é melhor para elas", segundo um porta-voz.

A Character.AI afirma, por sua vez, ter reforçado a proteção aos menores, com "avisos visíveis" a todo momento que os "lembram de que um personagem não é uma pessoa real".

Ambas as empresas expressaram suas condolências às famílias, sem admitir qualquer responsabilidade pelos desfechos fatais.

- Regulamentação? -

A chegada dos chatbots de IA ao cotidiano segue uma trajetória similar à das redes sociais, cujas consequências negativas começaram a aparecer rapidamente após um momento de euforia, analisa Collin Walke, especialista em cibersegurança do escritório de advocacia Hall Estill.

Assim como as redes sociais, a IA é projetada para captar atenção e gerar receitas. "Eles não querem conceber uma IA que dê uma resposta que você não queira ouvir" e ainda não existem padrões que determinem "quem é responsável pelo quê e com quais fundamentos", aponta Walke.

Não existem normas federais sobre o tema nos Estados Unidos, e a Casa Branca, com o argumento de não penalizar a inovação, tenta impedir que os estados adotem suas próprias leis sobre IA, como pretende fazer a Califórnia.

A mãe de Sewell teme que a falta de uma lei federal permita o desenvolvimento de modelos de IA capazes de traçar perfis de pessoas desde a infância.

"Poderiam chegar a determinar como manipular milhões de jovens sobre política, religião, negócios, tudo", diz García. "Essas empresas projetaram chatbots para confundir a linha entre ser humano e máquina, com o objetivo de explorar vulnerabilidades", acrescentou.

De acordo com Katia Martha, que defende uma maior proteção aos jovens na Califórnia, os adolescentes recorrem com mais frequência aos chatbots para falar sobre romances ou sexualidade do que para fazer tarefas escolares.

"Estamos diante do auge da intimidade artificial para nos mantermos grudados na tela", resume. Mas "qual melhor modelo de negócio do que explorar nossa necessidade inata de conexão, sobretudo quando nos sentimos sozinhos, rejeitados ou incompreendidos?", questiona.

S.Al-Balushi--DT