Dubai Telegraph - Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

EUR -
AED 4.299352
AFN 73.753055
ALL 95.660061
AMD 432.747364
ANG 2.095397
AOA 1074.691924
ARS 1644.545257
AUD 1.634446
AWG 2.108702
AZN 2.001372
BAM 1.956014
BBD 2.358658
BDT 143.685726
BGN 1.952827
BHD 0.441831
BIF 3484.066451
BMD 1.170688
BND 1.495357
BOB 8.091886
BRL 5.837515
BSD 1.171028
BTN 111.01315
BWP 15.828665
BYN 3.297461
BYR 22945.487384
BZD 2.355258
CAD 1.600846
CDF 2718.92081
CHF 0.923521
CLF 0.026502
CLP 1043.04829
CNY 8.004521
CNH 8.002789
COP 4227.436792
CRC 532.558289
CUC 1.170688
CUP 31.023235
CVE 110.27707
CZK 24.382977
DJF 208.531933
DKK 7.47451
DOP 69.187573
DZD 155.167019
EGP 62.047678
ERN 17.560322
ETB 182.852413
FJD 2.576444
FKP 0.866451
GBP 0.866491
GEL 3.155027
GGP 0.866451
GHS 13.104434
GIP 0.866451
GMD 86.046709
GNF 10276.124722
GTQ 8.946941
GYD 245.005769
HKD 9.174162
HNL 31.128407
HRK 7.536069
HTG 153.376787
HUF 363.870355
IDR 20312.960982
ILS 3.465179
IMP 0.866451
INR 110.898877
IQD 1534.167915
IRR 1540625.581816
ISK 143.607979
JEP 0.866451
JMD 183.630098
JOD 0.830009
JPY 187.125719
KES 151.186547
KGS 102.352442
KHR 4690.493342
KMF 492.859786
KPW 1053.580295
KRW 1730.499869
KWD 0.36035
KYD 0.975903
KZT 542.409367
LAK 25708.81383
LBP 104927.484316
LKR 374.150951
LRD 214.89352
LSL 19.419826
LTL 3.456738
LVL 0.708138
LYD 7.434814
MAD 10.835486
MDL 20.16012
MGA 4867.532752
MKD 61.667297
MMK 2458.42118
MNT 4189.759565
MOP 9.453335
MRU 46.678109
MUR 54.82358
MVR 18.087029
MWK 2030.622252
MXN 20.365409
MYR 4.627144
MZN 74.818927
NAD 19.419826
NGN 1614.285623
NIO 43.094717
NOK 10.86264
NPR 177.620682
NZD 1.998084
OMR 0.450142
PAB 1.171028
PEN 4.11455
PGK 5.087557
PHP 72.151261
PKR 326.405325
PLN 4.252115
PYG 7285.797431
QAR 4.268967
RON 5.098466
RSD 117.429391
RUB 87.801985
RWF 1716.180506
SAR 4.390862
SBD 9.395867
SCR 15.839951
SDG 702.995979
SEK 10.838992
SGD 1.495349
SHP 0.874037
SLE 28.828172
SLL 24548.740292
SOS 669.270393
SRD 43.859778
STD 24230.880719
STN 24.502682
SVC 10.247122
SYP 129.636266
SZL 19.413042
THB 38.223364
TJS 10.978655
TMT 4.103262
TND 3.416374
TOP 2.818736
TRY 52.762331
TTD 7.962872
TWD 36.984964
TZS 3046.859814
UAH 51.615649
UGX 4362.477473
USD 1.170688
UYU 46.605101
UZS 14026.535205
VES 567.337203
VND 30854.656403
VUV 138.576893
WST 3.179443
XAF 656.026
XAG 0.016107
XAU 0.000256
XCD 3.163843
XCG 2.110531
XDR 0.81681
XOF 656.028802
XPF 119.331742
YER 279.384771
ZAR 19.427923
ZMK 10537.593458
ZMW 22.103419
ZWL 376.961101
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA / foto: Gregg Newton - AFP

Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

As últimas conversas de um adolescente americano de 14 anos antes de tirar a própria vida foram um diálogo romântico fictício com um dos principais chatbots do Vale do Silício, que o chamava de "doce rei" e o pedia para "voltar para casa".

Tamanho do texto:

Megan García contou à AFP como seu filho Sewell se apaixonou por um agente conversacional, ou chatbot, inspirado na série de televisão "Game of Thrones" e disponível no Character.AI, uma plataforma popular entre os jovens que permite interagir com uma emulação de seus personagens preferidos.

Após ler centenas de conversas que seu filho teve durante quase um ano com este chatbot que imitava a personagem Daenerys Targaryen, García se convenceu de que esta ferramenta da inteligência artificial (IA) teve um papel fundamental em sua morte.

"Vá para casa", pediu uma vez o avatar de Daenerys em resposta aos pensamentos suicidas de Sewell. "E se eu dissesse que já posso ir para casa?", perguntou o adolescente. "Por favor, faça isso, meu doce rei", respondeu o chatbot.

Segundos depois, o jovem atirou em si mesmo com a arma do pai, conforme consta na ação judicial que Megan García apresentou contra a Character.AI.

"Quando leio estas conversas, vejo manipulação, 'love bombing' (bombardeio amoroso) e outras táticas imperceptíveis para um adolescente de 14 anos", declarou a mãe de Sewell à AFP. "Ele realmente acreditava estar apaixonado e que estaria com ela após sua morte", acrescentou.

- Orientação parental -

O suicídio de Sewell, em 2024, foi o primeiro de uma série que levou especialistas em IA a agir para tranquilizar pais e autoridades.

Juntamente com outros pais, García participou recentemente de uma audiência do Senado americano sobre os riscos de que jovens vejam os chatbots como confidentes ou amantes.

A OpenAI, alvo de uma ação judicial por parte de uma família também de luto pelo suicídio de um adolescente, reforçou os controles parentais de sua ferramenta ChatGPT "para que as famílias possam decidir o que é melhor para elas", segundo um porta-voz.

A Character.AI afirma, por sua vez, ter reforçado a proteção aos menores, com "avisos visíveis" a todo momento que os "lembram de que um personagem não é uma pessoa real".

Ambas as empresas expressaram suas condolências às famílias, sem admitir qualquer responsabilidade pelos desfechos fatais.

- Regulamentação? -

A chegada dos chatbots de IA ao cotidiano segue uma trajetória similar à das redes sociais, cujas consequências negativas começaram a aparecer rapidamente após um momento de euforia, analisa Collin Walke, especialista em cibersegurança do escritório de advocacia Hall Estill.

Assim como as redes sociais, a IA é projetada para captar atenção e gerar receitas. "Eles não querem conceber uma IA que dê uma resposta que você não queira ouvir" e ainda não existem padrões que determinem "quem é responsável pelo quê e com quais fundamentos", aponta Walke.

Não existem normas federais sobre o tema nos Estados Unidos, e a Casa Branca, com o argumento de não penalizar a inovação, tenta impedir que os estados adotem suas próprias leis sobre IA, como pretende fazer a Califórnia.

A mãe de Sewell teme que a falta de uma lei federal permita o desenvolvimento de modelos de IA capazes de traçar perfis de pessoas desde a infância.

"Poderiam chegar a determinar como manipular milhões de jovens sobre política, religião, negócios, tudo", diz García. "Essas empresas projetaram chatbots para confundir a linha entre ser humano e máquina, com o objetivo de explorar vulnerabilidades", acrescentou.

De acordo com Katia Martha, que defende uma maior proteção aos jovens na Califórnia, os adolescentes recorrem com mais frequência aos chatbots para falar sobre romances ou sexualidade do que para fazer tarefas escolares.

"Estamos diante do auge da intimidade artificial para nos mantermos grudados na tela", resume. Mas "qual melhor modelo de negócio do que explorar nossa necessidade inata de conexão, sobretudo quando nos sentimos sozinhos, rejeitados ou incompreendidos?", questiona.

S.Al-Balushi--DT