Dubai Telegraph - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

EUR -
AED 4.392152
AFN 77.725587
ALL 96.672854
AMD 453.321241
ANG 2.140553
AOA 1096.536528
ARS 1726.354217
AUD 1.702659
AWG 2.15391
AZN 2.033848
BAM 1.957275
BBD 2.408115
BDT 146.100104
BGN 2.008168
BHD 0.450751
BIF 3541.969294
BMD 1.195786
BND 1.51254
BOB 8.261226
BRL 6.227054
BSD 1.195601
BTN 110.003901
BWP 15.59175
BYN 3.377445
BYR 23437.408869
BZD 2.404612
CAD 1.615896
CDF 2678.561483
CHF 0.916074
CLF 0.026
CLP 1026.642284
CNY 8.316274
CNH 8.309949
COP 4352.661647
CRC 591.5458
CUC 1.195786
CUP 31.688333
CVE 110.34816
CZK 24.311169
DJF 212.515477
DKK 7.466943
DOP 75.116609
DZD 154.547848
EGP 55.98635
ERN 17.936793
ETB 185.990966
FJD 2.624154
FKP 0.867664
GBP 0.866562
GEL 3.222681
GGP 0.867664
GHS 13.061844
GIP 0.867664
GMD 87.292383
GNF 10491.906897
GTQ 9.173914
GYD 250.138509
HKD 9.333768
HNL 31.552779
HRK 7.535726
HTG 156.718106
HUF 380.793919
IDR 20077.249741
ILS 3.699996
IMP 0.867664
INR 109.878519
IQD 1566.280378
IRR 50372.492465
ISK 145.00113
JEP 0.867664
JMD 187.60138
JOD 0.847828
JPY 182.882941
KES 154.2563
KGS 104.572042
KHR 4808.623869
KMF 492.664252
KPW 1076.287842
KRW 1714.135323
KWD 0.366425
KYD 0.996351
KZT 600.612633
LAK 25718.381853
LBP 107067.187834
LKR 369.918778
LRD 221.18669
LSL 18.864417
LTL 3.530846
LVL 0.723319
LYD 7.51066
MAD 10.82726
MDL 20.110155
MGA 5344.027359
MKD 61.830948
MMK 2511.644633
MNT 4265.240494
MOP 9.612344
MRU 47.692942
MUR 53.990114
MVR 18.486994
MWK 2073.162374
MXN 20.62846
MYR 4.696452
MZN 76.243574
NAD 18.864417
NGN 1660.038615
NIO 44.003162
NOK 11.427375
NPR 176.006642
NZD 1.971959
OMR 0.45974
PAB 1.195601
PEN 3.998413
PGK 5.195916
PHP 70.549589
PKR 334.443043
PLN 4.207314
PYG 8023.046318
QAR 4.358485
RON 5.098113
RSD 117.393954
RUB 89.984025
RWF 1744.414623
SAR 4.485017
SBD 9.659173
SCR 16.575561
SDG 719.266256
SEK 10.540765
SGD 1.512418
SHP 0.897149
SLE 29.055949
SLL 25075.037148
SOS 682.114054
SRD 45.444057
STD 24750.35937
STN 24.518478
SVC 10.461884
SYP 13224.88667
SZL 18.858212
THB 37.434099
TJS 11.167016
TMT 4.185252
TND 3.42398
TOP 2.879166
TRY 51.908359
TTD 8.115116
TWD 37.536328
TZS 3067.191445
UAH 51.169262
UGX 4253.205295
USD 1.195786
UYU 45.244097
UZS 14548.964371
VES 428.660821
VND 31090.440337
VUV 142.978985
WST 3.248725
XAF 656.451714
XAG 0.010348
XAU 0.000223
XCD 3.231672
XCG 2.154824
XDR 0.815555
XOF 656.451714
XPF 119.331742
YER 285.072955
ZAR 18.876633
ZMK 10763.513161
ZMW 23.642818
ZWL 385.042658
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: Martin BUREAU - AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

A.Murugan--DT