Dubai Telegraph - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.268348
AFN 72.644925
ALL 95.516681
AMD 429.450195
ANG 2.080952
AOA 1066.940946
ARS 1619.310336
AUD 1.625972
AWG 2.093493
AZN 1.98043
BAM 1.955118
BBD 2.345482
BDT 142.940138
BGN 1.940855
BHD 0.439247
BIF 3467.290505
BMD 1.162245
BND 1.488681
BOB 8.047193
BRL 5.877243
BSD 1.164494
BTN 111.695037
BWP 16.472254
BYN 3.24067
BYR 22779.993656
BZD 2.342083
CAD 1.598726
CDF 2612.149237
CHF 0.91464
CLF 0.026819
CLP 1043.955837
CNY 7.914774
CNH 7.919977
COP 4404.863452
CRC 528.215743
CUC 1.162245
CUP 30.799481
CVE 110.22655
CZK 24.31021
DJF 207.367664
DKK 7.471262
DOP 69.57573
DZD 154.270186
EGP 61.40658
ERN 17.433669
ETB 181.830172
FJD 2.561762
FKP 0.871953
GBP 0.872
GEL 3.115269
GGP 0.871953
GHS 13.316355
GIP 0.871953
GMD 84.267207
GNF 10211.437945
GTQ 8.883901
GYD 243.635013
HKD 9.103688
HNL 30.970197
HRK 7.532628
HTG 152.466815
HUF 361.702584
IDR 20458.933129
ILS 3.393104
IMP 0.871953
INR 111.541198
IQD 1525.567836
IRR 1533000.593877
ISK 143.572521
JEP 0.871953
JMD 184.005813
JOD 0.824077
JPY 184.442989
KES 150.107638
KGS 101.638735
KHR 4672.370137
KMF 492.792107
KPW 1046.008455
KRW 1740.903348
KWD 0.358716
KYD 0.970461
KZT 546.699295
LAK 25539.0912
LBP 104282.623097
LKR 382.546556
LRD 213.105662
LSL 19.289871
LTL 3.431807
LVL 0.703031
LYD 7.394421
MAD 10.734555
MDL 20.145972
MGA 4847.309113
MKD 61.623504
MMK 2440.794791
MNT 4159.171684
MOP 9.392424
MRU 46.743694
MUR 54.823516
MVR 17.910628
MWK 2019.295609
MXN 20.149374
MYR 4.59029
MZN 74.271763
NAD 19.289871
NGN 1592.845004
NIO 42.855051
NOK 10.814225
NPR 178.71166
NZD 1.985555
OMR 0.446324
PAB 1.164494
PEN 3.992307
PGK 5.07323
PHP 71.603608
PKR 324.347558
PLN 4.246552
PYG 7096.52452
QAR 4.245019
RON 5.155838
RSD 117.349065
RUB 84.565601
RWF 1703.505766
SAR 4.403345
SBD 9.316927
SCR 15.774497
SDG 697.932139
SEK 10.984146
SGD 1.488491
SHP 0.867733
SLE 28.595478
SLL 24371.690047
SOS 665.56783
SRD 43.52959
STD 24056.116125
STN 24.491457
SVC 10.189446
SYP 128.612249
SZL 19.29327
THB 37.895028
TJS 10.86501
TMT 4.079478
TND 3.408311
TOP 2.798406
TRY 52.908283
TTD 7.904243
TWD 36.69962
TZS 3039.439752
UAH 51.419363
UGX 4372.47475
USD 1.162245
UYU 46.643729
UZS 13945.135519
VES 592.917692
VND 30630.955755
VUV 137.276573
WST 3.145456
XAF 655.728262
XAG 0.015287
XAU 0.000256
XCD 3.141025
XCG 2.098768
XDR 0.815516
XOF 655.728262
XPF 119.331742
YER 277.315726
ZAR 19.39541
ZMK 10461.600028
ZMW 21.922353
ZWL 374.242279
  • AEX

    -11.1400

    1010.44

    -1.09%

  • BEL20

    -65.2800

    5467.27

    -1.18%

  • PX1

    -129.3100

    7952.55

    -1.6%

  • ISEQ

    -187.5200

    12397.73

    -1.49%

  • OSEBX

    31.9700

    2017.85

    +1.61%

  • PSI20

    -91.2400

    9033.06

    -1%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -42.5700

    4090.69

    -1.03%

  • N150

    -7.1900

    4219.51

    -0.17%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

A.El-Nayady--DT