Dubai Telegraph - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.246607
AFN 72.836971
ALL 95.988209
AMD 436.44581
ANG 2.069579
AOA 1060.176801
ARS 1608.790603
AUD 1.643499
AWG 2.083934
AZN 1.97002
BAM 1.953554
BBD 2.327913
BDT 141.823246
BGN 1.976193
BHD 0.436496
BIF 3433.722833
BMD 1.156136
BND 1.478219
BOB 7.98692
BRL 6.124098
BSD 1.155866
BTN 108.057219
BWP 15.761082
BYN 3.506783
BYR 22660.258427
BZD 2.324617
CAD 1.584894
CDF 2630.208986
CHF 0.911336
CLF 0.027173
CLP 1072.952133
CNY 7.961617
CNH 7.983279
COP 4295.63351
CRC 539.876895
CUC 1.156136
CUP 30.637594
CVE 110.816056
CZK 24.52284
DJF 205.46888
DKK 7.471717
DOP 68.212417
DZD 152.647385
EGP 60.388322
ERN 17.342035
ETB 181.687168
FJD 2.560205
FKP 0.866013
GBP 0.866414
GEL 3.138955
GGP 0.866013
GHS 12.607705
GIP 0.866013
GMD 84.980421
GNF 10147.984977
GTQ 8.853781
GYD 241.825078
HKD 9.057144
HNL 30.707411
HRK 7.532575
HTG 151.633679
HUF 393.293647
IDR 19618.465574
ILS 3.59457
IMP 0.866013
INR 108.402288
IQD 1514.537681
IRR 1521040.943935
ISK 143.812158
JEP 0.866013
JMD 181.590416
JOD 0.819746
JPY 184.071249
KES 149.839573
KGS 101.101638
KHR 4636.104298
KMF 493.670321
KPW 1040.465241
KRW 1737.72393
KWD 0.35446
KYD 0.963205
KZT 555.688646
LAK 24839.574501
LBP 103531.946431
LKR 360.563851
LRD 212.006417
LSL 19.666308
LTL 3.413768
LVL 0.699335
LYD 7.376585
MAD 10.822012
MDL 20.129116
MGA 4821.085995
MKD 61.715229
MMK 2427.622447
MNT 4127.028255
MOP 9.329732
MRU 46.396161
MUR 53.764632
MVR 17.874294
MWK 2008.207995
MXN 20.710673
MYR 4.554063
MZN 73.881379
NAD 19.458199
NGN 1567.986267
NIO 42.453736
NOK 11.059224
NPR 172.891204
NZD 1.980241
OMR 0.44452
PAB 1.155886
PEN 4.02224
PGK 4.984968
PHP 69.346754
PKR 322.797348
PLN 4.277841
PYG 7549.286912
QAR 4.213541
RON 5.094285
RSD 117.472674
RUB 96.105493
RWF 1686.80189
SAR 4.341061
SBD 9.308811
SCR 17.325632
SDG 694.837908
SEK 10.812736
SGD 1.481265
SHP 0.867401
SLE 28.412077
SLL 24243.598694
SOS 660.735749
SRD 43.340639
STD 23929.673396
STN 24.874258
SVC 10.113371
SYP 128.059734
SZL 19.458189
THB 37.961757
TJS 11.101879
TMT 4.058036
TND 3.363242
TOP 2.783697
TRY 51.227912
TTD 7.841949
TWD 36.970332
TZS 2990.534467
UAH 50.634759
UGX 4368.957522
USD 1.156136
UYU 46.576445
UZS 14099.074443
VES 525.68404
VND 30420.240803
VUV 137.62215
WST 3.172627
XAF 655.212115
XAG 0.016652
XAU 0.000253
XCD 3.124515
XCG 2.083096
XDR 0.816065
XOF 659.579533
XPF 119.331742
YER 275.858111
ZAR 19.718414
ZMK 10406.612213
ZMW 22.568343
ZWL 372.275202
  • AEX

    -16.0300

    961.62

    -1.64%

  • BEL20

    -88.0900

    4916.79

    -1.76%

  • PX1

    -142.1000

    7665.62

    -1.82%

  • ISEQ

    -203.0200

    11881.24

    -1.68%

  • OSEBX

    -31.9800

    1966.5

    -1.6%

  • PSI20

    -190.5700

    8756.26

    -2.13%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -27.8400

    3634.93

    -0.76%

  • N150

    -58.3500

    3755.58

    -1.53%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

A.El-Nayady--DT