Dubai Telegraph - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

EUR -
AED 4.301814
AFN 77.708293
ALL 96.176014
AMD 446.924892
ANG 2.097203
AOA 1074.135394
ARS 1698.74032
AUD 1.770078
AWG 2.108444
AZN 1.991912
BAM 1.950236
BBD 2.36247
BDT 143.341038
BGN 1.955079
BHD 0.441654
BIF 3477.877376
BMD 1.171358
BND 1.512285
BOB 8.104876
BRL 6.444114
BSD 1.172958
BTN 106.59388
BWP 15.491801
BYN 3.437408
BYR 22958.617481
BZD 2.359079
CAD 1.615232
CDF 2635.555553
CHF 0.933339
CLF 0.027334
CLP 1072.249192
CNY 8.248644
CNH 8.245095
COP 4499.162784
CRC 585.330013
CUC 1.171358
CUP 31.040988
CVE 109.951301
CZK 24.352124
DJF 208.874957
DKK 7.471771
DOP 75.364979
DZD 151.627638
EGP 55.766478
ERN 17.570371
ETB 182.088389
FJD 2.670112
FKP 0.872551
GBP 0.87877
GEL 3.15685
GGP 0.872551
GHS 13.489513
GIP 0.872551
GMD 86.100851
GNF 10199.898985
GTQ 8.982373
GYD 245.399857
HKD 9.112316
HNL 30.903829
HRK 7.536638
HTG 153.611735
HUF 387.432543
IDR 19557.696563
ILS 3.773032
IMP 0.872551
INR 105.882157
IQD 1536.622469
IRR 49340.51376
ISK 148.001104
JEP 0.872551
JMD 188.262873
JOD 0.830488
JPY 182.223503
KES 151.004694
KGS 102.43541
KHR 4696.600275
KMF 491.969805
KPW 1054.235599
KRW 1732.367947
KWD 0.359502
KYD 0.977515
KZT 604.617565
LAK 25412.604561
LBP 105039.563247
LKR 363.105585
LRD 207.617653
LSL 19.697785
LTL 3.458716
LVL 0.708543
LYD 6.354896
MAD 10.733975
MDL 19.752728
MGA 5298.881924
MKD 61.532571
MMK 2460.108883
MNT 4156.475757
MOP 9.398924
MRU 46.520274
MUR 53.941062
MVR 18.050801
MWK 2033.897151
MXN 21.056371
MYR 4.7891
MZN 74.861814
NAD 19.697785
NGN 1705.356781
NIO 43.166842
NOK 11.969757
NPR 170.550408
NZD 2.028622
OMR 0.450384
PAB 1.172953
PEN 3.951227
PGK 4.986772
PHP 68.718886
PKR 328.725128
PLN 4.214535
PYG 7878.555568
QAR 4.276698
RON 5.092357
RSD 117.397841
RUB 94.202038
RWF 1707.82745
SAR 4.39328
SBD 9.562266
SCR 15.804605
SDG 704.56838
SEK 10.937063
SGD 1.513547
SHP 0.878822
SLE 27.872113
SLL 24562.796602
SOS 670.387339
SRD 45.305812
STD 24244.746356
STN 24.430299
SVC 10.263761
SYP 12951.888916
SZL 19.680933
THB 36.933012
TJS 10.779545
TMT 4.111467
TND 3.425327
TOP 2.820349
TRY 50.041619
TTD 7.957331
TWD 36.794115
TZS 2900.810779
UAH 49.466868
UGX 4176.08534
USD 1.171358
UYU 45.889075
UZS 14222.422448
VES 320.06667
VND 30847.713845
VUV 142.118205
WST 3.269295
XAF 654.090834
XAG 0.017758
XAU 0.000271
XCD 3.165653
XCG 2.113978
XDR 0.813479
XOF 654.093618
XPF 119.331742
YER 279.193074
ZAR 19.608123
ZMK 10543.631377
ZMW 26.949227
ZWL 377.176809
  • AEX

    2.5200

    937.64

    +0.27%

  • BEL20

    29.0600

    5039.85

    +0.58%

  • PX1

    0.0000

    8106.11

    0%

  • ISEQ

    -1.3000

    12997.15

    -0.01%

  • OSEBX

    16.3600

    1652.31

    +1%

  • PSI20

    26.6000

    8088.58

    +0.33%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -47.1300

    4087.06

    -1.14%

  • N150

    3.7000

    3702.66

    +0.1%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: Jason Redmond - AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

Y.El-Kaaby--DT