Dubai Telegraph - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

EUR -
AED 4.250678
AFN 72.918041
ALL 96.067465
AMD 436.932685
ANG 2.071904
AOA 1061.367148
ARS 1614.573682
AUD 1.634575
AWG 2.086276
AZN 1.972142
BAM 1.972698
BBD 2.332168
BDT 142.080747
BGN 1.978413
BHD 0.436949
BIF 3437.580732
BMD 1.157435
BND 1.485596
BOB 8.001925
BRL 6.042616
BSD 1.157939
BTN 107.880297
BWP 15.801103
BYN 3.580572
BYR 22685.717965
BZD 2.32886
CAD 1.590258
CDF 2633.163673
CHF 0.913169
CLF 0.026762
CLP 1056.726175
CNY 7.98682
CNH 7.967438
COP 4274.220751
CRC 541.77124
CUC 1.157435
CUP 30.672017
CVE 112.32935
CZK 24.46157
DJF 205.69948
DKK 7.470818
DOP 68.086114
DZD 153.068157
EGP 60.468898
ERN 17.361519
ETB 181.942975
FJD 2.556252
FKP 0.868855
GBP 0.862243
GEL 3.142482
GGP 0.868855
GHS 12.612219
GIP 0.868855
GMD 85.650189
GNF 10159.345308
GTQ 8.857761
GYD 242.257739
HKD 9.066706
HNL 30.752706
HRK 7.534086
HTG 151.887632
HUF 390.323942
IDR 19551.674454
ILS 3.619692
IMP 0.868855
INR 107.73737
IQD 1516.239313
IRR 1522171.1655
ISK 143.799756
JEP 0.868855
JMD 181.912765
JOD 0.820653
JPY 182.822601
KES 150.005481
KGS 101.215228
KHR 4641.312752
KMF 495.381662
KPW 1041.677217
KRW 1723.362105
KWD 0.354453
KYD 0.965012
KZT 556.866583
LAK 24855.907577
LBP 103648.268002
LKR 360.942102
LRD 212.274287
LSL 19.479641
LTL 3.417604
LVL 0.70012
LYD 7.384117
MAD 10.832141
MDL 20.292792
MGA 4820.714971
MKD 61.634594
MMK 2430.311069
MNT 4150.377902
MOP 9.342916
MRU 46.424425
MUR 53.832532
MVR 17.88262
MWK 2010.463866
MXN 20.538231
MYR 4.559163
MZN 73.961088
NAD 19.479093
NGN 1570.409946
NIO 42.500812
NOK 10.997709
NPR 172.603009
NZD 1.971059
OMR 0.445035
PAB 1.157979
PEN 3.99836
PGK 4.979257
PHP 69.211938
PKR 323.097975
PLN 4.267571
PYG 7524.225019
QAR 4.218386
RON 5.093054
RSD 117.434432
RUB 99.715141
RWF 1688.697067
SAR 4.345484
SBD 9.315708
SCR 16.728436
SDG 695.617571
SEK 10.760999
SGD 1.479253
SHP 0.868376
SLE 28.53087
SLL 24270.837165
SOS 661.476645
SRD 43.40615
STD 23956.559163
STN 24.884844
SVC 10.132098
SYP 127.929815
SZL 19.479951
THB 37.605283
TJS 11.087547
TMT 4.051021
TND 3.369582
TOP 2.786824
TRY 51.283377
TTD 7.848604
TWD 36.825979
TZS 3006.437007
UAH 50.920909
UGX 4376.679727
USD 1.157435
UYU 46.903191
UZS 14114.91435
VES 526.268876
VND 30428.955372
VUV 138.207434
WST 3.162366
XAF 661.659074
XAG 0.015864
XAU 0.000249
XCD 3.128025
XCG 2.086894
XDR 0.822888
XOF 661.473924
XPF 119.331742
YER 276.106212
ZAR 19.366681
ZMK 10418.297556
ZMW 22.667344
ZWL 372.693466
  • AEX

    -22.4000

    977.63

    -2.24%

  • BEL20

    -124.1200

    5004.77

    -2.42%

  • PX1

    -160.9700

    7807.87

    -2.02%

  • ISEQ

    -285.7400

    12084.12

    -2.31%

  • OSEBX

    12.3100

    1998.47

    +0.62%

  • PSI20

    -188.1800

    8946.83

    -2.06%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -36.6200

    3662.63

    -0.99%

  • N150

    -84.9900

    3813.8

    -2.18%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: Jason Redmond - AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

Y.El-Kaaby--DT