Les agents conversationnels ou chatbot sont-ils dotés d’une éthique ? Poser cette question suppose d’étendre l’interrogation à l’intelligence artificielle (IA) dans son ensemble car ces outils en sont dotés. En effet, les agents conversationnels font partie des principaux produits de l’intelligence artificielle développé pour améliorer la gestion de la relation client.
Au regard de leurs performances améliorées, il est désormais difficile de distinguer les interactions avec ces robots virtuels de ceux effectués avec les êtres humains. Par conséquent, l’intelligence artificielle est destinée à occuper une place très importante dans nos vies aussi bien personnelles que professionnelles.
Cette forte croissance impose de déterminer les dangers éthiques qu’elle pourrait représenter, afin de réaliser une anticipation et de se protéger convenablement.
L’agent conversationnel a-t-il obligation de se faire connaitre ?
En septembre 2018, un arrêt rendu par l’État de Californie a décidé que, dès le mois de juillet 2019, les agents conversationnels doivent se présenter avant tout dialogue et faire connaitre à leur interlocuteur leur statut.
À la base de cette législation se trouve le souci de transparence. Les différents progrès dans le traitement automatique du langage naturel (TALN) ne permettent pas de savoir si l’on parle à un agent virtuel conversationnel vraiment performant ou à un conseiller humain. Cette situation vaut aussi bien à l’écrit qu’à l’oral, car les voix programmées sont de plus en plus réelles.
En termes clairs, cette loi a pour objectif d’éclaircir l’action des agents conversationnels qui sont utilisés dans le domaine commercial ou politique. Les bots conversationnels disponibles pour les consommateurs pour les aider dans certaines démarcher se plieront certainement à cette législation. Cependant, ils n’étaient pas réellement dans le viseur du législateur californien.
L’éthique d’un chatbot touche à celle de l’IA
À la base, l’intelligence artificielle est totalement neutre. Cette technologie n’a ni conscience ni jugement. Ce sont les techniciens et les concepteurs d’algorithmes qui développent leur fonctionnement, les différents principes, mais aussi les limites (différents des limites techniques). Ainsi, le déploiement accru de l’intelligence soulève bien de questions :
- Qu’en sera-t-il du niveau d’autonomie de l’intelligence artificielle et de l’être humain ?
- Qu’en sera-t-il de la fiabilité des informations que l’homme leur fournit ? De la confiance à donner aux informations qui guideront ensuite les décisions de l’intelligence artificielle ?
- Qu’en sera-t-il finalement de la cohérence des décisions que prendra l’intelligence artificielle afin qu’elles ne soient pas fallacieuses et restent au bénéfice de l’être humain et du développement ?
Chaque avènement technologique a toujours été accompagné de débats concernant l’éthique, des diverses craintes de dérives ou d’incompréhension. L’intelligence artificielle et les agents conversationnels ne font donc pas exception à cette règle. L’éthique des chatbots dotés d’une intelligence artificielle sera finalement celle que les créateurs lui donneront.
Quels problèmes d’éthique posent les agents conversationnels ?
- Intelligence artificielle et voitures autonomes : À l’image d’autres villes ou états tels que la Californie, le Nevada, Singapour, Pittsburgh, etc., l’Allemagne pensait depuis 2015 à un cadre législatif pour la bonne circulation des voitures autonomes. En mai 2017, l’Assemblée Nationale a finalement adopté une loi qui donne l’autorisation aux constructeurs automobiles d’essayer leurs voitures autonomes dans le pays, mais sous certaines règles. Il est obligatoire qu’un humain soit au volant de la voiture par exemple. Il est aussi obligatoire que l’auto dispose d’une boite noire à bord afin de définir quelle proportion du trajet a été réalisée de façon indépendante ou par le véhicule.
- Intelligence artificielle et Google : une nouvelle forme d’intelligence artificielle permettant de réaliser des appels et de fixer des rendez-vous sans les humains a été élaborée par Google. Ce servie se nomme Google Duplex. Dans une présentation lors du séminaire 2018 Google I/O, la technologie a été fortement appréciée. Ce qui a évidemment entrainé plusieurs débats sur les risques de cette technologie qui avance à grands pas. Pour apaiser les tensions, Google indique qu’avant chaque discussion, le robot virtuel Duplex décline son identité en tant que « service de réservation automatisé de Google» et dit à l’utilisateur que la discussion est enregistrée.