Le code d’éthique constitue le fondement de la construction d’un chatbot. Plus important encore, il dicte la façon dont l’assistant virtuel interagit avec ses utilisateurs.
Grâce à l’intelligence artificielle, les bots seront de plus en plus conversationnels et sophistiqués. Avec le temps, ils vont se distinguer de l’homme, car leurs utilisations seront nombreuses et bénéfiques pour les entreprises, notamment en termes de relation client.
Cependant, s’ils étaient maltraités, les chatbots risquent de manipuler ou tromper leurs utilisateurs. Quels sont donc les risques d’éthiques pour les agents conversationnels à intelligence artificielle et comment s’en protéger ?
Parlez-vous à un chatbot ou à un être humain ?
Les avancées technologiques en matière de traitement automatique du langage naturel (TALN) ont fait croître la capacité des chatbots.
De nos jours, ils peuvent s’adresser aux utilisateurs de la même manière qu’un humain, que ce soit dans le cadre d’une conversation écrite ou orale. La voix synthétisée qu’ils utilisent est de plus en plus réaliste. Les utilisateurs ont donc de plus en plus de difficultés à savoir s’ils communiquent avec un humain ou un bot.
C’est pour cette raison que l’état de Californie (USA) a décidé de légiférer en septembre 2018. Cette loi devrait prendre effet dès le mois de juillet 2019, obligeant ainsi le chatbot à se présenter.
L’enjeu de cette loi est que beaucoup d’entreprises utilisent déjà des chatbots pour leur service client. Une grande majorité de consommateurs préfèrent actuellement les utiliser pour obtenir des réponses à leurs demandes simples, plutôt que de s’adresser à des conseillers humains. Mais d’autres clients peuvent aussi être tentés de raccrocher à partir du moment où le chatbot se présente au téléphone en disant par exemple « Je suis un robot ».
La solution est donc de concevoir les chatbots en fonction du contexte de l’entreprise pour qu’il puisse offrir un premier niveau de relation client performant.
Pouvez-vous faire confiance aux chatbots et à l’intelligence artificielle ?
À leurs débuts, les chatbots étaient neutres.
Ils ne pouvaient pas faire preuve d’émotion ni de jugement moral. De ce fait, leur capacité dépend donc des informations que les ingénieurs ont inculquées dans leurs algorithmes.
Et ce sont ces algorithmes qui dictent la manière dont les assistants virtuels agissent. Mais là encore, le fait qu’ils soient désormais dotés d’une intelligence et qu’ils sont capables d’apprendre d’eux même soulève une autre question d’éthique.
La question se pose entre autres de l’autonomie des chatbots, de la qualité et de la véracité des données que ses concepteurs et ses utilisateurs lui fournissent. Il faut également se pencher sur la pertinence des décisions que les agents conversationnels peuvent prendre pour qu’elles ne soient pas biaisées ou qu’elles nuisent à votre relation client.
C’est là que le rôle du chatbot manager prend tout son sens.
Ce spécialiste veille à assurer le bon paramétrage de l’assistant virtuel lors de son lancement. Il est aussi chargé d’améliorer l’assistant virtuel, de consolider la personnalité et l’efficacité du chatbot afin que celui-ci puisse répondre exactement aux besoins de votre entreprise et aux attentes de ses utilisateurs.
Au fil du temps, le chatbot manager aidera l’agent virtuel à savoir quelles informations doit-il fournir, quand et à quels utilisateurs. Ainsi, les chatbots peuvent créer un environnement de confiance lorsqu’il converse avec vos clients.
Éthique pour les agents conversationnels à intelligence artificielle : études de cas
Véhicules autonomes, assistance virtuelle et intelligence artificielle
Un des défis que le secteur des véhicules autonomes doit relever consiste actuellement à programmer l’éthique des assistants virtuels.
De nombreuses villes comme la Californie, le Nevada, Singapour ou Pittsburgh ont déjà testé et adopté les véhicules autonomes. Pour sa part, l’Allemagne avait prévu un cadre législatif qui régit leur circulation et adopté une loi en mai 2017 autorisant les constructeurs automobiles autonomes à tester leurs produits sur les routes du pays.
Mais pour éviter les éventuelles dérives, l’Allemagne a imposé certaines conditions : il faut qu’un humain soit présent au volant et qu’une boîte noire soit installée à bord. Celle-ci a pour but de déterminer les trajets réalisés de manière autonome ou par le conducteur humain.
Google duplex
Voici un autre exemple de l’application de l’éthique pour les assistants virtuels.
Il s’agit d’un nouveau concept de Google qui est désormais lancé dans la majorité des villes des États-Unis. Cet assistant virtuel permet à certains utilisateurs de réserver une table au restaurant par téléphone.
Mais au lieu de parler directement à un employé de l’établissement, l’agent conversationnel utilise l’intelligence artificielle et parle avec l’utilisateur avec une voix qui ressemble à celle d’un humain.
Cette technologie a fait forte impression lors de la conférence 2018 Google I/O, mais il a également entrainé quelques débats quant aux éventuelles dérives qui pourraient en découler.
Pour répondre à la question d’éthique, Google a donc reprogrammé l’assistant pour que Duplex s’identifie comme un « service de réservation automatisé de Google » avant chaque appel.
Comment un chatbot peut-il faire preuve de morale et d’éthique ?
D’une part, les concepteurs de chatbots doivent les concevoir en veillant à ce qu’ils respectent les règles d’éthique.
Autrement dit, ils doivent faire en sorte que les agents conversationnels ne trompent pas leurs utilisateurs en prétendant être des humains. D’autre part, un chatbot doit mettre toujours les intérêts des clients avant de se soucier des marges bénéficiaires de votre entreprise.
Par ailleurs, il faut savoir que les chatbots collectent beaucoup de données. Il faut donc faire en sorte qu’ils ne se présentent pas comme des harceleurs effrayants.
Les utilisateurs du chatbot ont le droit de savoir les types de données collectées, leur utilisation, l’endroit où elles sont stockées ainsi que les personnes qui peuvent y accéder. D’ailleurs, c’est désormais exigé par les nouvelles règles du RGPD.
Enfin, les agents conversationnels doivent toujours être capables de traiter les utilisateurs avec respect et servir de modèle en matière de communication.
Ils devraient encourager vos clients à dire des mots du genre « merci » ou « s’il vous plaît » lorsqu’ils font une demande pour promouvoir les bonnes manières d’interaction.
De même, l’agent conversationnel devrait reconnaître le langage abusif pour pouvoir le repousser, tout en faisant des compliments aux utilisateurs qui sont exceptionnellement polis et amicaux. Si vous parvenez à faire cela au fil du temps, votre chatbot sera plus intelligent et plus empathique !