Livre Blanc

Remarque : JavaScript est requis pour ce contenu.

Suivez-nous sur LinkedIn

Quelle éthique pour les agents virtuels ?

Quelle éthique pour les agents virtuels ?

De nos jours, les entreprises se rendent compte de l’importance des chatbots, également appelés agents virtuels, dans la promotion de leur activité. Cette technologie permet entre autres d’automatiser les communications de base avec leurs clients, d’assurer un service client 24 heures sur 24, 7 jours sur 7, etc.

Pour fournir des réponses individualisées, les chatbots ont toutefois besoin d’être alimentés par des données concernant vos clients. Pour éviter les risques éthiques, la collecte, l’analyse et le traitement de ces informations doivent donc se conformer à un cadre réglementaire strict.

Ce qui nous amène à une question qui est sans doute des plus cruciales : quelle éthique pour les agents virtuels ? Oui, il est désormais possible, voire indispensable, d’insuffler une conscience éthique dans le domaine des bots.

À quoi et à qui servira votre chatbot ?

Au moment de la conception d’un chatbot, votre équipe commerciale doit être capable de définir les besoins réels de vos clients, c’est-à-dire ceux qui vont l’utiliser. Elle doit également tenir compte des objectifs de votre entreprise.

D’une part, les agents virtuels doivent pouvoir traduire les valeurs de votre enseigne et d’autre part, pour être éthiques, ils doivent répondre aux besoins réels de vos clients.

Il est ainsi crucial de choisir le produit le mieux adapté à vos clients, plutôt que d’opter pour un chatbot qui offre la meilleure marge bénéficiaire ou celui qui peut être mis en œuvre facilement.

Promouvoir la confiance entre les humains et les machines

Pour construire la confiance entre les humains et les machines, les marketeurs doivent essayer de fournir des informations transparentes à vos clients. Il importe de ce fait d’aligner les attentes des utilisateurs des bots avec la réalité, en apprenant des erreurs et en les corrigeant continuellement.

Vos clients doivent être suffisamment avertis pour pouvoir déterminer à quel moment ils parlent à un robot et à quel moment ils s’adressent à un humain.

Bien entendu, vos clients ne s’attendent pas à ce que les chabots soient parfaits, mais ils doivent savoir ce que les agents virtuels peuvent ou ne peuvent pas faire, et qu’ils sont fiables.

En termes de transparence, lorsque les clients communiquent des informations sensibles leur concernant à votre agent virtuel, ils veulent savoir comment celles-ci seront utilisées. Soyez donc francs et honnêtes quant à leur(s) usage(s).

Par ailleurs, il est recommandé de fournir à vos clients une option qui leur permette de s’adresser immédiatement à un humain au cas où ils auraient des soucis ou inquiétudes.

La propriété des données, la base de l’éthique des agents virtuels

La propriété des informations partagées avec un bot est un véritable enjeu quand on parle d’éthique pour les agents virtuels.

Quel que soit le type de bot, les entreprises qui en construisent devraient inclure une fonctionnalité demandant aux utilisateurs d’accepter les conditions d’utilisation de leurs données privées et sensibles.

En d’autres termes, il faut rappeler que l’exploitation des données à caractère personnel ne doit se faire qu’avec le consentement de l’intéressé. Ce dernier doit être informé sur les finalités de ce traitement et sur la durée pendant laquelle ses informations seront conservées.

Cela dit, la propriété des données demeure un défi majeur à l’ère du numérique. Mais bien que ce soit le cas, les chabots ne sont pas à l’abri de certains abus.

La GDPR, ou RGPD en français, est une réglementation européenne sur la protection des données personnelles. Elle risque de changer la donne dans le domaine des chatbots !

Prévenir l’abus d’utilisation des chabots

Lors de la construction d’un chatbot, le fait de savoir comment un bot pourrait gérer les abus est crucial. À ce titre, votre agent virtuel doit pouvoir reconnaitre le blasphème, les propos racistes, les menaces de mort, etc.

Pour éviter de telles dérives, les développeurs ont deux possibilités. Ils peuvent par exemple créer une situation de non-réponse à partir du moment où l’utilisateur abuse du bot.

L’autre option est d’ajouter des réponses automatiques et neutres, du type « Je suis désolé, je ne comprends pas votre demande. ». Différentes réponses peuvent dans ce cas être envisagées en fonction de la gravité de l’abus.

Inversement, les chabots ne doivent pas abuser des humains. Comme c’est l’humain qui les « nourrit » par des informations, les bots peuvent les utiliser pour apprendre tout seul et parfaire (ou non) les échanges avec vos clients, et ce, sans l’intervention de leur développeur. Et sachez que cela peut présenter des risques.

Prenons l’exemple du chatbot Tay lancé par Microsoft. Lorsque ce bot a été nourri par les échanges avec les internautes et par les données de son créateur, il a fait l’objet de dérapages racistes quelques heures seulement après son lancement.

Protéger les données pour garantir le respect de l’éthique des agents virtuels

Ce point mérite d’être développé quand on parle d’éthique pour les agents virtuels. En effet, la protection et la confidentialité des données de vos clients sont primordiales dans le monde interconnecté d’aujourd’hui. C’est notamment pour cela que le Règlement général sur la protection des données (RGPD) sera appliqué à partir du mois de mai 2018 dans l’Union européenne.

La vraie question est de savoir comment garantir la protection des données communiquées à un bot ? En réalité, il est difficile d’apporter des réponses fiables à cette question.

Ce qui est certain, c’est que cryptage est actuellement devenu insuffisant. La solution à préconiser serait de vous assurer que les chabots ne diffusent pas sur le web les données sensibles de vos clients. L’idéal serait même de les conserver en local.

Conclusion

À l’ère des chabots, la question d’éthique devrait se trouver au cœur des échanges commerciaux entre vos équipes marketing et vos clients.

Les agents virtuels sont encore à un stade relativement précoce, mais les marketeurs continuent de montrer un vif intérêt pour cette technologie.

Malheureusement, les enjeux liés l’utilisation des bots, notamment des données, vont davantage se complexifier et votre entreprise doit pouvoir s’adapter à cette situation.

Pour tirer profits des bots, votre entreprise doit donc être capable d’anticiper les éventuelles dérives en fournissant plus de transparence et en protégeant davantage les données de vos clients.

De là, on pourrait peut-être voir un jour un test de moralité pour ces agents artificiels. Autrement dit, on pourrait très bien intégrer la question d’éthique dans les algorithmes pendant leur phase d’apprentissage.