Données vs Confidentialité : quels impacts des réglementations de l’UE pour l’Intelligence Artificielle ?

Le développement et l’utilisation de solutions basées sur l’Intelligence Artificielle telles que les voicebots et les chatbots vont-ils devenir plus compliqués dans les années à venir ? La mise en œuvre d’une solution d’IA efficace commence toujours par un ensemble de données pertinent. C’est précisément l’utilisation de ces données – en particulier « humaines » – pour l’IA dont il est question dans les nouvelles réglementations européennes.

Ce n’est qu’une question de temps, mais il y aura de nouvelles réglementations de l’Union Européenne (UE) en matière d’intelligence artificielle (IA). Le premier volet a été publié au printemps dernier et montre que les nouvelles règles reposent sur l’évaluation des risques : le niveau de risque est la Probabilité multipliée par l’Impact. S’il y a une faible probabilité que quelque chose tourne mal mais que l’impact est élevé, alors le risque est considéré comme plus grand et les règles seront plus restrictives. Par exemple, les chatbots sont classés dans la catégorie de risque 2, ce qui signifie qu’il existe une obligation d’information et que les entreprises doivent donc être transparentes sur le fonctionnement de l’application. C’est précisément sur ce point que les services client devront sans doute faire face à une obligation supplémentaire de déclaration auprès des consommateurs.

Surveillance des algorithmes

« Avec les propositions législatives et les notes de politique générale de l’UE publiées jusqu’à présent, le ton a été donné », selon Menno Weij, avocat spécialisé en technologie et protection de la vie privée (Partner Tech & Privacy Law chez BDO Nederland). « Le fait qu’il y ait des règles est une bonne chose, mais l’impact de ces règles sur les entreprises et les consommateurs m’inquiète pour le moment. Par exemple, aux Pays-Bas il est question de mettre en place une surveillance des algorithmes, une tâche qui devrait être confiée à l’Autorité néerlandaise de protection des données (Autoriteit Persoonsgegevens, AP). Cependant l’AP se plaint depuis des années du manque de moyens et est très en retard en ce qui concerne les dossiers de protection de la vie privée.

Ouverture et transparence

Un deuxième aspect des directives de l’UE concerne l’ouverture et la transparence autour de l’utilisation et du déploiement de l’IA. Menno Weij : « Juridiquement, cela revient à préciser qu’en tant que consommateur, vous devez savoir que vous avez affaire à un chatbot plutôt qu’à une personne réelle, par exemple. L’idée sous-jacente est de donner au consommateur la possibilité de faire un choix éclairé ou de refuser certaines situations. Par exemple, un consommateur peut choisir d’appeler le service client plutôt que de parler avec un chatbot ».

Les données comme matière première essentielle de l’IA : un impact majeur

En outre, Weij s’attend également à un impact fort d’un autre élément frappant de la réglementation à venir. « L’un des leaders de la politique européenne de protection de la vie privée est l’organisme de surveillance de la vie privée français CNIL (Commission Nationale Informatique & Libertés). La CNIL, organisme de surveillance de la protection de la vie privée progressiste et respecté en Europe, a analysé les différents rôles des fournisseurs d’IA dans le contexte du RGPD. Cette analyse peut avoir des conséquences profondes pour les entreprises qui utilisent des applications d’IA auprès des consommateurs. »

Notification du chatbot
À l’heure actuelle, il n’est pas encore clair comment cette obligation de transparence sera mise en œuvre. Vous pourriez penser à un message tel que « vous utilisez actuellement un service automatisé qui utilise des algorithmes et des données, où les données sont collectées, entre autres, lors de l’utilisation du service ». Menno Weij pense que du point de vue de la législation sur l’IA, les consommateurs auront besoin de savoir qu’ils sont en communication avec un robot. En outre, le consommateur en tant qu’individu devra également savoir quelle est la conséquence d’une telle interaction avec un robot, selon Femke Schemkes, collègue de
Weij. « D’une part, les réponses automatisées sont générées en réponse aux questions posées, d’autre part, les données sont collectées et utilisées pendant le service, mais aussi pour permettre à la solution d’IA d’apprendre. Pour les utilisateurs qui n’y connaissent rien, cela risque de ne pas être très clair. »

Weij : « Du point de vue de la confidentialité, la réglementation est particulièrement intéressante car le fournisseur devient également responsable. La partie avec laquelle les consommateurs font affaire devra alors le notifier, et cette partie devra se référer à une déclaration de confidentialité du fournisseur d’origine, par exemple. »

Les données disponibles ont une influence majeure sur l’efficacité de l’IA

Ensuite, il y a le côté technique de l’Intelligence Artificielle. Arjan van Hessen (Head of Imagination chez Telecats/Université de Twente) pense également qu’il est grand temps de mettre en place des lois et des règles, « car les développements technologiques évoluent à la vitesse de la lumière ». Il explique que le fonctionnement de l’IA dépend fortement de la façon dont les ensembles de données sont compilés.

Van Hessen : « L’IA revient à identifier des modèles (patterns en anglais) grâce aux données collectées. Plus l’ensemble de données est large, plus l’IA fonctionnera bien, en règle générale. En imposant plus de restrictions sur l’utilisation de certaines données, l’IA deviendrait moins précise. Utiliser ou ne pas utiliser des données personnelles spéciales, telle est la question. Aux États-Unis et plus encore en Chine, les règles de confidentialité sont considérées comme moins importantes et nous risquons de nous retrouver dans la situation où l’IA chinoise obtiendra bientôt de meilleurs résultats que les IA européennes, par exemple. En Europe, le postulat de base est que vous n’utilisez pas de données personnelles spéciales à moins que vous ne puissiez très bien le justifier. De plus, l’Union Européenne est fortement attachée à la capacité d’expliquer les algorithmes, afin que l’utilisateur final puisse savoir pourquoi une certaine décision a été prise. Contrairement aux algorithmes plus classiques, ce n’est pas aussi facile avec l’IA mais c’est une bonne chose d’essayer. »

Le RGPD fournit déjà des conseils sur l’utilisation des données dans l’IA
Pour l’utilisation des données personnelles (spéciales), la législation a été modifiée en 2018, tant au niveau national qu’européen (RGPD). Le RGPD stipule que le traitement des données à des « fins statistiques » est simplement autorisé. Cependant, le résultat de l’entrainement de l’IA ne devrait pas être appliqué directement aux personnes, et certainement pas en tant que processus décisionnel automatisé (article 22 du RGPD).

Qualité de la solution en question

Il y a une autre raison pour laquelle éviter les biais est importante : en plus du risque de discrimination et d’abus, la performance de la solution est également importante. Van Hessen : « Si l’IA est développée à partir d’un ensemble de données qui n’est pas représentatif de la réalité et que les développeurs l’utilisent largement, la solution ne fonctionnera finalement pas si bien. Si vous développez de la reconnaissance vocale sans inclure les Ukrainiens qui parlent en français, alors la solution ne fonctionne pas pour l’ensemble de la société. »

Van Hessen souligne que ce problème existe déjà : après tout, la reconnaissance vocale ne fonctionne pas aussi bien avec les personnes très âgées, les enfants et les étrangers qui ne parlent pas français comme langue maternelle, simplement parce que ces groupes ne sont généralement pas impliqués dans l’entrainement de l’outil de reconnaissance de la parole. « Si nous voulons rendre la reconnaissance vocale plus inclusive, les données vocales de tous les groupes qui parlent français doivent également être pris en compte. Et ce processus ne s’arrête jamais, car de « nouvelles personnes francophones arrivent », de sorte que la langue est en constante évolution.

Tout commence par un bon entraînement

Les données utilisées pour l’entraînement de l’IA doivent donc être représentatives des groupes cible. Ces groupes cible peuvent également changer dans le temps et l’IA doit également être entraînée pour eux, selon Arjan Van Hessen. « Pour le RGPD, votre voix est désormais considérée comme une donnée personnelle spéciale car c’est une donnée biométrique qui peut être utilisée pour une identification unique. Cela complique d’autant plus l’amélioration de la technologie de reconnaissance vocale. Vous ne voulez pas laisser la création et l’amélioration de technologies inclusives à Microsoft ou Google exclusivement. »

Renforcer l’expertise

Arjan Van Hessen pense que ce serait une bonne idée s’il y avait plus d’expertise dans les organisations pour superviser leur propre collecte de données et ce qui en est fait. « Sinon, vous obtenez des situations où les choses peuvent devenir incontrôlables si vous n’examinez pas de près comment sont collectées les données et votre méthode d’analyse. Évaluer les méthodes utilisées par les experts, apprendre d’eux, cela arrive trop peu souvent à mon avis. Considérez la relation entre la nature et la qualité des résultats et l’ensemble des données. J’entends de plus en plus souvent de jeunes data scientists dire qu’ils ont du mal à convaincre leurs managers de pourquoi quelque chose fonctionne bien ou non ou pourquoi quelque chose n’est pas statistiquement responsable. » Bien sûr, les managers auront progressivement une meilleure compréhension des données, des algorithmes et de l’IA, mais cela aiderait énormément à faire un peu plus de progrès dans ce domaine, selon Van Hessen.

Que faut-il prendre en compte ?

Revenons aux inévitables lois et réglementations. Pour les consommateurs, cela pourrait prendre la forme de notifications comme pour les cookies : bientôt, vous devrez peut-être aussi cliquer sur une notification d’IA d’un chatbot. « La question est de savoir ce que le consommateur obtiendra réellement en termes d’explications. Et si cette explication sera bien comprise. Bien sûr, offrir un choix est toujours préférable. Mais une notification supplémentaire peut également conduire à accroître la « fatigue du consentement », craint M. Weij, « le moyen devient alors pire que la fin ».

Il y a de fortes chances que les nouvelles réglementations créent beaucoup de travail supplémentaire pour les entreprises – et un paradis pour les avocats, selon Menno Weij. En ce qui concerne le développement d’applications de bas niveau – pensez aux chatbots low-code, qui peuvent facilement être intégrées au centre de contact – il est convaincu que les lois et réglementations actuelles suffisent. « Bien sûr, les développeurs d’applications low code doivent également suivre les règles de conformité. Les entreprises qui n’auront pas mis de l’ordre dans leur gouvernance dans ce domaine et qui auront des applications low-code développées et déployées sans réfléchir auront tôt ou tard des comptes à rendre. »

Article d’Erik Bouwer pour Ziptone

PARTAGE
PARTAGE

Demo

Curieux de voir nos solutions en action ? Remplissez vos coordonnées et nous vous contacterons pour planifier une démo.

Contactez-nous

Comment pouvons-nous vous aider ?

Get In Touch

How can we help you?