Robot_arm

  

Quand l’analyse de données rejoint l’éthique: une certification pour l’IA

L’intelligence artificielle (IA) est partout, peut-être trop présente d’ailleurs. Peut-être avez-vous hésité à commencer votre lecture de cet article. A quoi bon lire un article de plus sur l’IA ? L’omniprésence de l’IA reflète une phase de démocratisation depuis les années 2010. La puissance sans cesse renforcée des ordinateurs et les nouvelles masses de données à notre disposition a dramatiquement rapproché l’IA de notre quotidien. Les outils d’IA ne sont plus lointains, inaccessibles, réservés à des instituts de recherche. Ils s’invitent dans nos entreprises, dans nos loisirs, dans nos relations ou encore dans nos discussions politiques.

La démocratisation de l’IA
Pour le dire simplement, celle qu’on appelle l’”IA”, c’est avant tout une formidable capacité d’analyse de données. Toutes nos activités humaines produisent des données si nous les mesurons et les documentons. Les outils d’IA, c’est-à-dire des formules mathématiques sous la forme d’algorithmes, permettent d’analyser ces données et de créer de l’information utile. 
Toutes les entreprises créent des données et pourraient donc utiliser des outils d’analyse pour mieux comprendre leurs activités et créer plus de valeur-ajoutée. La même réflexion s’applique bien sûr aux services publics. Le service aux citoyens peut gagner en efficacité et en qualité si les outils sont bien utilisés.
Les grandes entreprises utilisent déjà toutes des outils d’IA. Selon une étude du cabinet d’études technologiques Vanson Bourne de 2018, 80% des 260 plus grandes entreprises globales utilisent et investissent dans les outils d’IA. Mais les PME reconnaissent aussi la valeur de ces outils et entrent de plein pied dans cette phase de démocratisation. En Suisse, Swisscom a conduit en 2018 une étude représentative auprès du tissu de PME. Selon cette étude, 6% des PME investissent déjà dans des outils d’IA et 12% étaient en train de planifier des investissements. Ce mouvement de fond dans les PME est accompagné par la création de startup spécialisées dans l’IA. Selon MMC Ventures, 1 startup sur 12 fondée en Europe aurait l’IA comme coeur de business. A leur tour, ces spécialistes vont mettre à disposition des outils d’IA pour toutes les entreprises et institutions publiques. 

L’éthique de l’IA
Cette démocratisation s’accompagne de son lot d’essais et d’expérimentations. Durant les dernières années, les utilisateurs ont regardé avec une certaine passivité certains de ces développements. Mais les scandales de discriminations (traitement automatisé des CV, limite bancaire), les bugs des assistants virtuels et le profilage toujours plus poussé des clients ont laissé des traces. L’utilisation d’outils d’IA par les collectivités publiques - comme la répartition des élèves dans les écoles de la ville de Zürich - interpelle. Le service public du futur doit-il être basé sur l’analyse de données ? Comment mettre en place les bons garde-fous ?  
La confiance des utilisateurs est directement touchée. Les utilisateurs veulent comprendre comment les données sont utilisées et comment les suggestions et décisions prises par les outils d’IA se justifient. L’idée que les outils d’IA sont des “boites noires” qui donnent un résultat qu’on ne parvient pas à expliquer n’est pas tenable dans la durée. La réputation de l’entreprise ou de la collectivité publique  peut rapidement être mise en danger. 
C’est pour répondre à ce besoin accru de confiance dans les outils d’IA que nous avons développé avec les spécialistes d’analyse de données de Swiss-SDI une offre de certification. L’idée de base est simple: les spécialistes d’analyse données et d’éthique passent au crible les outils IA d’une entreprise ou d’une collectivité publique. En analysant les besoins spécifiques et le domaine d’activité du client, nous définissons un mapping des risques potentiels. Sur cette base, les sets de données et les outils d’IA sont analysés afin de vérifier leur compatibilité avec les valeurs de l’entreprise. Le maître-mot est celui de la cohérence. L’objectif n’est pas de garantir la perfection, mais de minimiser les risques pour l’utilisateur et donc pour l’entreprise. Cette analyse nous permet de formuler des propositions d’amélioration concrètes à mettre en oeuvre. Celles-ci couvrent l’entier du spectre des défis statistiques et éthiques: qualité des sets de données, qualité des algorithmes, automatisation des décisions. Il s’agit d’améliorer la qualité des outils d’IA et de garantir que les risques principaux ont été identifiés et résolus. Sur cette base, les clients reçoivent un certificat détaillant les analyses effectuées et les recommandations proposées. Ce certificat témoigne de l’engagement de l’entreprise vis-à-vis de ses clients. 

La communication, élément clef de la confiance
Le développement de cette méthode d’analyse “FairAI” nous a rappelé à quel point la communication claire, transparente et honnête était au coeur d’une relation de confiance. Les utilisateurs sont prêts à accepter l’utilisation d’outils d’IA. Ces outils vont souvent améliorer le produit qu’ils achètent. Mais ils le font à condition de ne pas être manipulés, de ne pas avoir l’impression d’être l’objet de processus qu’ils ne maîtrisent pas, ou dont ils ignorent simplement l’existence. Les entreprises et les collectivités publiques doivent améliorer la manière dont ils informent leurs clients et le public. Pour répondre à ce défi, nous avons décidé d’intégrer dans notre approche “FairAI” des outils de visualisation et de communication. Ces outils permettent d’expliquer de manière simple et accessible le fonctionnement et le rôle des outils d’IA dans l’entreprise. Ils sont préparés spécifiquement pour nos clients, afin de leur permettre de communiquer avec leur public. Plus généralement, il s’agit d’une contribution à une véritable question de société sur la manière dont nous voulons collaborer.