Intelligence artificielle : l’Europe a une feuille de route
Publié le 06/05/2019 par Thierry Léonard, Olivia Guerguinov, Bojana Salovic
Afin d’exploiter au mieux les perspectives qu’offre l’intelligence artificielle, la Commission européenne a publié en 2018 une stratégie européenne et un plan d’actions dans lesquels elle entend placer les citoyens au centre du développement de l’IA. La version définitive des lignes directrices en matière d’éthique pour le développement et l’utilisation d’une IA a été publiée ce 8 avril 2019. Outre de définir les valeurs essentielles d’une IA éthique, elles contiennent des orientations pour l’application concrète et la mise en œuvre opérationnelle de ces valeurs ainsi qu’une liste d’évaluation.
La technologie toujours plus présente
« Par ordre de la Division précrime du district de Columbia, je vous arrête pour le meurtre futur de Sarah Marks, que vous alliez commettre aujourd’hui ».
Vous reconnaissez peut-être cette réplique du film culte Minority Report dans lequel la société du futur éradique le meurtre grâce à des systèmes de prévention et de détection hypersophistiqués ?
La science-fiction est aujourd’hui devenue réalité. Un programme nommé « Blue CRUSH » procure aux officiers de la ville de Memphis au Tennessee, des indications précises sur les zones et les heures auxquelles les délits sont les plus susceptibles de se produire, afin d’optimiser l’organisation du service. Comment ? Grâce à un logiciel qui prélève et rassemble (notamment à l’aide de caméras) un maximum de données sur les délits commis dans un territoire déterminé.
C’est une application de l’intelligence artificielle (IA), à savoir : la capacité des ordinateurs, dûment approvisionnés en données, à faire preuve d’un comportement ‘intelligent’ en analysant leur environnement et en prenant des mesures (avec un certain degré d’autonomie) pour atteindre des objectifs spécifiques.
L’IA fait déjà partie de notre quotidien. Waze utilise l’intelligence artificielle pour proposer des itinéraires alternatifs, Uber pour calculer le prix de la course et/ou réduire le temps d’attente, Amazon pour proposer des produits susceptibles de nous intéresser, Siri pour nous assister au quotidien, etc.
L’UE comme acteur important
Le 25 avril 2018 la Commission européenne publiait une communication sur « L’intelligence artificielle pour l’Europe » (COM(2018) 237 final). L’objectif ? Faire de l’Europe un acteur mondial de premier plan dans le domaine de l’intelligence artificielle tout en adoptant une approche centrée sur l’humain, en favorisant le développement d’une IA fiable et de confiance qui corresponde aux valeurs éthiques européennes et aux aspirations des citoyens.
Conformément à cette communication, la Commission européenne a publié en décembre dernier son « plan coordonné » élaboré avec les États membres, la Norvège, la Suisse (COM(2018) 795 final). Ce plan regroupe une série d’actions concrètes, parmi lesquelles : l’élaboration de lignes directrices claires en matière d’éthique pour le développement et l’utilisation d’une IA respectueuse des droits fondamentaux, dans la perspective de constituer une référence mondiale en la matière.
Pour ce faire, la Commission a mis en place le « High-Level Expert Group on Artificial Intelligence » (HLEG), un groupe d’experts indépendants composé d’experts divers (scientifiques, juristes, philosophes, économistes…) de tous horizons confondus (industriels, chercheurs, associations de consommateurs, etc.).
La version définitive des lignes directrices pour une IA digne de confiance, élaborées par le HLEG, a été publiée ce 8 avril 2019.
Des lignes directrices non contraignantes
Les lignes directrices élaborées par le HLEG ne sont pas contraignantes et ne créent pas de nouvelles obligations juridiques.
Cependant et comme rappelé par la Commission dans sa communication du 8 avril 2019 (COM(2019) 168 final), nombreuses dispositions du droit de l’Union (généralement spécifiques à un usage ou à un domaine particulier) intègrent déjà une ou plusieurs des exigences essentielles reprises dans les lignes directrices (comme en matière de sécurité, de protection des données à caractère personnel, de respect de la vie privée, de protection de l’environnement, etc).
7 exigences essentielles pour une IA digne de confiance
Le HLEG a défini 7 principes essentiels à respecter pour rendre les systèmes d’IA « digne de confiance ». Un véritable guide pour les parties prenantes (entreprises, organisations, chercheurs, services publics, institutions, particuliers, etc.) qui mettent au point, déploient ou utilisent des systèmes d’IA :
Facteur humain et contrôle humain
Une IA digne de confiance nécessite de concevoir, déployer et utiliser les systèmes d’IA pour servir l’humain (le bien-être des utilisateurs doit être au centre des fonctionnalités du système) et le bien commun. Cela implique – tant lors de la phase de conception que lors de la phase d’utilisation – de :
- respecter les droits fondamentaux, les valeurs sociétales et les principes éthiques (sans restreindre l’autonomie humaine) ;
- de porter une attention particulières aux personnes vulnérables (enfants, personnes avec handicap, minorités, employés, consommateurs, etc.) ;
- de toujours garder à l’esprit que l’IA peut avoir des incidences négatives, dont certaines peuvent être imprévisibles et d’adopter des mesures adéquates pour atténuer ces risques ;
- d’assurer un contrôle humain pour éviter qu’un système d’IA ne mette en péril l’autonomie humaine ou ne provoque d’autres effets néfastes.
Robustesse et sécurité
Une IA digne de confiance nécessite une robustesse technique (notamment des algorithmes suffisamment sûrs, fiables et robustes). Et cela pour éviter qu’un préjudice involontaire (attaque, manipulation de données, etc.) ne résulte d’un manque de maîtrise technologique.
Respect de la vie privée et gouvernance des données
Une IA digne de confiance suppose d’offrir aux citoyens la maîtrise sur leurs données personnelles et d’éviter que ces dernières ne soient utilisées à leur encontre à des fins préjudiciables ou discriminatoires. La confiance des utilisateurs est en effet primordiale pour faciliter le développement de l’IA à l’échelle européenne.
Transparence
Une IA digne de confiance suppose également d’assurer la traçabilité des systèmes d’IA.
Diversité, non-discrimination et équité
Les systèmes d’IA devraient prendre en compte l’ensemble des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
Les ensembles de données utilisés par les systèmes d’IA (tant pour leur conception que pour leur exploitation) peuvent être biaisés par des partis pris historiques fortuits, des jeux de données incomplets ou inexactes et de mauvais modèles de gouvernance. Une simple affaire de statistique est susceptible de mener ainsi à des conclusions dangereuses (ex : refus d’octroi de crédit) tirées d’informations fausses (insolvabilité présumée sur base d’une analyse de données erronées).
Bien-être sociétal et environnemental
Les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique. Cela implique de tenir compte de l’incidence de l’IA sur la société au sens large (effets potentiels sur la démocratie, les institutions, élections, etc.) mais aussi l’environnement et les autres êtres sensibles. Par exemple, les processus de conception, déploiement et d’utilisation d’un système d’IA (et l’ensemble de la chaîne logistique) devraient être examiné afin de réduire au maximum l’utilisation des ressources et la consommation d’énergie.
Responsabilisation
Il convient de mettre en place des mécanismes permettant de garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes. Il s’agit d’assurer la vérifiabilité des systèmes d’IA (afin de contrer au maximum de scénario de la « boîte noire » où on sait ce qui « entre » d’un côté, on constate ce qui sort de l’autre côté, mais on ne sait pas ce qui se passe entre les deux). De plus, lorsqu’un système d’AI produit une injustice, il convient aussi de prévoir des mécanismes accessibles afin de garantir une juste réparation.
Des orientations sur la mise en œuvre
Les lignes directrices contiennent également des orientations pour l’application concrète et la mise en œuvre opérationnelle de ces valeurs et principes dans les systèmes d’IA, comme par exemple :
- intégrer les principes éthiques et les exigences liées à une IA digne de confiance dans les produits et services utilisant l’IA dès la première étape de conception ;
- intégrer l’IA digne de confiance dans la culture des organisations et notamment dans les chartes de déontologie ou dans les codes de conduite;
- Former et éduquer les gestionnaires, les concepteurs, les utilisateurs et employeurs à l’IA digne de confiance ;
- garantir une diversité lors de la formation des équipes chargées d’élaborer, de mettre en oeuvre et de tester le système d’IA ;
- faciliter la vérifiabilité des systèmes d’IA et définir des méthodes d’explication des systèmes d’IA ;
- intégrer des mécanismes de sécurité par conception et de sûreté dans le système d’IA permettant d’en vérifier l’innocuité à chaque stade ;
- définir, analyser, documenter et réduire au minimum les effets négatifs potentiels des systèmes d’IA (par exemple, en réalisant une analyse d’impact) ;
- tester et documenter les processus et ensembles de données utilisés à chaque stade (conception, déploiement, etc.) du système d’IA pour assurer l’intégrité des données ;
- mettre en place des mécanismes de gouvernance qui prévoient l’intervention humaine à des fins de contrôle du système d’IA pour éviter les dérives ;
- enregistrer et documenter les décisions prises par les systèmes, ainsi que l’ensemble du processus (description de la collecte et de l’étiquetage des données, description de l’algorithme utilisé) qui a abouti aux décisions ;
- être en mesure d’expliquer le processus de prise de décision algorithmique aux personnes concernées.
Bien entendu, ces exigences, si elles sont mises en œuvre en pratique, devront l’être « toute proportion gardée » (en fonction du risque encouru). Comme le rappelle la Commission, une application de l’IA qui suggère la lecture d’un livre à mauvais escient peut – parce qu’elle est moins dangereuse – faire l’objet d’un contrôle moins sévère qu’une application qui pose un mauvais diagnostic de cancer.
Liste d’évaluation et cas d’utilisation spécifiques
Ces lignes directrices prévoient aussi une liste d’évaluation (version pilote) destinée à vérifier si ces exigences sont remplies. Elle s’adresse principalement aux parties prenantes qui développent ou déploient des systèmes d’IA qui interagissent directement avec les utilisateurs.
Bien entendu, cette liste d’évaluation n’est pas exhaustive : avoir coché l’ensemble des cases ne suffit pas à garantir une IA digne de confiance.
Conclusion
La Commission encourage les parties prenantes à respecter les exigences et à expérimenter la liste d’évaluation de leur réalisation afin de créer un climat de confiance propice au développement et à l’utilisation de l’IA en Europe.
La Commission invite les parties prenantes à partager leur expérience afin d’établir si cette liste d’évaluation proposée dans les lignes directrices demande des ajustements supplémentaires ou non.
Ces lignes directrices sont évolutives et sont susceptibles d’être mises à jour régulièrement.
L’ambition est, à terme, de porter l’approche éthique de l’Europe sur la scène mondiale. La Commission entend ouvrir la coopération à l’ensemble des pays tiers désireux de partager des valeurs communes.
Plus d’infos ?
En lisant la communication de la Commission du 8 avril 2019 et les lignes directrices du HLEG (version anglaise), disponibles en annexe.