Amérique du nordAsieTech

Comment des chercheurs tentent de percer le secret des algorithmes de l’intelligence artificielle

Examiner une demande de prêt bancaire, effectuer un diagnostic médical, prédire quel produit ou service achètera un client en fonction de ses goûts: l’usage d'algorithmes et de l'intelligence artificielle (IA) prennent une place de plus en plus importante au quotidien. Malgré l’impact que peuvent avoir ces décisions sur les pratiques, le mystère reste entier quant aux données utilisées et sur lesquelles se basent les algorithmes pour déterminer si, oui ou non, un client est solvable, un patient risque de contracter une maladie, ou si un client est intéressé par un produit. C'est cette inconnue que trois chercheurs américains de la Carnegie Mellon University aux Etats-Unis ont voulu percer.

Anupam Datta, Shayak Sen et Yair Zick se sont intéressés à la question du fonctionnement des algorithmes qui fondent l'IA et viennent de publier leurs résultats. A l’aide d’un système de mesure qu’ils ont développé par eux-mêmes, le Quantitative Input Influence (QII), ils ont cherché à déterminer le poids de chaque informations apportées à un algorithme dans la prise de décision.  

L'opacité des algorithmes pointée du doigt

«La transparence des algorithmes fait l’objet d’une demande croissante, à mesure que les organisations privées et publiques utilisent des volumes de données personnelles de plus en plus importants, et des systèmes d’analyse de ces données de plus en plus complexes pour prendre leurs décisions», expliquent-ils dans un article présentant les premiers résultats de leur recherche publié à la fin du mois de mai. Or, poursuivent-ils, plus de transparence permettrait de repérer les décisions discriminantes, les erreurs de prédiction, et de placer les organisations face à leur responsabilité dans leurs processus de décisions.

Les chercheurs ont conduit une première phase de test de leur système de mesure QII sur des algorithmes de machine-learning standards. Conclusion de ces tests: au-delà de rapports de transparence réalisés à l’échelle d’une organisation, il est nécessaire de construire des rapports de transparence individualisés, pour chaque indidivu analysé (client, patient, etc.)

Comprendre la classification

Ces rapports permettent d’expliquer comment, dans un contexte donné (une décision à prendre), le profil d’un individu (ses revenus, son niveau d’études, son statut marital, etc.) fait varier sa «classification» relative par rapport à d’autres profils.

Pour illustrer leurs propos, les auteurs de l’étude détaillent trois profils-type d’individus. Le premier, celui de Mr. X présenté ci-dessous, montre l’impact positif qu’a son niveau de revenus sur son positionnement. Le fait qu’il ne soit pas marié, avec un enfant à charge a en revanche un impact négatif.

Plus contextualisé, le profil de Mr. Z ci-dessous également est issu de ce que les chercheurs appellent leur base «arrestations» (profils des individus arrêtés par la police sur une période de temps donnée). L’analyse du profil permet de voir que son origine et son année de naissance ont joué positivement dans le fait qu’il soit arrêté par la police, plus que le fait qu’il n’ait pas d’antécédents de drogue par exemple.

ia-profils-types

On comprend sans mal l’intérêt que peut présenter le système QII déployé à une plus grande échelle. De nombreux secteurs, tels les assurances, la banque, la santé, la vente, ou encore la sécurité informatique, utilisent déjà les algorithmes pour accroître la connaissance de leurs cibles. D'ailleurs, les trois chercheurs annoncent être en recherche de partenaires industriels pour déployer leur système QII sur des algorithmes de machine-learning opérationnels. Si ces recherches serviront la transparence sur les algorithmes de l'IA, une autre inconnue est celle de savoir si les organisations joueront le jeu, et publieront ces données.

VOIR: La recherche complète des universitaires américains

 

Crédit photo: Fotolia, banque d'images, vecteurs et videos libres de droits
Tags

Claire Spohr

Chargée d'études au sein de la rédaction.

Sur le même sujet

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Sur le même sujet

Close
Share This