ActualitéBusinessTech

Comment l’UE veut-elle réguler l’usage de l’intelligence artificielle?

AFP

Véhicules autonomes ou reconnaissance faciale, les systèmes d’intelligence artificielle fascinent autant qu’ils inquiètent. Bruxelles doit dévoiler mercredi après-midi un projet de règlementation pour faire la course en tête dans cette révolution industrielle, tout en rassurant les Européens. « Qu’il soit question d’agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée, l’intelligence artificielle nous ouvrira de nouveaux mondes. Mais ces mondes ont aussi besoin de règles», avait déclaré en septembre la présidente de la Commission européenne, Ursula von der Leyen, dans son discours sur l’état de l’Union.

L’exécutif européen, qui a fait du numérique une priorité, entend honorer la promesse de la présidente de placer « l’humain au centre » de son projet législatif. Bruxelles est convaincue que l’intelligence artificielle, et ses techniques d’automatisation à base de logiciels et de données, ne pourront se développer qu’en apaisant les craintes des Européens. L’UE a raté la révolution de l’Internet grand public et ne possède aucun champion équivalent aux cinq géants américains Google, Apple, Facebook, Amazon et Microsoft, les fameux Gafam, ou à leurs équivalents chinois Baidu, Alibaba, Tencent et Xiaomi. Mais rien n’est perdu concernant la révolution provoquée par l’irruption massive de l’informatique dans les industries où l’Europe excelle comme les transports, l’agriculture ou le médical.

Interdire la surveillance généralisée 

Le projet de règlement, que l’AFP a pu consulter, prévoit d’interdire un nombre restreint d’utilisations qui menacent les droits fondamentaux. Seront prohibés les systèmes de « surveillance généralisée » de la population, ceux « utilisés pour manipuler le comportement, les opinions ou les décisions » des citoyens. Des autorisations dérogatoires sont cependant prévues pour la lutte antiterroriste et la sécurité publique. Les applications militaires ne sont pas concernées. Les peurs sont alimentées à la fois par des technologies non abouties, comme les véhicules autonomes, et les possibilités de contrôle des populations offertes aux régimes autoritaires. Les systèmes de notation citoyenne, comme ceux utilisés en Chine, seront notamment prohibés en Europe.

Le texte prévoit d’introduire des tests de conformité aux normes européennes pour des applications jugées « à haut risque » avant leur arrivée sur le marché. Ces exigences viendront s’ajouter aux règles déjà existantes en matière de sécurité des produits. Le projet, qui sera conjointement présenté par les commissaires à la Concurrence Margrethe Vestager et au Marché intérieur Thierry Breton, dresse une liste précise de ces applications sensibles. Une première catégorie, incluant « l’identification biométrique à distance des personnes dans les lieux publics » et les « éléments de sécurité dans des infrastructures publiques essentielles » se verra imposer des tests de conformité réalisés par une autorité tierce.

Une deuxième catégorie comprend notamment les systèmes de priorisation des services d’urgence, les outils utilisés pour le recrutement, pour déterminer l’accès à des institutions éducatives, ou encore pour évaluer la solvabilité des personnes. Leur conformité sera garantie par une auto-évaluation conduite par l’entreprise, sous le contrôle d’une autorité de surveillance. Les autres usages, considérés comme sans danger, ne se verront imposer quasiment aucune contrainte réglementaire supplémentaire.

Lourdes amendes

De lourdes amendes sont prévues pour les entreprises en infraction. Pour Alexandre de Streel, codirecteur du groupe de réflexion Center on Regulation in Europe (Cerre), il y a un équilibre difficile à trouver entre protection et innovation. Le cadre fixé est « relativement ouvert et tout dépendra de la façon dont il sera interprété » par la justice, estime l’expert redoutant un coup de frein aux efforts de recherche des PME. Les entreprises de technologies saluent en tout cas l’analyse par cas d’usage privilégiée par Bruxelles. « L’Union européenne poursuit une approche fondée sur le risque pour réglementer l’intelligence artificielle. Ce serait une approche sage et stratégique », estime Christian Borggreen, vice-président du CCIA, un des lobbies du secteur numérique.

Mais pour certains, le règlement ne va pas assez loin. « Il autorise encore certaines utilisations problématiques, comme la surveillance biométrique de masse. L’UE doit adopter une position plus ferme (…) et interdire la surveillance indiscriminée de la population sans autoriser d’exceptions », estime Orsolya Reich de l’ONG Liberties. La nouvelle législation sera encore débattue durant des mois, notamment avec le Parlement européen et les 27 Etats membres, avant la mise en oeuvre d’un texte définitif.

La rédaction

Pour communiquer sur FrenchWeb ou le Journal des RH, devenez partenaire, cliquez ici.
Bouton retour en haut de la page
Comment l’UE veut-elle réguler l’usage de l’intelligence artificielle?
Brevets télécoms: Ericsson et Samsung règlent un important litige
Bill.com rachète la startup Divvy pour 2,5 milliards de dollars afin de gérer les dépenses des PME
Facebook
Facebook: la suspension de Donald Trump relance le débat de l’auto-régulation des réseaux sociaux
Bouygues Telecom
5G: Bouygues Telecom va recevoir 350 millions d’euros de la Banque européenne d’investissement
Twitter
Twitter lance une « boîte à pourboires » pour fidéliser les influenceurs
[BOOTSTRAP] Comment les entreprises qui bootstrappent s’adaptent elles à la crise?