BusinessLes contributeursLes ExpertsMarketing & CommunicationTech

IA et éthique: le contresens navrant de Cédric Villani

Par Philippe Silberzahn, professeur d’entrepreneuriat, stratégie et innovation à EMLYON Business School et chercheur associé à l’École Polytechnique (CRG)

Ainsi donc avec le rapport Villani sur l’intelligence artificielle, la France a renoué avec une vieille tradition: demander à quelqu’un d’intelligent d’écrire un rapport idiot. Enfin idiot, on se comprendra: le rapport que notre Médaille Fields vient de rédiger n’est pas tant idiot que convenu. Nous sommes en retard sur l’IA, vite un plan national. Des subventions, des initiatives, une agence, tout plein de petits fours et de pique-assiettes, la routine française quoi. La montagne a accouché d’une souris, les chinois se marrent bien. Mais les faiblesses de ce rapport ont été soulignées avec talent par d’autres, inutile d’y revenir. Ce qui me semble important cependant, c’est le lien que le rapport fait avec l’éthique.

Le titre-même du rapport « Donner un sens à l’IA » est problématique. Quand on regarde l’histoire de l’innovation, le sens a toujours été donné a posteriori. Et ce pour une raison très simple: les ruptures technologiques présentent toujours des situations inédites sur le plan légal, social et éthique. Il est très difficile, voire impossible, de penser ces ruptures avant qu’elles ne se produisent, et avant que les effets ne soient visibles. On risque de penser dans le vide. Lorsque McKinsey conduit une étude de marché pour AT&T en 1989 pour évaluer le potentiel de la téléphonie mobile, les résultats sont désastreux: personne ne voit l’intérêt d’avoir un téléphone mobile. Personne ne peut simplement imaginer ce qu’on ferait avec. Seule l’utilisation effective a révélé les possibilités de la technologie, de même qu’aujourd’hui seule l’utilisation de Facebook en révèle les dangers pour la vie privée.

et hop, une souris!

Plus généralement, les applications d’une nouvelle technologie sont impossibles à anticiper. Lorsque les ingénieurs français et autrichien découvrent les ultra-sons en 1911, ils s’en servent pour détecter les sous-marins. Quarante ans après, cette technologie est utilisée en médecine, c’est l’échographie. Cette utilisation est totalement imprévue et d’ailleurs, il était initialement question que ce soit pour la détection des cancers. Aujourd’hui, l’échographie est devenue banale et peu chère, à tel point qu’elle est utilisée dans les pays pauvres, en particulier en Chine et en Inde. Utilisée pour l’avortement sélectif, elle est directement responsable du fait notamment qu’environ 25 millions de femmes ne sont pas nées en Chine, causant un déséquilibre des sexes qui entraîne de lourds problèmes sociaux et donc politiques. Qui aurait pu penser qu’une technologie mise au point en Europe pour la lutte anti sous-marine soit la cause, un siècle plus tard, d’un bouleversement social en Asie? Penser les conséquences de l’échographie a priori aurait été totalement vain.

Mais il y a pire. Toute technologie est duale, au sens où elle peut servir à faire le bien comme le mal. Imaginez que vous soyez ministre de l’environnement dans un pays éthique qui a mis le principe de précaution dans sa constitution (exemple fictif bien-sûr). Un groupe d’industriels vient vous voir pour obtenir l’autorisation préalable nécessaire à la commercialisation de leur nouvelle technologie. Elle apportera de toute évidence des bienfaits immenses, facilitant la vie de nombreux habitants. Son seul défaut: elle tuera environ un million de personnes par an dans le monde. Que faites-vous? Vous l’interdirez probablement et mettrez un comité d’éthique sur le dossier. Cette technologie? C’est l’automobile.

En plaçant l’IA au service de l’éthique, le rapport commet donc deux erreurs: d’une part il ne se donne aucune chance de penser l’éthique de l’IA correctement, car nous penserons dans le vide – nous ne pourrons penser qu’en faisant, et d’autre part il condamne la France à regarder les autres danser depuis le balcon. Antoine Petit, le patron du CNRS lors de la conférence AI For Humanity où était présenté le rapport Villani, nous invitait ainsi à éviter un écueil: « Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business. » C’est tout l’enjeu et à vouloir mettre l’IA d’entrée de jeu au service de la diversité, de l’égalité homme-femme, du bien commun et des services publics, c’est sacrifier aux modes du moment en se trompant de combat. On demandait à Cédric Villani de nous dire comment la France pouvait rattraper son retard en IA, c’est à dire de poser un raisonnement industriel, pas de signaler sa vertu à l’intelligentsia post-moderniste qui gouverne la pensée de ce pays.

Sans compter que comme souvent dans ces cas-là, le sens que l’on donne à éthique est bien restreint. Il peut être éthique de ne pas vouloir développer une IA aux conséquences négatives, mais il peut être également éthique d’essayer pour voir, car ce n’est qu’en agissant que nous saurons. Les entrepreneurs savent cela depuis longtemps, nos savants intelligents et ceux qui nous gouvernement l’ignorent, et se condamnent peu à peu à la paralysie par excès de prudence et, au fond, par peur du futur. Nous devenons un vieux pays, et laissons progressivement les autres développer l’avenir. Au fond, le rapport Villani est un rapport de vieux, la hype de notre ami Cédric en plus.

Pour une bonne analyse critique du rapport Villani, voir l’article d’Olivier Ezratty ici: Ce que révèle le Rapport Villani.

Le contributeur:
Philippe Silberzahn

Philippe Silberzahn est professeur d’entrepreneuriat, stratégie et innovation à EMLYON Business School et chercheur associé à l’École Polytechnique (CRG), où il a reçu son doctorat. Ses travaux portent sur la façon dont les organisations gèrent les situations d’incertitude radicale et de complexité, sous l’angle entrepreneurial avec l’étude de la création de nouveaux marchés et de nouveaux produits, et sous l’angle managérial avec l’étude de la gestion des ruptures, des surprises stratégiques (cygnes noirs) et des problèmes complexes (« wicked problems ») par les grandes organisations.

CATHAY INNOVATION EDUCAPITAL XANGE
A Global Venture Capital Firm Connecting Innovators Everywhere The largest European Edtech & Future of Work VC Today's disruption, Tomorrow's daily life
DECOUVRIR DECOUVRIR DECOUVRIR
Connaissez vous la DATAROOM de FRENCHWEB.FR notre base de données de startups et sociétés innovantes françaises: informations clés, fonds levées, chiffres d'affaires, organigramme, axes de développement. Accédez aux informations que nous avons collecté concernant plus de 2000 sociétés

14 commentaires

  1. Des propos pleins de bon sens. Une vision passionnante. Article vraiment intéressant

  2. Bonjour,
    Ce point de vue est intéressant et tend vers ce qu’on appelle le principe de Gabor: « Tout ce qui est techniquement faisable se fera, que sa réalisation soit jugée moralement bonne ou condamnable ». Mais, en qualité d’éthicien des technologies spécialisée dans l’éthique de l’IA, j’émets des réserves importantes.
    L’éthique n’est pas un raisonnement qui condamne au nom du bien et du mal, c’est un raisonnement individuel et collectif pour construire une définition socialement acceptable de ce qui est juste. L’éthique offre donc une perspective constructive à la recherche. Elle n’est pas un frein mais une vigilance vis-à-vis de la société, de la même façon que la démarche d’innovation implique une vigilance vis-à-vis du marché ciblé. Pas d’innovation sans capacité des groupes sociaux à l’intégrer dans son système de valeurs.
    L’exemple de la voiture est très classique pour critiquer les éthiciens. L’éthique n’est pas un raisonnement binaire qui dirait voiture / pas voiture, mais une vigilance qui aide à dire quelle voiture nous devons concevoir pour qu’elle délivre ses vertus et limite ses nuisances. Comment concevoir une voiture qui ne tuera pas un million de gens par an dans le monde est la bonne question. On ne peut plus concevoir un avion, le faire décoller, et se dire qu’on découvrira la solution pour atterrir une fois au-dessus des nuages. C’est ce qui a été fait avec le nucléaire, l’atterrissage étant la gestion des déchets, et nous n’avons toujours pas atterri d’une solution.

    A l’époque de la voiture, du nucléaire, les civilisations nourrissaient une vision enchantée du progrès technique. Nous sommes désormais moins naïfs et souvent désenchantés. Une société technologiquement mature ne peut plus vivre dans la croyance du progrès (le progrès nous sauvera). La croyance, c’est pour les croyants (Dieu nous sauvera, dans la Cité terrestre, mais surtout Céleste), ce n’est pas le registre de la science, dont la promesse est justement de nous en sortir pour contrôler nous-même notre destinée, sans passer par la protection du ou des Dieux. Dans la science, on ne croit pas, on expérimente, on démontre, on administre la preuve. Pour les non-scientifiques, l’heure n’est plus à la croyance en la science, mais dans la confiance. Sans confiance en l’IA, elle n’ira pas loin. Cela passe par l’ouverture de délibération pour savoir ce qu’il convient de faire.
    Cela permettrait justement d’éviter d’être condamné à découvrir les nuisances une fois qu’elles sont advenues. Et contrairement à ce que pense l’auteur, c’est possible. Le raisonnement éthique, compte tenu des expériences technologiques du passé, est capable d’animer une discussion féconde pour soutenir l’effort de recherche. Cela ne limite pas la recherche, bien au contraire, cela ouvre des horizons très stimulants, comme la recherche sur l’anonymisation des données pour respecter la vie privée ou la recherche sur l’équité des algorithmes, dans le cas de l’algorithme de l’admission post-bac.
    J’anime actuellement des ateliers de délibération éthique pour les salariés et managers d’entreprises industrielles. Ces ateliers ne font pas disparaitre les oppositions, mais ils changent la nature de l’opposition, qui passe d’une peur irrationnelle déconnectée des capacités réelles de l’IA (les participants expriment des peurs vis-à-vis d’une forte qui n’existe pas) à une vigilance sur ce que l’IA faible devrait porter comme changement. Pour des chercheurs/développeurs en IA, la peur bloque toute coopération, tandis que la vigilance éclairée constitue un challenge technique qui consiste à comprendre son client et lui adresser une réponse adaptée. L’éthique n’est donc pas qu’une opportunité pour la science, mais aussi pour l’innovation dont elle reprend, finalement, les principes d’écoute.

    A bon écouteur…

    1. Merci pour votre commentaire très intéressant remettant en place l’importance de l’éthique, visiblement très souvent négligé et sous estimé dans notre société qui n’a d’yeux bien souvent que pour une machine économique dépourvue de sens humain.
      Etant qui plus est en médecine, je perçois toute l’importance que cela peut avoir dans mon domaine entre autre chose.
      Il devrait y avoir plus d’intervention comme la votre sur le devant de la scène pour remettre un peu en perspective les pensées naïves des gens sur le sujet.

      1. Merci! Je n’en suis pas spécialiste, mais l’éthique de la santé et de la profession médicale est passionnante.

      2. Encore une fois, tant que l’on ne connait pas à fond un sujet, difficile de se faire une idée mais facile de se faire manipuler. Merci d’avoir pu nuancer le pamphlet (très bien écrit) de Monsieur Silberzahn pour nous aider à nous faire la nôtre.

  3. J’ai bien lu ?  » C’est tout l’enjeu et à vouloir mettre l’IA d’entrée de jeu au service de la diversité, de l’égalité homme-femme, du bien commun et des services publics, c’est sacrifier aux modes du moment en se trompant de combat.  »
    Diversité, égalité homme-femme et bien commun seraient donc… des modes ! Dépitant !

    1. Merci Nicolas, tout à ma volonté de défendre l’éthique, je n’ai souligné ce passage politiquement très incorrect et qui tend à discréditer l’ensemble du propos.

  4. Plusieurs points me « gênent » dans ce qu’écrit Philippe Silberzahn.

    – « Quand on regarde l’histoire de l’innovation, le sens a toujours été donné a posteriori. »
    C’est très probable pour une partie des usages (encore qu’on doit bien trouver un contre exemple) mais on n’est pas ici au stade « innovation » : je m’y suis intéressé, de loin, mais quand même en regardant les langages de programmation (Lisp, je crois) il y a une trentaine d’années… Alors « innovation » aujourd’hui… Le prolégomènes est donc faux.
    Il y a d’ailleurs déjà plusieurs applications fonctionnant quotidiennement en médecine et chirurgie au moins. Avec succès.

    – « Il est très difficile, voire impossible, de penser ces ruptures avant qu’elles ne se produisent, et avant que les effets ne soient visibles ». Certes mais est-ce parce que qq chose est « très difficile » qu’il faut se l’interdire ? Là on est dans une escroquerie intellectuelle bien classique : essayer d’induire un glissement de sens inconscient : de « très difficile » vers « il ne faut pas » (ou il est impossible) le faire. Serait-il logique de dire « Il est très difficile, voire impossible, d’obtenir une abstention chez les fumeurs » pour sous entendre « il ne faut pas chercher à l’obtenir » ?

    – Étude de marché par McKinsey sur les téléphones mobiles. On a assisté à nombre « d’études de marché » aboutissant à des conclusions fausse. En général lorsqu’on fouille la méthodologie on trouve un gros loup. Ici, vu le succès précédent des « pageurs » (j’en ai eu un) il n’y avait pas besoin  d’une étude puisque la proximité pageur/téléphone mobile démontrait sans besoin d’aucune étude le succès évidemment certain du second. Et la phrase « Personne ne peut simplement imaginer ce qu’on ferait avec » laisse dubitatif : sans être très malin j’imagine assez bien qu’avec un téléphone on téléphonera ! Suis-je le seul ?
    J’aimerais bien lire l’enquête elle-même !

    En tout cas elle n’a pas empêché plein de fabricants de se lancer dans le téléphone portable !

    Mais le plus grave est qu’à partir d’une enquête probablement bâclée il suggère ou insinue qu’on ne peut jamais prévoir ce qu’on fera d’une invention. Il insinue car, bien sûr, il ne peut affirmer une telle absurdité. C’est l’exemple classique : puisque une Française est rousse toutes les Françaises sont rousses !

    – « les applications d’une nouvelle technologie sont impossibles à anticiper ». L’argumentaire (si on ose un tel qualificatif !) précédant tend à justifier (ou faire avaler) cette assertion ! Qui n’avait imaginé que l’invention de l’automobile (puisqu’il en parle) servirait à se déplacer, celle de l’avion à voler, celle du téléphone à communiquer ?
    Mais qu’une invention ait des utilisations inattendues, c’est un truisme. Cela interdit-il, comme une faute intellectuelle, de réfléchir à ces possibilités ?

    – « Toute technologie est duale, au sens où elle peut servir à faire le bien comme le mal ». La belle découverte ! On a constaté depuis l’antiquité que toute découverte est duale. Ce dut être écrit au siècle de Périclès, 400 ans avant JC. Depuis ce temps – et probablement même avant – chacun sait que l’innovation est, en soi, neutre par nature, c’est l’utilisation qu’on en fait qui est bénéfique ou néfaste. La pierre taillée débite la viande… ou tue les hommes ! Merci Monsieur pour ce truisme !

    – « En plaçant l’IA au service de l’éthique ». Il faut avoir mal écouté C. Villani pourtant très clair dans tous ses exposés (sauf math pures ou, là, je décroche !) à moins que ce soit moi qui n’aie rien compris : il y a un monde entre s’interroger sur l’éthique (ce qui est le cas de Villani) et « mettre au service ». Il n’y a même aucun rapport. Cette assertion vise à retourner dans l’esprit du lecteur la totalité du travail de C. Villani. Est-ce intellectuellement honnête ?

    Quant à l’automobile, si nous avions d’emblée réfléchi à ses dangers et aux moyens de les réduire (code de la route, permis délivré un peu plus sérieusement qu’il ne le fut pour mon grand-père, obligation de certaines structures de sécurité (pourquoi mit-on 60 ans pour créer la ceinture de sécurité ? N’aurait-il pas été bénéfique d’y réfléchir d’emblée ?), amélioration des portions de route traversant les villages…) la France eut été connue comme le berceau de toutes ces innovations nécessaires, et hélas tardives.
    Je vois mal en quoi avoir préalablement pensé les dangers et des moyens d’y remédier aurait été « demander à quelqu’un d’intelligent d’écrire un rapport idiot ».

    Mais Philippe Silberzahn n’aurait-il pas aimé que ce soit à lui qu’on demande ce rapport ?

    1. Merci Yves, la façon dont vous poursuivez l’exemple de la voiture, en particulier, est tout à fait éclairant. La causalité que vous contestez entre difficile = impossible et donc il ne faut pas est très finement déconstruite.

  5. Cet article est d’une malhonnêteté intellectuelle tout simplement hallucinante et trouvera peut être son audience au sein de sa propre « filter bubble »….. Au delà du ton profondément péremptoire , l analyse , les exemples et contre exemples , sont orientés , non factuels et fallacieux . Joli Sophisme en tout cas … et pourtant il y a tellement à dire sur ce rapport …

  6. Quelle utilité de faire remonter ce post polémique, largement « démonté » ci dessus et surtout sur les réseaux sociaux?

  7. C’est bien tout ça, mais le jour où les rédacteurs apprendront à ne plus faire de fautes d’orthographe, ça sera encore mieux. Merci.

  8. Que le rapport Villani es accouché d' »une sourie on est d’accord c’est plus de la comm nongovernmentale surtout. Mais que l’on oppose efficacité de l’innovation économique vs l’éthique cela n’a pas de sens. On peut pour éviter les erreurs du passé penser aux deux simultanément et ensuite prendre des décisions en connaissance de causes. C’est un peu l’opposiation en capitalisme libéral et humanisme social. Mais peut t’on relativiser cela quand on est prof à l’EM Lyon spécialiste de l’innovation c’est une autre histoire. L’article est un des courrants de pensée du moment, intéressant. .

  9. Merci pour votre article très instructif intéressant. Il y a peut être une maladresse dans la façon de nommer l’Inde et la Chine. « Aujourd’hui, l’échographie est devenue banale et peu chère, à tel point qu’elle est utilisée dans les pays pauvres, en particulier en Chine et en Inde. ».. On pourrait évoquer des pays « en voie de développement », mais les considérer comme « pays pauvre » au même titre que le Darfour ou le Soudan c’est peut être fort, non ?
    l’Inde est passée devant la France en terme de PIB. Ne pas confondre « pays où il y a des pauvres » (au vu de la population de la Chine et l’Inde, 1 milliard d’habitants par pays, le nombre de pauvres dans ces pays peut donner le tournis effectivement..) et pays « pauvre » au sens économique.

Bouton retour en haut de la page
Share This