Logo numerev
Cahiers de Psychologie Politique

DOSSIER : QUANTIFICATION ET QUANTITE

Cette contribution visera à mettre en évidence l’influence de la dimension épistémologique (qu’est-ce qu’une bonne procédure d’investigation ? Quels en sont les critères de rationalité ? Etc.) sur les enjeux socio-politiques et éthiques associés à la mise en œuvre de techniques de quantification automatique par le big data et l’intelligence artificielle (l’apprentissage automatique) pour l’aide à l’investigation scientifique et à la prise de décision. Je m’appuierai sur l’étude du cas de la médecine personnalisée qui combine séquençage moléculaire à haut débit et techniques IA de traitement de grands ensembles de données pour aborder l’état médical des patients par une quantification moléculaire individualisée. Je montrerai les implications éthiques d’une compréhension de la notion d’investigation rationnelle basée sur la prescription de neutralité (afin d’atteindre une conception absolument objective du problème étudié). Je proposerai ensuite une approche alternative à partir des travaux d’inspiration pragmatiste du philosophe américain Hilary Putnam.

DOSSIER : QUANTIFICATION ET QUANTITE

Mathieu Guillermin est docteur en physique, docteur en philosophie, spécialiste en épistémologie  et en éthique des sciences et technologies, maître de conférences à l'université catholique de Lyon

SOMMAIRE

1. Introduction

2. IA et rationalité humaine : compétition ou complémentarité ?

3. Un arrière-plan répandu mais problématique

4. Une tentative d’alternative

5. Conclusion

1. Introduction

Les techniques d’intelligence artificielle (IA), en particulier l’apprentissage automatique qui permet de développer des algorithmes puissants d’analyse de données, sont de plus en plus mobilisées dans le domaine de la recherche biomédicale et de la santé (Heudel, Durand et Blay 2017). Les succès impressionnants se font de plus en plus nombreux, comme par exemple l’analyse automatique d’images médicales pour la détection de cancers de la peau dont les performances atteignent le niveau d’expertise des dermatologistes (Esteva et al. 2017).

Dans ce domaine biomédical, les progrès de l’analyse et du traitement de données assistés par IA rejoignent ceux du séquençage à haut débit de différents profils moléculaires des individus (techniques dite « omics »). On est aujourd’hui en capacité de caractériser, en un temps raisonnable, le génome d’une personne ainsi que la manière dont il s’exprime, les différentes molécules impliquées dans les réactions métaboliques du corps de cette personne ou encore le contenu génomique de sa flore intestinale. Cette conjonction entre la puissance des systèmes artificiels pour traiter de grandes quantités de données et les possibilités de profilage d’un individu au niveau moléculaire débouche sur ce qu’on nomme la « médecine personnalisée » (Jain 2015). Bien que le terme soit problématique et recouvre de nombreuses techniques biomédicales différentes (Darrason et Giroux 2017), un élément est central : une quantification moléculaire d’une extension sans précédent qui permet de prendre en compte la singularité biomédicale des personnes à travers leurs profils moléculaires individualisés. Ce profilage individualisé génère de grands ensembles de données (qui sont complétés par d’autres informations concernant l’état médical des individus comme les données cliniques plus traditionnelles). Les technologies IA permettent alors d’exploiter ces grands ensembles de données pour identifier différents types de marqueurs moléculaires extrêmement intéressants du point de vue de la recherche biomédicale et de la santé (Guchet 2014, p. 38). Il devient alors possible de caractériser l’état d’un patient (marqueur diagnostique et pronostique), mais aussi d’anticiper la manière dont il réagira à tel ou tel médicament (marqueur pharmacogénétique), voire même d’identifier des traitements visant à agir sur les signatures moléculaires (marqueurs « actionnables »).

La médecine personnalisée, avec ces nouveaux outils de quantification qui atteignent la singularité biologique ou moléculaire des individus, est donc extrêmement prometteuse. Développer et déployer au mieux ces nouvelles technologies est donc un enjeu majeur pour nos sociétés et nos systèmes de santé, mais s’avère pourtant hautement non trivial (Baty et al. 2014 ; Mittelstadt et Floridi 2016 ; Giroux 2017). La tâche, déjà complexe en soi, est rendue encore plus ardue par l’ambiance générale de confusion et de fantasmagorie qui habite nos sociétés à propos des possibilités et de l’état d’avancement des technologies d’IA et d’apprentissage automatique. Dans le domaine de l’aide à la décision et de l’investigation scientifique assistée par IA (dont participent les techniques de médecine personnalisée), cette tendance prend notamment le visage particulier d’un enthousiasme aveugle ou non-critique. S’il est vrai que les possibilités de traitement automatique de grands ensembles de données ouvrent des perspectives extrêmement prometteuses pour enrichir, notamment, la pratique de l’investigation scientifique (‘e-science’ ou ‘data-intensive science’ ; voir par exemple : Kurbanoğlu et al. 2012), certains commentateurs y voient la perspective d’une mise au rebus de la méthode scientifique, rendue obsolète « par le déluge de données » (Anderson 2008).

Ce type de positionnement sur le statut de l’IA ne va pas sans générer de sérieux problèmes éthiques, tels que ceux que nous avons discutés dans une publication récente (Guillermin et Magnin 2017). Je voudrais ici focaliser l’attention sur un aspect complémentaire de cette problématique : le rôle de la manière dont nous comprenons ce que doit être une investigation rationnelle (scientifique), c’est-à-dire les méthodes rationnelles qu’une investigation doit mobiliser et le statut des résultats que ces méthodes produisent – je parlerai dorénavant d’arrière-plan épistémique pour désigner cette compréhension de l’investigation rationnelle (scientifique). Plus précisément, je souhaiterais explorer la thèse selon laquelle l’arrière-plan épistémique à partir duquel le statut des outils d’IA (d’aide à la décision et à la recherche scientifique) est considéré peut, en fonction de sa nature et de son contenu, encourager ou bien au contraire aider à résister à un enthousiasme aveugle et éthiquement problématique.

Pour mettre en évidence le rôle de ces arrière-plans épistémiques, je commencerai par redonner les grandes lignes de notre diagnostic sur le problème (éthique) que pose une surestimation des pouvoirs de l’IA dans le domaine de l’investigation rationnelle (scientifique) et de l’aide à la décision (en particulier en lien avec les techniques de médecine personnalisée). Je suggérerai ensuite que la compréhension de la rationalité comme intimement liée à la neutralité (qui semble être un trait extrêmement répandu culturellement et aussi peut-être philosophiquement) participe d’un arrière-plan épistémique qui constitue un terreau problématique. Je proposerai enfin, à partir des travaux du philosophe américain Hilary Putnam, l’ébauche d’un arrière-plan épistémique alternatif qui me semble plus adapté pour répondre aux défis posés par les technologies IA d’assistance à l’investigation rationnelle et à la prise de décision.

2. IA et rationalité humaine : compétition ou complémentarité ?

Comme détaillé dans notre précédent article (Guillermin et Magnin 2017), on peut tracer un lien entre la surestimation des pouvoirs épistémiques des techniques d’IA et l’idée que ces techniques permettraient de travailler seulement à partir des données brutes, sans avoir besoin de faire appel à l’intelligence humaine, avec son irréductible charge d’interprétation et de subjectivité. On atteindrait donc, via l’IA, un inductivisme purifié auquel les procédures humaines de réflexion et d’investigation ne sauraient prétendre. Cette primauté accordée à l’exploitation des seules données rejoint ce que Kate Crawford (2013a, 2013b) nomme « data fundamentalism ». Avec le big data et l’apprentissage automatique, on se libèrerait donc de tout élément subjectif, de tout choix, de tout engagement normatif. Même la démarche scientifique ne peut se prévaloir d’une telle pureté inductive. L’élaboration des théories, par exemple, nécessite de poser des hypothèses. Ainsi, la pure exploitation des données brutes par IA devrait être considérée comme une forme de rationalité supérieure, par comparaison avec la rationalité humaine, irrémédiablement minée par des éléments subjectifs et interprétatifs. Dans cette approche, l’humain et l’IA sont en compétition sur le terrain de la rationalité. Et l’IA remporte la victoire. Sur cette toile de fond, certains problèmes éthiques soulevés par la médecine personnalisée (avec la quantification extrême permise par le big data et l’apprentissage automatique) se trouvent renforcés.

Un premier risque que l’on peut mentionner est une mise en avant excessive des aspects traités dans les bases de données biomédicales (c’est-à-dire principalement des profils moléculaires), au détriment d’autres aspects moins quantifiables. Cette mise en avant excessive peut basculer dans une forme de réductionnisme qui nierait la légitimité même des discours portant sur les autres aspects. Déjà encouragé par la fascination pour la quantification au niveau atomique ou moléculaire, ce type de réductionnisme gagne encore plus en crédibilité lorsque cette quantification est assurée par une IA dont on surestime les pouvoirs. Si l’IA déploie une forme de rationalité supérieure à celle de l’homme, on ne peut contrebalancer les résultats qu’elle produit par d’autres approches développées par les humains. Si l’IA atteint un pur inductivisme à partir de données brutes, on peut être tenté de considérer que ces résultats sont absolus, que rien d’autre ne mérite d’être dit sur l’état médical d’un patient. De même, une confiance excessive dans les techniques IA pourrait conduire à considérer de plus en plus sérieusement la possibilité d’automatiser la recherche biomédicale et la médecine, c’est-à-dire la possibilité de se dispenser des institutions humaines associées (comme celles de la médecine), avec tous les problèmes que cela peut engendrer (Guchet 2014, p. 48). Un dernier exemple (qui est bien loin d’épuiser la question) des conséquences possibles d’une surestimation des pouvoirs de l’IA : on pourrait aussi voir émerger une forme d’autoritarisme technocratique qui considérerait que, puisque les résultats produits par IA relèvent d’une forme de rationalité supérieure, on se doit de les faire appliquer, si besoin de manière coercitive, même contre la volonté des patients (contrôle de l’adhérence aux traitements, déremboursements des médicaments, …).

Fort heureusement, cette vision de l’IA comme capable de pure inductivisme à partir de données brutes, et donc la supériorité sur l’intelligence humaine qui en découlerait, ne sont pas fondées. Bien loin de l’idée de « faire pousser » des intelligences artificielles qui grandiraient progressivement comme le font les enfants, l’apprentissage automatique (à la base des progrès récents dans le domaine de l’IA) s’assimile plutôt à du paramétrage automatique d’architecture algorithmique. Il permet par exemple de paramétrer de manière automatique des relations mathématiques qui structureront des ensembles de données en classes plus ou moins intéressantes. Dans le cadre de la médecine personnalisée, ce type de procédure de classification automatique est par exemple à même de réaliser des stratifications automatiques de patients afin d’identifier des marqueurs moléculaires prometteurs d’un point de vue biomédical. Ces techniques informatiques sont particulièrement prometteuses, mais ne peuvent être conçues comme opérant seulement à partir de données brutes, sans adjonction d’hypothèses et d’engagements normatifs.

Déjà, les données ne sont jamais brutes (Boyd et Crawford 2012, p. 662). La préparation des grandes bases de données qui serviront à l’apprentissage automatique est un travail gigantesque (occupant souvent la plus grande partie des projets de big data et d’apprentissage automatique) et hautement non trivial (comment obtenir des données représentatives ? Sous quel format ? Que faire des entrées problématiques ? …). En outre, le choix de l’architecture algorithmique à paramétrer est laissé à l’appréciation du programmeur (classificateurs linéaires, réseaux de neurones artificiels, arbres de décision ? Avec combien de paramètres libres ? Comment lutter contre la malédiction de la dimensionalité ? …). Il faut de plus écrire les programmes heuristiques qui vont tenter de trouver les paramètres optimaux pour les architectures algorithmiques. Ce rapide survol non exhaustif des tâches sous-tendant les techniques d’apprentissage automatique montrent bien que l’intelligence humaine (avec son lot d’éléments faillibles) est indispensable à tous les niveaux. Les programmes issus de l’apprentissage automatique ne peuvent pas être dissociés de, puis opposés à, l’intelligence humaine. Il est donc erroné de penser la relation entre programmes IA et intelligence humaine selon le registre de la compétition. Les techniques d’IA peuvent être plus performantes que l’intelligence humaine dans certaines tâches précises (notamment appliquer des ensembles d’opérations algorithmiques simples à de grandes quantités de données). Mais il ne fait pas grand sens de s’imaginer l’IA comme porteuse d’une forme de rationalité supérieure. Au contraire, ce bref exposé montre clairement que les algorithmes issus de l’apprentissage automatique sont des prolongements de l’intelligence humaine, des outils que l’homme se donne à lui-même et qui peuvent être plus ou moins bien construits.

A partir de ces quelques rappels, on voit bien que l’idée d’une possible automatisation de la recherche biomédicale est une pure chimère. L’investigation assistée par IA de grands ensembles de données ne peut se passer d’autres procédures plus traditionnelles de recherche, afin de préparer le terrain et de valider les résultats. Même ainsi, les résultats ne sont pas infaillibles par principe. On est par contre éventuellement en droit, si la recherche a été de bonne qualité, de leur accorder un bon niveau de confiance. En admettant que cela soit le cas, l’utilisation de ces résultats pour la médecine et le soin de santé n’en devient pas pour autant triviale. En effet, les résultats de classification automatique dont nous parlions ci-dessus pour la médecine personnalisée ne produisent une prise compte de la singularité des patients qu’à travers une quantification statistique. Cette tension, quasi paradoxale, rend délicate la mobilisation des informations produites par ces techniques (Guchet 2014, p. 47). Que signifie, pour le non-initié, une information lui indiquant qu’il peut réduire de 5 % son facteur de risque de développer un cancer en suivant telle ou telle prescription ? Seul un professionnel de santé peut donner sens à ce type d’information. En outre, lorsqu’on abandonne l’idée d’une supériorité de principe de l’IA sur la rationalité humaine, il n’y a plus de raison de penser que les résultats fournis par son biais épuisent ce qu’il peut y avoir à dire sur l’état médical d’un patient. Il n’est même pas du tout évident que ces résultats doivent être prioritaires. Dans le cadre de la médecine personnalisée, un simple écart du profil moléculaire d’un patient aux valeurs de référence (mises en évidence par classification automatique et associées à des personnes saines) n’indique pas nécessairement qu’un patient est malade. Les autres indications cliniques doivent être prises en compte, de même que le ressenti subjectif des patients. Une grande partie de l’expertise médicale se situe très probablement dans la capacité des professionnels de santé à articuler ses différentes dimensions (et d’autres).

A partir de cette compréhension des résultats fournis par les outils IA de la médecine personnalisée, il devient naturel de prendre ses distances avec tout réductionnisme de principe. De même, les perspectives d’automatisation de la médecine sont illusoires, comme le sont celles portant sur la recherche biomédicale. Les professionnels de santé demeurent des acteurs absolument indispensables. Pour les mêmes raisons, on prendra ses distances avec l’idée d’un autoritarisme technocratique. Les résultats produits par les algorithmes IA ne peuvent pas, à eux seuls, dicter l’attitude qu’un patient devrait adopter. Le partenariat thérapeutique entre des personnes, un patient et son médecin, est central dans le processus de soin (afin, notamment, de faire droit aux différentes dimensions pertinentes, dans la coopération et la confiance mutuelle).

En somme, on se trouve face à deux grands modes pour la compréhension des techniques d’IA mises en jeu pour la médecine personnalisée. Le mode choisi par les différents acteurs des politiques de santé est lourd de conséquences éthiques. On l’a vu, comprendre l’IA comme une forme de rationalité supérieure, en opposition ou compétition avec la rationalité humaine, n’est pas seulement illusoire, mais conduit aussi à (ou alimente) de sérieuses problématiques éthiques pour la recherche biomédicale et la médecine personnalisée. A contrario, un regard plus lucide sur ces technologies nous permet de saisir la recherche biomédicale assistée par IA et la médecine personnalisée qui en découle pour ce qu’elles sont : des outils faillibles que l’homme se donne à lui-même pour augmenter ou prolonger ses capacités d’investigation et d’action. Ce regard nous conduit aussi à mieux prévenir les problèmes éthiques mentionnés précédemment en permettant d’insister sur le besoin d’articulation entre différentes formes de rationalité (et entre les discours qu’elles produisent) afin de prendre adéquatement en compte les divers aspects pertinents des individus et de leur état médical. Par exemple, parvenir à élaborer des bases de données fiables demande de croiser de nombreuses expertises et résultats associés (expertises médicale, psychologique, sociologique, anthropologique…). De même, le médecin et le patient s’efforcent, au sein du partenariat thérapeutique de combiner différentes logiques et différents aspects (informations moléculaires provenant des techniques IA de médecine personnalisée, expertise du médecin, connaissance qu’il a de son patient, expérience subjective et ressenti de ce patient, …).

Etant donnés les enjeux éthiques associés au mode de compréhension des techniques IA (compétition ou complémentarité entre techniques IA et rationalité humaine), il devient particulièrement intéressant d’étudier l’influence éventuelle des arrière-plans épistémiques. Peuvent-ils favoriser (ou bien entraver) l’adoption d’un mode de compréhension particulier ?

3. Un arrière-plan répandu mais problématique

Quelles sont les caractéristiques d’une bonne investigation rationnelle ou scientifique ? Quel statut doit-on accorder aux résultats d’une telle investigation ? En ces matières, il existe différentes écoles de pensée. Néanmoins, une tendance me semble (culturellement si ce n’est philosophiquement) dominante. Selon cette tendance, dont certaines racines sont à aller chercher chez Descartes et son projet de l’enquête pure (Williams 2005, p. 18–56), un processus d’investigation rationnelle (comme la science) ne doit s’appuyer que sur des éléments absolument certains (au-delà de tout doute concevable). Le but de ce processus rationnel est alors de construire une conception absolue de la réalité telle qu’elle est en elle-même, indépendamment des spécificités (contextes, perspectives ou points de vue, par exemple) des différents investigateurs. Cette tendance se reflète dans la conception la plus répandue de la science et de sa méthode, conception reçue que l’on peut nommer « conception objectiviste de la science » (Baghramian 2014, 268). Selon cette conception reçue, il existe une unique méthode scientifique valide dont le résultat est (au moins en droit) une unique description correcte du monde, une description universelle, valable en tout lieu et tout temps, neutre du point de vue des valeurs.

A partir d’un tel arrière-plan épistémique (que l’on peut nommer ‘arrière-plan de l’enquête pure’), deux méthodes différentes d’investigation rationnelle ou scientifique ne peuvent pas coexister pacifiquement. On se trouve directement sur le terrain de la compétition. Appliqué à notre problématique de la médecine personnalisée, cela signifie qu’on ne peut tolérer la coexistence de plusieurs méthodes pour aborder l’état médical d’un patient (encore moins si elles ne débouchent pas sur les mêmes conclusions, mais nous y reviendrons). Si plusieurs méthodes d’investigation existent, elles sont en compétition. Il serait préférable, pour satisfaire les canons de rationalité définis par l’arrière-plan de l’enquête pure, qu’une seule méthode soit privilégiée (l’une des méthodes en compétition ou une nouvelle qui pourrait les remplacer).

Toujours selon cet arrière-plan de l’enquête pure, la rationalité d’une méthode d’investigation est associée à sa neutralité. Tout élément qui pourrait être (ou avoir été) différent, et qui donc demanderait à être arbitré (on parlera donc d’éléments contingents ou arbitraires), amoindrit ou affaiblit la rationalité de la méthode dont il participe. Ainsi, si plusieurs méthodes sont en compétition, la plus neutre sera considérée comme supérieure. Dans cette perspective, il pourrait devenir tentant de revendiquer le titre d’unique méthode rationnelle pour l’investigation « data-driven » opérée par IA, au prétexte qu’elle ne mobiliserait pas d’éléments arbitraires, pas d’hypothèses par exemple, mais s’appuierait exclusivement sur les données1. L’IA et la science data-driven prendraient donc le pas sur toute forme de rationalité humaine. Même la plus haute expression de la rationalité humaine qu’est la démarche scientifique (avec sa méthode scientifique empirico-déductive) ne peut revendiquer autant de neutralité2. Les méthodes dites « data-driven » assistées par IA seraient donc vues comme supérieures aux diverses formes de rationalité humaine.

A la lumière de cette analyse, il semble bien que l’arrière-plan de l’enquête pure risque d’encourager l’enthousiasme aveugle à propos des techniques d’aide à la décision et de recherche assistées par IA, en particulier dans le domaine biomédical avec les techniques de la médecine personnalisée, qui poussent la quantification de l’état médical du patient à un niveau impressionnant. Si la médecine personnalisée est présentée comme plus neutre que les méthodes médicales plus classiques, on devrait conclure à sa supériorité. On retrouve alors les problèmes éthiques mentionnés dans la section précédente. L’IA déploierait une forme de rationalité supérieure, que l’humain et sa rationalité plus limitée ne peuvent pas contester. Rien ne s’opposerait donc à l’idée de l’automatisation de la médecine et à une sorte d’autoritarisme technocratique (il serait légitime d’imposer les prescriptions établies par les techniques IA).

Et ce n’est pas tout. L’arrière-plan de l’enquête pure stipule aussi qu’il n’existe qu’une et une seule description correcte de la réalité, celle qui se dévoile progressivement au moyen de l’authentique et unique méthode d’investigation rationnelle. Tout autre discours sur le réel peut éventuellement être admis pour des raisons pragmatiques, mais s’efface de jure devant la conception absolue du monde élaborée en suivant LA méthode d’investigation rationnelle. On retrouve là l’idée de l’opposition entre l’image manifeste et l’image scientifique, et de la suprématie de la seconde sur la première (Sellars 1991, p. 1–40 ; van Fraassen 1999, p. 30). En conséquence, si on accorde à la science data-driven produite par IA le titre d’unique méthode rationnelle ou scientifique (puisque qu’étant supérieure aux méthodes humaines), les résultats auxquels elle conduit doivent être considérés comme participant de cette unique description correcte de la réalité (ou en tout cas, comme s’en approchant plus que les autres discours découlant de méthodes rationnelles inférieures).

Appliquée au cas de la médecine personnalisée, cette logique d’argumentation alimente la tentation du réductionnisme (problème éthique pointé dans la section précédente). Seule la quantification au moyen de leurs profils moléculaires, ainsi que les prédictions statistiques associées, relèveraient d’une conception absolue de l’état biomédical des patients, de ce qu’ils sont réellement, au niveau de la réalité fondamentale. Les autres aspects, comme les caractérisations cliniques ou l’expression par les patients de leur ressenti subjectif et du contenu de leur expérience vécue, ne pourraient être admis que pour des raisons pragmatiques, comme relevant de discours de qualité rationnelle plus faible que celle de la description en termes de profils moléculaires. A moins d’être réexprimés à partir des profils moléculaires, ils ne pourraient être pris en compte au titre d’éléments de la réalité fondamentale.

En résumé, l’arrière-plan épistémique de l’enquête pure, et la compréhension de la rationalité en termes de neutralité qu’il véhicule, sont susceptibles d’alimenter le mouvement de surestimation non-critique des pouvoirs du big data et de l’IA pour la production de connaissance et la prise de décision, en particulier dans le domaine biomédical. En sus de cet éventuel rôle de catalyseur, cet arrière-plan est surtout extrêmement limitant pour tout effort visant à mieux articuler les techniques IA avec les autres outils d’investigation rationnelle dont dispose l’humain. En effet, il est fondamentalement en inadéquation avec l’idée d’un pluralisme des méthodes d’investigation et des discours qu’elles conduisent à élaborer. La question de la possibilité d’un arrière-plan alternatif devient donc non seulement intéressante, mais peut-être même nécessaire du point de vue éthique.

4. Une tentative d’alternative

Sur la base de réflexions historiques et philosophiques, les travaux de penseurs post-positivistes comme Kuhn ou Feyerabend défendent la possibilité du pluralisme des méthodes d’investigation rationnelle et des discours en découlant (Kuhn 1996 ; Feyerabend 1993). Néanmoins, ces travaux ont été extrêmement controversés et ont inspiré des courants radicalement relativistes ou antiréalistes encore plus controversés. Pourtant, ils semblent ouvrir un chemin intéressant, bien que peut-être pas encore tout à fait carrossable, pour mieux comprendre la fragmentation des sciences en disciplines et la nature des frontières disciplinaires (Wray 2011). Cette piste pourrait déjà nous interpeller sur le seul plan philosophique. Mais se rajoute ici une motivation éthique, celle de se doter d’un arrière-plan épistémique adéquat pour tirer le meilleur de la puissance des outils de quantification assistée par big data et IA en facilitant leur articulation avec d’autres formes d’expertise et de rationalité. Il nous faudrait donc construire un arrière-plan épistémique qui permette de faire droit à certaines idées des penseurs post-positivistes (incommensurabilité, pluralisme, sensibilité au contexte,…) sans ouvrir la porte à des formes de pensée qui rejetteraient les notions de vérité et de réalité ou qui nieraient la possibilité de la rationalité. Le long parcours philosophique de Putnam (que l’on peut comprendre, notamment, comme un effort pour rassembler pragmatisme et réalisme) pourrait bien constituer un terreau favorable pour élaborer un tel arrière-plan, alternatif à celui de l’enquête pure.

Mon but dans cette section ne sera pas un exposé détaillé de cet arrière-plan alternatif et de la manière dont nous pourrions le construire. Plus modestement, il s’agira de tracer les grandes lignes de l’approche qu’il serait possible de construire à partir des travaux Putnam3. Commençons par identifier plus clairement l’objectif. Elaborer un arrière-plan alternatif adéquat demanderait de sortir de la logique de l’enquête pure sans aller trop loin. Il nous faudrait ouvrir la possibilité du pluralisme tout en préservant l’idée que l’on peut construire des discours rationnels sur le monde ou la réalité, sur une personne ou un patient, des discours qui puissent être (plus ou moins) vrais ou faux, et qui nous informent (lorsqu’ils ne sont pas trop faux) sur ce qu’est le réel. Deux obstacles principaux s’opposent à cet objectif : penser la rationalité sans la neutralité d’une part, et, d’autre part, faire droit au réalisme (scientifique) sans admettre l’idée d’une conception absolue du monde.

Commençons avec le problème de la rationalité sans la neutralité. Nous l’avons vu, concevoir la rationalité comme neutralité verrouille la possibilité du pluralisme. Faire une place au pluralisme signifierait qu’il peut (au moins parfois) être légitime d’adopter différentes méthodes en fonction des contextes et problèmes. Il y aurait alors au sein des procédures d’investigation, des éléments contingents et arbitraires. Selon l’approche de la rationalité comme neutralité, l’admission de tels éléments ferait s’effondrer la rationalité de la procédure d’investigation concernée. Ces éléments n’étant pas neutres, ils demanderaient à être arbitrés ou évalués. Bien que ce constat sur la non-neutralité introduite par le pluralisme soit tout à fait juste, la conclusion d’un effondrement consécutif de la rationalité n’est pas inévitable. La non-neutralité engendre l’effondrement de la rationalité seulement pour qui nie la possibilité de la rationalité à propos des questions évaluatives.

La possibilité de la rationalité évaluative est précisément un thème que Putnam travaille en profondeur (Putnam 1982, 2002, 2004). Il associe la tendance à rejeter les questions évaluatives hors du champ de la rationalité à la thèse, émise par Hume, de l’existence d’une dichotomie radicale entre les faits et les valeurs. Seuls les faits seraient observables et donc susceptibles d’une investigation rationnelle et objective (d’une investigation neutre car seulement fondée sur les faits observables et la logique ou les mathématiques). Putnam élabore néanmoins différents arguments contre la dichotomie faits – valeurs. Pour lui, la dichotomie faits – valeurs ne tient pas. Nous ne devrions pas nous interdire, par principe, la possibilité de la rationalité évaluative. En outre, Putnam soulève un autre point important : le rôle des évidences ou reconnaissances dans toute investigation rationnelle (Putnam 2012b, 2012a). En science comme dans tout autre domaine d’investigation, les éléments mobilisés ne sont pas tous prouvés au-delà de tout doute concevable. Et ce constant ne conduit pas nécessairement à un scepticisme radical et généralisé, ou au relativisme. Pour Putnam, la signification de ce constat, c’est bien plutôt l’impossibilité de la certitude absolue dans nos investigations rationnelles. L’indispensabilité des évidences ou des reconnaissances que l’on doit admettre sans certitude absolue conduit plus au faillibilisme qu’au scepticisme ou au relativisme.

Ainsi, admettre le pluralisme au niveau des méthodes d’investigation ne conduit pas nécessairement à un effondrement de la rationalité. Certes, cette admission revient à reconnaitre la présence d’éléments contingents ou arbitraires. Mais cela ne veut pas dire que tous les éléments contingents possibles se valent. On peut tenter d’évaluer ce type d’engagement ou de choix de manière rationnelle. En outre, la présence d’éléments non prouvés au sein d’une procédure d’investigation est inévitable. Mais toutes les composantes d’une investigation rationnelle n’ont pas besoin d’être prouvées. De nombreuses évidences ou reconnaissances peuvent être tout à fait bienvenues, tant qu’on garde à l’esprit que l’erreur n’est jamais exclue. Putnam nous permet donc d’envisager la possibilité d’un arrière-plan épistémique d’inspiration pragmatiste qui fasse droit à la possibilité du pluralisme à propos des méthodes d’investigation rationnelles sans basculer dans le relativisme et l’affirmation que toutes les méthodes d’investigation se valent4. Il deviendrait ainsi possible, dans le cadre de la médecine personnalisée, de combiner les méthodes d’investigation des profils moléculaires assistés par IA avec les expertises médicales plus traditionnelles, et même avec la sagesse du sens commun, la rationalité du quotidien que tout un chacun déploie dans sa vie.

Reste donc à traiter la question du pluralisme concernant les discours élaborés en suivant différentes méthodes d’investigation rationnelle, dont nous pouvons maintenant envisager la coexistence. Est-il possible de considérer que différents discours divergents sur une même chose puissent tous porter sur le réel au sens fort ? Autrement dit, peut-on rejeter l’idée d’une unique conception absolue du réel – pour faire droit à des discours s’intéressant à une pluralité d’aspects (a priori non hiérarchisés) d’une même chose – sans abandonner l’idée que ces discours peuvent tous parler du réel au sens fort, c’est-à-dire sans abandonner le réalisme (scientifique) ? Face à ce défi, les travaux philosophiques de Putnam peuvent aussi nous aider. Son parcours sur la question du réalisme est passionnant et je ne pourrais malheureusement ici en offrir qu’un bref survol.

Ce parcours commence avec ce que Putnam nommera lui-même plus tard le réalisme métaphysique et qui intègre l’idée d’une conception absolue du monde. Dans ce cadre du réalisme métaphysique, Putnam étudie d’abord la question de la référence, c’est-à-dire des rapports entre langage et entités du réel (meaning of meaning), avec la volonté de montrer qu’il est impossible de comprendre le fonctionnement du langage en se restreignant exclusivement à ce qui se passe dans nos états mentaux ou psychologiques (Putnam 1996). Le réel lui-même, ce que sont réellement les choses dont nous parlons, ainsi que nos relations cognitives à ces choses sont fondamentalement impliquées dans le processus de référence. Putnam ouvre là, sans peut-être s’en rendre compte initialement, une boite de Pandore qui le conduira à rejeter la conception du réalisme métaphysique car elle ne permet pas d’expliquer de manière satisfaisante le processus de référence (Putnam 1982, 1983). Putnam n’acceptera pas pour autant d’abandonner l’idée d’un réel au sens fort, d’un réel indépendant. Il essaiera tout d’abord de reconstruire la notion en se basant seulement sur ce qui se dévoile dans l’expérience des personnes réelles (des personnes actuelles). De l’aveu même de Putnam, la conception du réalisme interne qui en découle ne parviendra pas à préserver un réalisme fort (notamment scientifique) et sera donc un échec.

Putnam réalise alors que le problème du réalisme est fondamentalement mal posé et change de stratégie (Putnam 1999). Il commence par caractériser la manière dont ce problème est formulé pour identifier les points de blocage. Il se rend compte que les débats sont prisonniers une antinomie (« l’antinomie du réalisme »), piégés dans une oscillation entre un réalisme métaphysique sémantiquement incohérent et une retraite au seul domaine des phénomènes expérimentés par les personnes actuelles, au prix de l’abandon du réalisme (scientifique). Putnam met alors en évidence un élément qui lui semble à la source de l’antinomie du réalisme : l’approche interfaciale de la perception (et de la conception). Selon cette approche extrêmement répandue (souvent de manière implicite), le contenu de l’expérience vécue des personnes actuelles n’est pas le réel au sens fort, mais une représentation ou une reconstruction de ce dernier sur la toile de fond de notre esprit ou de nos états mentaux (éventuellement portés uniquement pas notre cerveau). Une fois cette approche interfaciale admise, il devient impossible de penser un rapport entre le langage et le réel au sens fort, qui reste irrémédiablement caché derrière le voile de nos perceptions. Putnam propose alors de rejeter cette approche interfaciale de notre rapport (cognitif) au monde et jette les bases d’un réalisme direct ou pragmatiste (Putnam 1999, 2012a). Selon cette forme de réalisme, les personnes actuelles rencontrent directement le réel au sens fort dans leur expérience vécue. Il devient alors plus aisé de comprendre la relation entre langage et réel.

En outre, puisque c’est le monde au sens fort que nous rencontrons dans nos expériences, nous pouvons commencer à accorder foi aux différentes expériences que nous faisons et à les considérer comme autant d’éventuelles expériences authentiques du réel au sens fort. Il n’est plus nécessaire de supposer l’existence d’un arrière-monde qui serait la source des expériences phénoménales des différentes personnes actuelles, un monde dont on devrait tenter d’avoir une unique conception absolue en adoptant le « point de vue de l’œil de Dieu ». Avec le réalisme pragmatique, nos différentes expériences sont à prendre pour argent comptant pour nous informer sur ce qu’est le réel (en gardant en tête que l’erreur est toujours possible et que nul n’est à l’abri d’une hallucination, mais sans généraliser le doute). On entrevoit donc la possibilité d’admettre différents discours divergents sur une même entité, sans pour autant abandonner l’idée que ces discours parlent d’aspects réels au sens fort qui ne sont pas nécessairement réductibles les uns aux autres (ou et encore moins réductibles à une seule conception absolue du réel)5. Dans le domaine de la médecine personnalisée, cette possibilité reviendrait à permettre de considérer qu’une personne est tout autant un ensemble de profils moléculaires, qu’un ensemble de paramètres cliniques, qu’une entité ayant un certain aspect physique ou qu’un être ayant certains états mentaux ou psychologiques. Aucun de ces aspects ne peut prétendre à une suprématie a priori. Une personne est tous ces aspects en même temps.

5. Conclusion

Les pistes ouvertes à partir du travail de Putnam laissent entrevoir la possibilité d’un arrière-plan épistémique d’inspiration pragmatiste qui soit plus à même de permettre une intégration fructueuse au sein de nos sociétés de la médecine personnalisée (des techniques IA de quantification au niveau moléculaire de l’état médical des individus).

En résumé, j’ai rappelé certains problèmes éthiques découlant d’une surestimation aveugle et non-critique des possibilités de quantification assistée par big data et IA dans ce domaine de la médecine personnalisée. Certes, ces techniques permettent de dresser des profils moléculaires qui saisissent une certaine forme de singularité des patients. Néanmoins, cette quantification moléculaire data-driven demande à être articulée avec d’autres dimensions, d’autres aspects quantifiables comme ceux abordés à travers la médecine plus traditionnelle (dite « evidenced-based »), mais aussi des éléments moins quantifiables (voire non quantifiables) comme l’expérience vécue du patient, son ressenti subjectif, ses émotions ou ses caractéristiques psychologiques.

J’ai alors proposé d’étudier le rôle des arrière-plans épistémiques qui structurent notre compréhension des notions d’investigation rationnelle et de rationalité. J’ai défendu l’idée que la surestimation aveugle des pouvoirs épistémiques des techniques IA est catalysée par l’arrière-plan épistémique de l’enquête pure. Selon cet arrière-plan (que je crois très répandu, bien que souvent implicitement), le summum de l’investigation rationnelle est l’emploi d’une unique méthode universelle et neutre pour élaborer la conception absolue du monde. J’ai tenté de montrer que cette approche favorise un climat de compétition entre l’IA et la rationalité humaine, compétition dont la rationalité humaine ne sort pas gagnante, et n’est donc pas propice au travail d’articulation dont nous semblons avoir besoin, au moins d’un point de vue éthique. J’ai alors mobilisé les travaux du philosophe Hilary Putnam afin de tracer les grandes lignes de ce que pourrait être un arrière-plan épistémique alternatif d’inspiration pragmatiste. A partir de cet arrière-plan alternatif, rien n’interdit par principe la coexistence de plusieurs formes d’investigation. Une telle coexistence n’amoindrit pas la rationalité de ces démarches dans la mesure où l’on distingue la notion de rationalité de celle de neutralité. Par contraste, la rationalité d’une démarche d’investigation se gagne de l’intérieur des pratiques d’enquêtes, à travers des efforts évaluatifs visant à déterminer la qualité des procédures d’investigations. Ainsi, la coexistence de différentes formes d’investigation rationnelle demande un effort évaluatif dans chaque registre : les algorithmes mobilisés pour dompter la quantification big data du séquençage moléculaire des individus sont-ils au point ? Les autres approches médicales sont-elles bien construites et conduites ? Etc. Ainsi, les différentes formes de quantification peuvent être reconnues comme tout à fait rationnelles et significatives pour la recherche biomédicale et la prise en charge des patients, sans avoir besoin de faire tout le travail à elles seules. L’arrière-plan épistémique d’inspiration pragmatiste ébauché ici nous enjoint à prendre l’habitude de penser que, a priori, plusieurs méthodes et discours devront être combinés. Cette habitude épistémologique paraît souhaitable pour aborder les problèmes complexes tels que ceux qui se dévoilent dans le domaine de la santé.

Pour conclure, il me semble que mon propos suggère quelques remarques d’ordre socio-politique (par exemple sur les politiques scientifiques et sur celles touchant au développement et à l’implémentation de nouvelles technologies dans la société). Selon l’arrière-plan alternatif ébauché ici, la qualité des procédures d’investigation et des résultats qui en découlent ne va pas de soi. Ce constat ne reflète pas seulement (et pas principalement) le fait que les procédures d’investigation sont conduites par des humains qui peuvent faire des erreurs. La maxime « l’erreur est humaine » est ici extrêmement piégeuse, laissant entendre que les problèmes viendraient d’une incapacité des humains à appliquer une procédure d’investigation qui, en elle-même, serait infaillible car neutre et universelle. Certes, l’humain peut se tromper dans l’application d’une bonne méthode. Mais, en premier lieu, il faut réaliser qu’aucune méthode d’investigation n’est universelle et infaillible. De ceci découle un premier enjeu socio-politique majeur : valoriser l’effort d’évaluation qui doit être fait de l’intérieur de toute procédure d’investigation, pour s’assurer de sa qualité et éventuellement gagner en rationalité.

Un deuxième enjeu est suggéré par le basculement vers un arrière-plan épistémique d’inspiration pragmatiste tel que celui ébauché ici : mieux reconnaitre les défis épistémologiques que posent des questions complexes comme celles de la santé ou de l’écologie par exemple (Popa et Guillermin 2015 ; Popa, Guillermin et Dedeurwaerdere 2015). Dans ce type de domaine complexe, plusieurs démarches d’investigation doivent travailler de concert et on ne pourra pas les considérer comme bien conduites par principe (car s’appuyant sur la méthode neutre et universelle), ni leur appliquer une grille d’évaluation unique. Au contraire, il faudra encourager des procédures d’évaluation dédiées, de l’intérieur de chacune de ces démarches, pour gagner en rationalité dans chaque registre. Néanmoins, il paraît clair qu’un travail d’évaluation morcelé, conduit par chaque groupe d’acteur dans son registre propre d’investigation ne va pas suffire. Une fois admis la possibilité du pluralisme, encore faut-il prendre au sérieux le travail d’articulation. Ce travail, si le pluralisme n’est pas que de façade, nécessite de faire droit à la complexité des problèmes abordés, de reconnaitre le caractère a priori légitime et significatif des ruptures et des divergences entre les différentes démarches d’investigation et leurs résultats. Il va donc aussi falloir se poser la question : comment bien articuler ? Cette indispensable réflexion (évaluative), que l’on pourrait qualifier avec Kuhn de travail ou dialogue interparadigme, constitue un challenge majeur pour affronter les problèmes sociétaux complexes tels que celui de la place de la médecine personnalisée et de ses puissants outils de quantification de l’état médical des personnes. Une partie de la réponse à apporter à ce challenge relève de nos politiques scientifiques, technologiques et d’innovation : il sera impératif de reconnaitre et valoriser ce travail interparadigme, et donc de lui attribuer de réels moyens humains et financiers, mais aussi institutionnels.

1  A minima, cette méthode serait la plus à même de réduire le nombre d’éléments arbitraires impliqués.

2  Bien que certains auteurs aillent plus loin (comme Kuhn ou Feyerabend par exemple), un consensus assez global existe sur l’idée que la réflexion scientifique mobilise des éléments arbitraires dans le contexte de découverte ou d’invention des théories (par opposition au contexte de justification de ces théories ; voir par exemple : Ladyman 2002, p. 74–77).

3  Je renvoie la lectrice ou le lecteur qui voudrait en savoir plus à mon travail de thèse « Incommensurability and rational inquiry : context-sensitivity and realism reconciled in light of Putnam’s pragmatist theory of knowledge » consultable à l’adresse suivante : https://dial.uclouvain.be/pr/boreal/object/boreal :174320.

4  Pour plus de détails sur cette question de la rationalité sans neutralité, voir aussi : Guillermin (2018) Non-neutralité sans relativisme ? Le rôle crucial de la rationalité évaluative, In : Piron, F. (ed.) “Et si la recherche scientifique ne pouvait pas être neutre ?”, Éditions science et bien commun, à paraître.

5  Putnam parle de pluralisme conceptuel ou pragmatique. Ce pluralisme s’accompagne d’une sémantique sensible au contexte. Pour plus de détails, voir mon travail de thèse déjà cité, ainsi que : Guillermin (2018) L’incommensurabilité, imperfection ou limite significative ?, Actes du colloque 319 « Jean Ladrière et la problématique des limites théoriques et pratiques : quels enseignements et quelles perspectives ? » (85ème Congrès de l'ACFAS), accepté, à paraître aux Presses Universitaires de Louvain.

Anderson, Chris (2008). The End of Theory: The Data Deluge Makes The Scientific Method Obsolete. En ligne : https://www.wired.com/2008/06/pb-theory/, consulté le 30 mai 2018.

Baghramian, Maria (2014). Relativism about science. In: Martin Curd et Stathis Psillos, coord.: The Routledge companion to philosophy of science. Second Edition. London, New York: Routledge Taylor & Francis Group (Routledge philosophy companions), p. 268.

Baty, Vincent; Mougin, Bruno; Dekeuwer, Catherine; Carret, Gérard (2014). Gut Health in the era of the human gut microbiota: from metaphor to biovalue. In: Medicine, health care, and philosophy, vol. 17, n° 4, p. 579–597. DOI: https://doi.org/10.1007/s11019-014-9552-2

Boyd, Danah; Crawford, Kate (2012). Critical questions for big data. In: Information, Communication & Society, vol. 15, n° 5, p. 662–679. DOI: https://doi.org/10.1080/1369118X.2012.678878

Crawford, Kate (2013a). Big Data becomes 2013's scariest fad. En ligne : http://www.abc.net.au/radionational/programs/futuretense/kate-crawford-big-data/4686244, consulté le 31 mai 2018.

Crawford, Kate (2013b). The Hidden Biases in Big Data. En ligne : https://hbr.org/2013/04/the-hidden-biases-in-big-data, consulté le 31 mai 2018.

Darrason, Marie ; Giroux, Élodie (2017). Editorial. Numéro spécial sur la médecine personnalisée. In : Lato Sensu : Revue de la Société de philosophie des sciences, vol. 4, n° 2.

Esteva, Andre; Kuprel, Brett; Novoa, Roberto A.; Ko, Justin; Swetter, Susan M.; Blau, Helen M.; Thrun, Sebastian (2017). Dermatologist-level classification of skin cancer with deep neural networks. In: Nature, vol. 542, n° 7639, p. 115–118. DOI: https://doi.org/10.1038/nature21056

Feyerabend, Paul (1993). Against method. 3rd ed. London, New York: Verso.

Giroux, Élodie (2017). Médecine de précision et Evidence-Based Medicine : quelle articulation ? In : Lato Sensu : Revue de la Société de philosophie des sciences, vol. 4, n° 2, p. 49–65. DOI : https://doi.org/10.20416/lsrsps.v4i2.683

Guchet, Xavier (2014). Le patient « actionnable » de la médecine personnalisée. In: Socio-anthropologie, n° 29, p. 37–51. DOI: https:/doi.org/10.4000/socio-anthropologie.1648

Guillermin, Mathieu; Magnin, Thierry (2017). Big Data for Biomedical Research and Personalised Medicine: an Epistemological and Ethical Cross-Analysis. In: Human and Social Studies, vol. 6, n° 3, p. 2015. DOI: https://doi.org/10.1515/hssr-2017-0022

Heudel, Pierre-Étienne ; Durand, Thierry ; Blay, Jean-Yves (2017). Projets d’intelligence artificielle à l’échelle d’un établissement de santé : l’exemple du centre Léon Bérard. In : Revue française des affaires sociales, n° 4, p. 133–140. En ligne : https://www.cairn.info/load_pdf.php ?ID_ARTICLE =RFAS_174_0133

Jain, Kewal K. (2015). Textbook of Personalized Medicine. New York, NY: Springer New York.

Kuhn, Thomas Samuel (1996). The Structure of scientific revolutions. 3rd edition. Chicago (Ill.), London: University of Chicago press.

Kurbanoğlu, Serap; Al, Umut; Erdoğan, Phyllis Lepon; Tonta, Yaşar; Uçak, Nazan (2012). E-Science and Information Management. Berlin, Heidelberg: Springer Berlin Heidelberg (317).

Ladyman, James (2002). Understanding philosophy of science. London, New York: Routledge.

Mittelstadt, Brent Daniel; Floridi, Luciano (2016). The Ethics of Biomedical Big Data. Cham: Springer International Publishing (29).

Popa, Florin; Guillermin, Mathieu (2015). Reflexive Methodological Pluralism. In: Journal of Mixed Methods Research, vol. 11, n° 1, p. 19–35. DOI: https://doi.org/10.1177/1558689815610250

Popa, Florin; Guillermin, Mathieu; Dedeurwaerdere, Tom (2015). A pragmatist approach to transdisciplinarity in sustainability research: From complex systems theory to reflexive science. In: Futures, vol. 65, p. 45–56. DOI: https://doi.org/10.1016/j.futures.2014.02.002

Putnam, Hilary (1982). Reason, truth and history. [Repr.]. Cambridge, London etc.: Cambridge University Press.

Putnam, Hilary (1983). Models and Reality. In: Hilary Putnam, coord.: Realism and Reason: Philosophical Papers, 3e tome. Cambridge, New York, Melbourne: Cambridge University Press, p. 1–25.

Putnam, Hilary (1996). The Meaning of "Meaning". In: Andrew Pessin et Sanford Goldberg, coord.: The Twin Earth Chronicles: Twenty Years of Reflection on Hilary Putnam's "The Meaning of 'Meaning'". London, UK: M.E. Sharpe (1), p. 3–52.

Putnam, Hilary (1999). The threefold cord mind, body, and world. New York: Columbia University press (The John Dewey essays in philosophy, 5).

Putnam, Hilary (2002). The collapse of the fact/value dichotomy. And other essays. Cambridge, London: Harvard University Press.

Putnam, Hilary (2004). Ethics without ontology. Cambridge (Mass.), London: Harvard University Press.

Putnam, Hilary (2012a). Philosophy as the Education of Grownups: Stanley Cavell and Skepticism. In: Mario de Caro et David Macarthur, coord.: Philosophy in an Age of Science: Physics, Mathematics, and Skepticism. London: Harvard University Press, p. 552–564.

Putnam, Hilary (2012b). Strawson and Skepticism. In: Mario de Caro et David Macarthur, coord.: Philosophy in an Age of Science: Physics, Mathematics, and Skepticism. London: Harvard University Press, p. 535–551.

Sellars, Wilfrid (1991). Science, perception and reality. Atascadero (Calif.): Ridgeview publishing company.

van Fraassen, Bas C. (1999). The Manifest Image and the Scientific Image. In: Diederik Aerts, Jan Broekaert et Ernest Mathijs, coord.: Einstein Meets Magritte: An Interdisciplinary Reflection. Dordrecht: Springer Netherlands, p. 29–52.

Williams, Bernard Arthur Owen (2005) Descartes. The project of pure enquiry. Avec la collaboration de John Graham Cottingham. London, New York: Routledge. En ligne : http://sid2nomade.grenet.fr/login?url=http://unr-ra.scholarvox.com/book/41000696

Wray, K. Brad (2011) Kuhn's evolutionary social epistemology. Cambridge, New York (N.Y.), Melbourne: Cambridge University Press.


Tweet