2019-06-13

La nouvelle science des données | Revue Esprit









SOURCE ARTICLE
La nouvelle science des données | Revue Esprit: MAI 2019

La nouvelle science des données


L’idéologie qui accompagne le big data, faisant passer l’exigence théorique au second plan, met en péril l’avancée des connaissances et sapent les fondements d’une éthique rationnelle.

Comme tout paradigme scientifique ou technique nouveau, ­l’exploitation des mégadonnées – ou « big data » – se prête à des dérives idéologiques qui, si l’on n’y prenait garde, pourraient compromettre l’apport indiscutable de cette démarche à la connaissance et à l’action. C’est ainsi que la convergence des nanotechnologies, des biotechnologies, des technologies de l’information et des sciences cognitives (« NBIC convergence ») a pu donner naissance à l’idéologie transhumaniste, laquelle affirme la nécessité du passage le plus rapide possible au stade suivant de l’évolution biologique, dans lequel des machines conscientes nous remplaceront. L’idéologie qui accompagne le big data, quant à elle, annonce l’advenue de nouvelles pratiques scientifiques qui, faisant passer l’exigence théorique au second plan, mettent en péril l’avancée des connaissances et, plus grave encore, minent les fondements mêmes d’une éthique rationnelle.

Modélisation, causalité et corrélation
L’idée que le traitement de données pourrait devenir le fondement d’une science nouvelle, pourvu que les données soient suffisamment abondantes et riches et qu’il existe des algorithmes pour repérer des régularités, sous forme par exemple de corrélations, dans le fouillis inextricable qu’elles constituent, a fait lentement son chemin à mesure que progressaient le recueil d’informations en tous genres et les avancées fulgurantes de la programmation informatique[1]. Cette idée a récemment littéralement explosé, ses promoteurs n’hésitant pas à proclamer « la fin de la théorie ». Chris Anderson, qui fut le rédacteur en chef de la revue Wired, référence de la Silicon Valley, pouvait ainsi, en juin 2008, intituler l’un de ses essais « La fin de la théorie : le déluge des données rend obsolète la méthode scientifique ». On y lisait notamment que, dorénavant, « la corrélation ­l’emporte sur la causalité et le progrès scientifique peut se dispenser tant de la modélisation que de la théorie[2] ».

Au regard de l’histoire et de la philosophie des sciences, de telles affirmations sont affligeantes. C’est comme si n’avaient jamais existé les épistémo­logies d’un Émile Meyerson[3], d’un Karl Popper[4] ou d’un Thomas Kuhn[5] insistant sur les impasses d’un empirisme radical, ­l’impossibilité de se passer d’un « programme métaphysique de recherche », le rôle indispensable des hypothèses dans la démarche scientifique qui procède par conjectures et réfutations – ce qu’on peut traduire par la formule : « Il n’y a pas de faits bruts[6]. »

La théorisation scientifique ne saurait se passer de modélisation, et celle-ci, au terme d’un long chemin, a pu remiser la notion de causalité au rang des superstitions de l’âge préscientifique. L’idéologie du big data s’attaque donc à un homme de paille en proclamant l’obsolescence de la causalité et sa mise à mort par la corrélation. Bien avant elle, la théorie a déjà fait le travail.

Sur cette question aussi riche que difficile[7], nous nous limiterons à deux illustrations. La première est la comparaison bien connue entre les métaphysiques sous-jacentes à la théorie de la relativité générale, qui date de la période 1907-1915, et à la théorie de la gravitation universelle de Newton, laquelle remonte à 1687. Autant cette dernière préserve la causalité en posant que les corps célestes exercent une force d’attraction les uns sur les autres, autant la relativité s’en passe complètement en géométrisant le mouvement des astres dans un espace-temps à quatre dimensions. Einstein pourra dire que l’attraction universelle de Newton, qui n’est pas étrangère à sa pratique de l’astrologie, était encore tributaire de la croyance au mauvais œil, une causalité propre à l’interprétation des choses humaines, en appelant, de surcroît, à la magie.

La seconde illustration, beaucoup moins bien connue, est l’irruption sur la scène scientifique du paradigme de la complexité, et plus précisément de la modélisation des systèmes complexes. C’est le mathématicien John von Neumann qui, le premier, définit ce concept, lors d’un symposium réalisé en 1948 au California Institute of Technology (CalTech) de Pasadena, en Californie. Un objet complexe, conjectura-t-il, est tel que le modèle le plus simple qu’on puisse en donner est lui-même. L’information qu’il contient est incompressible. Il est intéressant que von Neumann ait recours à un exemple emprunté à l’économie théorique pour illustrer son propos. Il s’agit d’un texte de Vilfredo Pareto, expliquant en 1906 dans son Manuel d’économie politique que le modèle de l’équilibre économique général qu’il avait mis au point avec Léon Walras, modèle qui formalise le mécanisme de la formation des prix sur un marché concurrentiel, « ne vise nullement à un calcul numérique des prix. Faisons en effet l’hypothèse la plus favorable pour un tel calcul, supposons que nous ayons triomphé de toutes les difficultés consistant à trouver les données du problème et que nous connaissions les ophélimités[8] de tous les différents produits pour chaque individu, et toutes les conditions de production de tous les produits, etc. Cela est déjà une hypothèse absurde. Pourtant elle n’est pas suffisante pour rendre la solution du problème possible. Nous avons vu que dans le cas de 100 personnes et de 700 produits il y aura 70 699 conditions (en fait, un grand nombre de circonstances que nous avons négligées jusqu’ici augmenteront ce nombre) ; nous devrons donc résoudre un système de 70 699 équations. Cela excède en pratique les pouvoirs de l’analyse algébrique, et cela est plus vrai encore si l’on songe au nombre fabuleux d’équations que l’on obtient pour une population de quarante millions ­d’habitants et plusieurs milliers de produits. Dans ce cas, les rôles s’inverseraient : ce ne seraient plus les mathématiques qui viendraient au secours de l’économie politique, mais l’économie politique qui viendrait au secours des mathématiques. En d’autres termes, si l’on pouvait réellement connaître toutes ces équations, le seul moyen pour les résoudre qui soit accessible aux pouvoirs de l’homme serait d’observer la solution pratique qui leur est donnée par le marché. »

Le big data permet de prévoir même si l’on ne comprend pas 
ce dont il retourne.
En d’autres termes, seul le marché peut nous dire ce dont il est capable. Le meilleur modèle, et le plus simple, du comportement du marché, c’est le comportement du marché lui-même. L’information que le marché mobilise et met au service de ceux qui se laissent porter par sa dynamique n’est pas « compressible ». En dernier ressort, le marché – et il en va de même de tout système complexe – est à lui-même sa propre cause et son comportement n’est pas réductible au jeu de causes identifiables à un niveau plus élémentaire.

Le big data ne promet qu’une chose : il permet de prévoir même si l’on ne comprend pas ce dont il retourne. D’où la formule : « Avec assez de données, les chiffres parlent d’eux-mêmes[9]. » Ou encore : « Dans de nombreux cas, il nous faut renoncer à l’effort de découvrir la cause des choses car c’est le prix à payer pour pouvoir travailler avec des corrélations. Au lieu de chercher à comprendre précisément pourquoi un moteur a une panne ou pourquoi les effets secondaires d’un médicament disparaissent, grâce au big data, les chercheurs vont plutôt rassembler et analyser d’énormes quantités d’information au sujet de ces événements et de tout ce qui leur est associé, et ils vont chercher des régularités qui leur permettront de prévoir leurs occurrences futures. Le big data répond à la question “quoi”, et pas “pourquoi”, et bien souvent cela nous suffit… Notre vision du monde qui reposait sur l’importance donnée à la causalité est aujourd’hui défiée par [le privilège accordé aux] corrélations. Il fut un temps où la possession du savoir allait de pair avec la compréhension du passé ; elle est solidaire aujourd’hui de la capacité à prédire l’avenir[10]. »

Le big data prétend se jouer de la complication des données. Ce qui précède permet de dire que sa pierre d’achoppement est la complexité des phénomènes[11]. Si, à défaut de comprendre, prévoir est tout ce qu’il a à offrir, dans le cas des systèmes complexes, il ne comprendra pas pourquoi il ne peut pas prévoir. Il aura sacrifié la compréhension à une capacité de prédire inexistante.

La mise en cause des fondements de l’éthique
L’éthique présuppose un sujet humain qui agit. Agir, c’est, étymo­logiquement, commencer un nouveau processus, mettre en branle des enchaînements de causes et d’effets. Nous penser libres dans un monde déterministe implique donc de recourir à une fiction, mais cette fiction nous est nécessaire pour donner sens à nos actions, pour les juger par rapport à des normes, pour évaluer leurs conséquences. La philosophe américaine Christine Korsgaard, connue pour sa défense de la philosophie morale de type kantien, caractérise cette démarche ainsi : « Afin de pouvoir faire quoi que ce soit, il nous faut tout simplement faire semblant d’ignorer le fait que nous sommes déterminés, et décider ce que nous devons faire – exactement comme si nous étions libres[12]. » Selon cette fiction, nous sommes capables d’agir dans l’exacte mesure où nous sommes capables de démarrer, par l’effet de notre volonté, de nouvelles chaînes causales. Faire comme si nous étions libres nous amène à considérer des propositions contre-­factuelles[13] du type : « Si j’agissais autrement que je le fais, alors telles conséquences s’ensuivraient. »

Quand le big data se satisfait de renoncer à la recherche des causalités dans le domaine des phénomènes naturels, il n’innove en rien, nous venons de le voir, et de plus, il le fait à l’aveugle. Mais quand il fait de même dans le domaine des affaires humaines, alors il compromet la possibilité même de l’éthique.

Illustrons cette assertion par un cas qui joue un rôle important aujourd’hui dans les controverses internes à la philosophie morale de type rationaliste. Il s’agit de savoir si, ayant à évaluer une certaine action au double regard de la rationalité et de l’éthique, on doit se limiter à ses conséquences causales ou si l’on doit aussi tenir compte de ses conséquences non causales. Un exemple permettra de comprendre ces notions.

Imaginons que, grâce aux mégadonnées, nous décelions une corrélation entre un certain type de comportement et l’incidence d’une maladie. De façon très schématique, et seulement pour fixer les idées, considérons la dépendance statistique entre le fait de fumer régulièrement et le cancer du poumon. À lui seul, le big data ne nous permet pas d’aller plus loin et de pénétrer dans le monde des causes. Or, trois cas sont possibles si deux variables sont corrélées : la première peut être cause de la seconde, celle-ci peut être cause de celle-là, ou bien l’une et l’autre résultent d’une même cause commune. Dans l’exemple considéré, ou bien fumer cause le cancer du poumon – on écarte la causalité en sens inverse –, ou bien la propension à fumer et le fait d’avoir le cancer du poumon sont causés l’une et l’autre, indépendamment, par un même facteur de risque, disons un certain gène.

Demandons-nous quelle est la bonne conduite à tenir ou à recommander dans chacun de ces deux cas. Si fumer cause le cancer du poumon, il est clair qu’il faut s’abstenir. En revanche, il n’y a aucune raison de cesser de fumer dans l’autre cas, même si l’on ignore ce qu’il en est de la présence ou de l’absence du gène en question chez un individu particulier. C’est un principe du choix rationnel qui permet de le comprendre. Il a reçu le nom de principe de la chose certaine (sure thing principle en anglais). Ce nom lui a été donné par le grand statisticien américain Leonard Savage[14], lequel en a fait un axiome de la théorie du choix rationnel – un axiome, c’est-à-dire une proposition qui tire en principe son évidence d’elle-même, comme une tautologie. La logique semble se ramener ici au bon sens. Si, quelle que soit la valeur d’une variable cachée de moi (ici, l’existence ou ­l’absence en moi du gène responsable du cancer du poumon) l’option que je préfère entre plusieurs possibilités qui s’offrent à moi est toujours la même (disons que je préfère fumer à m’abstenir), il importe peu que je connaisse ou non la valeur de la variable : je préfère cette option, un point c’est tout, et je la choisis sans autre forme de procès (ici, je choisis de fumer ou de continuer à le faire)[15].

Dans ce cas, fumer est dit constituer une stratégie dominante : elle est la meilleure quel que soit l’état du monde inconnu de moi. On voit bien que ce qu’il y a de mieux à faire dépend essentiellement de ce qu’il en est des causalités qui se cachent derrière les corrélations : directes dans un cas, indirectes, par le biais d’une cause commune dans l’autre.

L’exemple que l’on vient de considérer fait intervenir un critère de jugement, qui est la rationalité. Qu’en est-il de l’éthique proprement dite ?

Pour beaucoup, le geste éthique par excellence consiste à se demander ce qui se passerait si les autres agissaient comme moi. Dans L’existentialisme est un humanisme (1946), Sartre écrivait : « Certainement, beaucoup de gens croient en agissant n’engager qu’eux-mêmes, et lorsqu’on leur dit : mais si tout le monde faisait comme ça ? Ils haussent les épaules et répondent : tout le monde ne fait pas comme ça. Mais en vérité, on doit toujours se demander : qu’arriverait-il si tout le monde en faisait autant ? et on n’échappe à cette pensée inquiétante que par une sorte de mauvaise foi[16]. » Sous le nom de déontologie[17], Kant a fait de ce geste un impératif dit catégorique, qui peut s’exprimer comme suit : « Agis toujours de telle sorte que tu puisses vouloir sans contradiction que la maxime de ton action devienne une loi universelle[18]. »

Voici une anecdote personnelle qui illustre l’importance de la causalité dans les questions éthiques. Un certain été, je crapahutais avec ma fille qui avait alors treize ans dans l’un des magnifiques canyons du Colorado. Les grès rouges de cette région du monde ont formé par érosion de fantastiques paysages que les amateurs de westerns connaissent bien. Nous nous étions arrêtés à l’ombre d’une de ces formations et je m’étais assoupi. Je me réveille en sursaut et vois avancer un couple vers nous, avec dans les yeux de la femme cette indignation morale que seul le puritanisme est capable de susciter. Je me tourne vers ma fille et la vois en train de graver son nom dans la roche tendre. Aussitôt, je lui dis à voix forte et en anglais, pour être bien entendu du couple menaçant : « Béatrice, stop it! » À une fille de treize ans, cependant, on doit une explication. Celle que je formulai était la plus banale qui fût : « Imagine ce qui se passerait si les dizaines de millions de visiteurs qui viennent ici chaque année faisaient comme toi ? » À l’évocation dantesque d’une immense falaise s’effondrant sous l’accumulation des signatures, la réponse de ma fille ne se fit pas attendre : « Mais, papa, si les autres font comme moi, ce n’est pas ma faute ! »

Il est à d’abord à noter que ma fille prend le contre-pied de la citation de Sartre. Son excuse n’est pas « les autres ne font pas comme moi », mais ­l’argument : « À supposer qu’ils fassent comme moi, je n’en suis pas la cause, je n’en suis donc pas responsable. »

Cette morale, c’est celle du sens commun. Elle a sa force et sa dignité, parce qu’elle est ancrée dans une phénoménologie de l’action qui correspond à ce qu’a été l’expérience commune de l’humanité tout au long de son histoire et ce jusqu’à un passé récent. L’expérience commune faisait tenir pour une évidence que : d’abord, les actes sont plus importants que les omissions ; ensuite, les effets proches sont beaucoup plus visibles, et donc comptent plus, que les effets lointains ; enfin, les effets individuels ont plus d’importance que les effets de groupe ou effets de composition.

Bien des menaces qui pèsent sur notre avenir sont le résultat 
d’une multitude d’actions individuelles minuscules.
Les traits de la morale de sens commun qui reflètent directement cette phénoménologie de l’action ordinaire sont les suivants. Premièrement, les devoirs négatifs (« tu ne tueras point ») ont priorité absolue sur les devoirs positifs (« tu viendras en aide à ton prochain »). On a plus de responsabilité par rapport à ce que l’on fait que par rapport à ce qu’on laisse faire. On ne cause pas de mal à un innocent même si c’est la condition sine qua non pour alléger les souffrances de dix autres. Deuxièmement, on a des obligations particulières, spéciales, par rapport à ses proches, qu’on n’a pas par rapport au reste de l’humanité.

On peut arguer que cette conception restrictive de la responsabilité normative est devenue inadaptée à notre situation actuelle. Les devoirs positifs sont devenus aussi importants que les devoirs négatifs. La distinction entre tuer par un acte individuel intentionnel et tuer parce qu’on ne se soucie que de son bien-être égoïste de citoyen d’un pays riche tandis que les autres meurent de faim, est de plus en plus problématique. Nous devons nous soucier de toutes les conséquences de nos actions et de nos omissions, et pas seulement des plus proches ni des plus visibles.

Peut-on donc encore dire que si les autres font comme nous, nous ne sommes pas responsables de ce qu’ils font ? Il y a bien des corrélations entre nos actions, mais ces corrélations sont-elles des raisons ? Bien des menaces qui pèsent sur notre avenir sont le résultat de la mise en synergie d’une multitude d’actions individuelles minuscules dont chacune prise isolément a des conséquences indécelables (songeons au dérèglement climatique). La distinction entre omission et action perd de son sens : « Abstenez-vous de prendre votre voiture pour les déplacements en ville ! », dit le langage ordinaire. Si nous obtempérions, serait-ce une « abstention » ? Ce serait bel et bien une action au sens fort que ce mot a par son étymologie : commencement non causé, mise en branle de quelque chose de radicalement nouveau dans le réseau des relations humaines. Ne peut-on étendre ces considérations à tous les effets de mon action et de mes omissions, y compris les effets contre-factuels non causaux pris en compte par la morale kantienne : si je m’abstenais de graver mon nom sur le rocher (mais je ne le fais pas), alors je ferais advenir un monde virtuel où les autres feraient de même ? D’abord par causalité directe : il est évident que l’on est moins incité à respecter une norme de décence si on est le seul à le faire. Mais aussi par le schéma de la cause commune : les corrélations entre nos actions et celles de millions d’autres traduisent souvent le fait que nous sommes mus par les mêmes facteurs.

Il est légitime de résister à ces arguments et de défendre au moins par défaut la morale de sens commun. Sartre disait : « L’homme qui s’engage et qui se rend compte qu’il est non seulement celui qu’il choisit d’être, mais encore un législateur choisissant en même temps que soi l’humanité entière, ne saurait échapper au sentiment de sa totale et profonde responsabilité [19]. » On a envie de répondre : c’est trop, restons à l’échelle de l’homme.

Il n’est pas question de prendre ici parti sur ces questions qui mobilisent tant de ressources morales et intellectuelles, mais simplement de dire ceci : les dérives idéologiques du big data, si on les laissait se répandre, écraseraient comme un bulldozer les distinctions conceptuelles les plus fondamentales dont aucune éthique ne saurait se passer.




'via Blog this'