Cet entretien a été réalisé en italien par Paolo Bartolini pour MEGAchip, Democrazia nella comunicazione. Il a été traduit en français par Sara Longo.
Paolo Bartolini: Monsieur Longo, quelles sont selon vous les limites de l’emploi massif des métaphores informatiques pour expliquer le vivant et la complexité de la nature humaine?
Giuseppe Longo: En tant que mathématicien de l’informatique, j’ai beaucoup écrit à ce sujet, tout particulièrement à l’occasion de collaborations avec des biologistes du cancer, C. Sonnenschein et A. Soto. Nos échanges sont au cœur de mon travail actuel en biologie des systèmes – tout en espérant qu’ils les aident dans le leur, où les abus d’une terminologie informationnelle ont certainement contribué à limiter la recherche de cadres innovants pour l’étude de cette maladie. Car le cancer, c’est leur thèse, peut être compris seulement en analysant le rapport triangulaire entre tissu, organisme et écosystème, rapport qui nécessite au préalable une solide théorie de l’organisme (voir LoMo et SoLo pour des références et des tentatives dans cette direction). Je vais proposer ici la synthèse d’une critique et de quelques propositions développées ailleurs (et je me permettrai pour cela de renvoyer ultérieurement à certains de mes écrits, notamment pour la vaste bibliographie que l’on peut trouver à ce sujet).
La notion d’information peut être spécifiée au moins par deux théories scientifiques, rigoureuses et importantes : l’élaboration de l’information, à partir de Turing, et la transmission de l’information (Shannon). Les deux théories ont mis en évidence des propriétés d’invariance mathématique fondamentales, c’est à dire des structures qui peuvent être transformées d’un contexte à l’autre, tout en conservant ce qui compte. Dans les deux cas, les caractéristiques de l’information ne dépendent ni du code (si ce n’est pour des coûts négligeables de codage : par des 0 et 1, ou des 0-9, ou n’importe quel autre suite de signes) ni, surtout, du support matériel : on peut élaborer ces signes sur transistors, puces, silicium, tout comme il est possible de transmettre des signaux par des câbles, des tambours ou de la fumée… Cette invention ancienne, formalisée de façon révolutionnaire par Turing en 1936 et essentielle ensuite à Shannon, a permis de distinguer le logiciel (software) du matériel (hardware) et de proposer une théorie autonome de la programmation, ou de la transmission, indépendante du support matériel, grande richesse de la pratique informatique. C’est ainsi qu’à Manchester, en 2012, à l’occasion d’un grand colloque pour le centenaire de la naissance de Turing, les étudiants ont construit une machine de Turing (1936), prototype mathématique des ordinateurs modernes … en Lego. Cette machine marchait, certes un peu lentement ….
Plus généralement, disons que, dans les années ’30, Herbrand, Gödel, Church, Kleene, Turing … chacun de ces scientifiques a défini, avec une approche formelle différente quant à la définition de la notion d’algorithme, une invariante mathématique fondamentale : la notion de fonction calculable, ou pour le dire autrement, de fonction définissable par un algorithme. Cette notion ne dépend pas du système formel de calcul. Indépendance ou invariance du système donc, tout comme du codage et du matériel qui lui sert de support… c’est là la force et la signification scientifique des notions d’information et de programme. Comme il arrive souvent, les mystiques ont pris cette belle invariante mathématique comme un absolu et l’ont appliquée à tout phénomène, y compris les phénomènes naturels. Ainsi, lorsque l’un des leaders du Projet Génome écrit que, bientôt, on aurait pu transférer l’information génétique sur un disque compact et affirmer « Here is a human being, this is me ! » (Gilbert, 1992), il applique la distinction entre matériel et logiciel, fondamentale en informatique mais catastrophique lorsqu’il s’agit de comprendre le vivant. Son affirmation trahit une vision alphanumérique de ce qui compte dans le vivant, très bien décrite par P. Jacob et J. Monod, deux grands scientifiques, protagonistes de la biologie moléculaire, parmi les rares auteurs à avoir explicité une réflexion théorique à ce sujet: “La surprise, c’est que la spécificité génétique soit écrite, non avec des idéogrammes comme en chinois, mais avec un alphabet, comme en français” (Jacob, Leçon inaugurale, Coll. France, 7 mai 1965 ; voir BioConseqComp et ConseqPhilo pour des considérations plus générales).
Tout ceci nous rassurerait sur le fait que Dieu soit de notre côté, comme le confirme Francis Collins, directeur du National Human Genome Res Inst., en juin 2000, en annonçant publiquement avec Venter, Clinton et Blair, le décryptage de cinq génomes humains : “… we have caught the first glimpse of our own instruction book, previously known only to God”. Mysticisme et théologie, ou enthousiasme des chercheurs pour une extraordinaire performance technique ? Dans tous les cas, quelle philosophie et quelle pratique de la biologie nous propose-t-on? Quelle vision de l’homme ? C’est tout d’abord le sens de la radicale matérialité du vivant que l’on perd, celle pour laquelle on ne peut en aucun cas distinguer logiciel de matériel : le vivant n’est fait que de cet ADN, ARN, que de ces membranes, avec leur physico-chimie et rien d’autre …. La biologie de synthèse transfère en effet des fragments de l’un à l’autre, des ADN ou des fragments d’ADN dans la membrane prise d’une autre cellule ; elle ne réécrit pas, ni ne transfère du logiciel sur un autre matériel, pratique courante en informatique. Lorsque les collègues de biologie moléculaire sauront transférer l’information et le programme biologiques sur un ADN ou sur une cellule en Lego – et que ça marchera –, alors on pourra affirmer qu’ils ont enfin ”extrait” et séparé les informations et les instructions, le logiciel du vivant, qu’il ait été écrit par Dieu ou non, de son matériel, au sens mathématique et informatique des termes. Sont-ce là seulement d’innocentes métaphores ? Non : le propre d’une métaphore est de transférer et enrichir le sens d’une proposition théorique. Or, dans notre cas, il s’agit de références au sens commun, de notion vagues, molles, mal définies, d’information et de programme, sans utilisation de leurs propriétés scientifiques, par exemple d’invariance, mais à partir desquelles on tire des conséquences fortes, de très grand poids sur la connaissance. Ceci est inacceptable en science, car on impose un biais sans le préciser et on force la recherche sur des rails qui restent implicites, dans ce cas le ”tout moléculaire”, voir le tout génétique. La science se construit en émettant des hypothèses fortes et rigoureuses, qui vont à l’encontre du sens commun, à l’encontre de l’idée que le soleil se lève sur la Terre immobile, que la lumière avance suivant une droite euclidienne, qu’une mesure est toujours la même si l’on change l’ordre entre position et moment (je parle de la non-commutativité quantique) …. Des hypothèses molles, donc, qui ont trop longtemps gouverné la biologie moléculaire, mais qui n’en sont pas pour autant innocentes. Afin de comprendre comment marche la transmission et l’élaboration de l’information génétique, on a longtemps eu recours à ces hypothèses en développant, pour ne prendre d’un exemple, la « nécessaire stéréo-spécificité » (correspondance géométrique/physique/ chimique exacte, correspondance ‘clé-serrure’) des interactions macromoléculaires de la cellule, « mécanisme cartésien » (Monod, 1970), qui empêche de voir le caractère stochastique de ces interactions, dont la probabilité dépend du contexte (de la cellule, de l’organisme, de l’écosystème), voir BraLo. Ainsi, en toute désinvolture, nous n’avons tout simplement pas remarqué le rôle de perturbateurs endocriniens des combinaisons finies des 82.000 mille molécules que nous avons produit et balancé dans l’écosystème en un peu plus d’un siècle. Elles modifient les probabilités d’interaction des cascades hormonales avec les récepteurs cellulaires (voir à ce sujet un document détaillé et alarmant, de l’American Endocrynology Association, voir ici, ainsi que les travaux des collègues de la Tufts University de Boston, C. Sonnenschein et A. Soto, qui ont contribué à mettre en évidence le rôle cancérigène du BisphenolA depuis les années ’90, massivement présent dans les plastiques alimentaires – récemment interdit grâce, entre autres, à leur travail).
Ainsi, en affirmant que « les organismes sont de simples véhicules de l’information génétique » (pour reprendre un texte de référence en biologie moléculaire) au service de « gènes égoïstes » (pour reprendre un philosophe à la mode), on a voulu par exemple piloter le développement des plantes en les modifiant génétiquement (les OGM). Pour être plus précis, les OGM sont les enfants directs du « dogme central » de la biologie moléculaire (Crick, 1958), selon lequel l’information se propagerait du DNA au RNA aux protéines d’une manière unidirectionnelle et linéaire (sauf rétroaction du RNA-DNA). Au contraire, aujourd’hui, on comprend les effets très graves, interactifs, rétroactifs et sur plusieurs niveaux, des OGM sur le microbiome et sur les champignons, symbiotes essentiels des plantes (voir les travaux de M. Buiatti en Italie).
Dans BioConseqComp je discute brièvement les conséquences de cette vision « informationnelle/ programmatique » du vivant dans la recherche sur le cancer. La réflexion de mes collègues de la Tufts University a été confortée par la sévère auto-critique, publiée dans Cell, en Mars 2014, par l’une des éminentes personnalités du « tout génétique » en biologie du cancer, R. Weinberg, biologiste du MIT. Weinberg est parmi ceux qui ont fait des grandes promesses en thérapies génétiques à portée de main, promesses réitérées chaque année, encore aujourd’hui et depuis 1971, depuis le début de la « War on Cancer » de Nixon ; je renvoie à son article ou au résumé que j’en livre dans BioConseqComp, pour comprendre le sens d’une débâcle annoncée.
Mais attention, la biologie moléculaire nous a fourni une immense quantité de données et a mis en évidence des mécanismes fondamentaux. Il est extraordinaire de voir la finesse expérimentale et l’originalité des méthodes qui ont permis à Jacob et Monod la découverte du mécanisme de l’opéron lactose, une régulation de l’expression génétique de la part du DNA lui-même. Toutefois, sur la base de ce cas particulier, ils laissent de côté l’épigénétique : ils ne citent pas Barbara McClintock, par exemple, première auteure à penser à la « régulation », dont elle à remarqué la composante épigénétique. En effet, depuis les années ’50, les études des grands généticiens, comme McClintock ou Waddington, suspectés de ”lamarckisme”, ont été délaissées, et ce pendant des décennies. Ils avaient toujours étudié les chromosomes dans un contexte – le protéome, la cellule, l’organisme. Evelyn Fox-Keller en parle longuement dans un livre consacré à Barbara McClintock. Ainsi, pendant des décennies, on a cherché les régulateurs de l’expression génétique dans l’ADN, lui attribuant le rôle de description complète de l’organisme, tel un humunculus aristotélicien, tout tout petit, mais complètement codifié dans les chromosomes, et donc « programmé » (on est modernes, nous !). Au contraire, et les généticiens d’il y a 60 ans le savaient, chaque cascade moléculaire relevante, de l’ADN à l’ARN, aux protéines, dépend causalement de tout un contexte. Et depuis quelques années on sait que des cellules individuelles, prélevées en petits groupes de tissus cancéreux et transférées dans des tissus sains reprennent des fonctionnalités normales, sans nécessairement « reprogrammer » leur ADN (voir Maffini et alii en ConsegFilo).
Paolo Bartolini: Vos études et les recherches développées avec d’autres chercheurs (par exemple Marcello Buiatti) ont permis de proposer le concept de « bio-résonnance » et d’ « aléatoire en biologie » pour décrire les interactions entre différents niveaux d’organisation de l’organisme et l’imprédictibilité particulière des dynamiques biologiques. Cette enquête sur la réalité qui renonce à la simplification forcée et au contrôle obsessif des procédés naturels, quelles conséquences peut-elle avoir sur le plan éthique et sociopolitique ?
Giuseppe Longo: Le concept d’aléatoire est délicat. En particulier, il n’est pas un absolu et est relatif aux théories ; il est à comprendre comme l’imprédictibilité par rapport à la théorie entendue (voir CaLo). En physique, les dynamiques classiques et quantiques proposent deux concepts d’aléatoire, épistémologiquement et mathématiquement distincts. Le premier dépend du rôle conjoint de la non-linéarité et de la mesure physique, à savoir des interactions dans une dynamique et de la nature approchée de la mesure. Une fluctuation/perturbation en dessous de la mesure est la cause, cachée, d’un phénomène observable après quelque temps (« et nous avons un phénomène aléatoire », écrivait Poincaré en 1902). Il s’agit du déterminisme chaotique d’un lancement de dés, d’un double pendule ou du système solaire (heureusement pour nous, dans des temporalités bien différentes !). La mécanique quantique en propose un autre, intrinsèque à la théorie, à partir de la mesure ; de plus, les phénomènes d’intrication le différencient, mathématiquement, de l’aléatoire classique. En biologie, ou tout du moins dans la cellule, ces deux formes de l’aléatoire semblent se superposer : il y a désormais une évidence massive de phénomènes quantiques avec des effets phénotypiques (voir BuLo). Par ailleurs, l’interaction de différents niveaux d’organisation (des molécules, des tissus, de l’organisme) produit des effets de (bio-)résonance qui à la fois déstabilisent et stabilisent l’organisme. Mais la chose la plus importante est que cet aléatoire, en biologie, n’est pas du « bruit », comme on l’affirme encore trop souvent encore aujourd’hui (BraLo) : c’est une composante essentielle de la variabilité, de l’adaptabilité et de la diversité du vivant, et donc de sa stabilité structurelle, au niveau de l’espèce, de la population et même au niveau de l’organisme.
Le système immunitaire est un exemple paradigmatique de « générateur fonctionnel » d’aléatoire, essentiel à la stabilité et à la viabilité d’un organisme. Mais même le foie, organe d’apparence si uniforme, contient environs 50% de cellules avec un nombre « erroné » de chromosomes ou avec des mutations toujours différentes. Ceci est fonctionnel à la résilience de l’organe face à la variété imprévisible des chocs toxiques. Adaptabilité, exploration de la diversité…. autant de notions clé en biologie, que l’on associe avec difficulté au contrôle computationnel, génocentré, des dynamiques de l’état vivant de la matière : elles modifient simultanément les organismes et l’écosystème, les phénotypes et les fonctions, et donc les ”observables” même dans la dynamique. De toutes parts, et pour reprendre un chapitre fondamental de l’Origine des espèce de Darwin, des « correlated variations » font de l’organisme, mais aussi de l’écosystème, un défi conceptuel qui ne peut être envisagé comme ”empilement” de l’élémentaire. Toute machine est obtenue en empilant des composantes élémentaires et simples les unes sur les autres : on construit par association, assemblage de composantes, vis et boulons, puces et bits … simples et élémentaires.
Aussi, les ordinateurs et les réseaux d’ordinateurs sont une superposition et un entremêlement très compliqué de composantes élémentaires et simples. En sciences naturelles, au contraire, il ne va pas de soi que le fondamental soit élémentaire, ni que l’élémentaire soit simple. Les théories de Galilée ou d’Einstein sont fondamentales mais ne concernent pas l’élémentaire, les atomes de Démocrite ou les quantas. Ces derniers, conceptuellement et tout comme les cellules, composantes élémentaires du vivant, ne sont pas simples du tout. De plus un organisme multicellulaire ne se construit pas en y collant un tissu, en y vissant un organe… il se construit au contraire par différenciation à partir d’une seule cellule, qui est déjà un organisme et qui, à chaque différenciation cellulaire, garde son unité fonctionnelle. Nous avons là à faire à une complexité originaire qui se complexifie ultérieurement, et non pas à un empilement de briques élémentaires et simples. Tout cela advient dans une permanente construction de diversité, radicalement imprévisible, au cours de la phylogénèse et, donc, de l’ontogénèse : la construction du différent, d’une nouvelle espèce, advient à cause d’une variante, un « hopeful monster », qui apparaît au cours d’une ou plusieurs ontogénèses, qui trouve ou construit une niche pour sa viabilité (qui la rend possible, « enables » disons-nous, voir LoMoKauff ou le chapitre 8 de LoMoBook).
Deux économistes ont demandé à Stuart Kauffman, biologiste américain, et à moi-même de collaborer à la réflexion sur les “conséquences économiques” de cette vision de l’histoire du vivant : l’économie est avant tout une histoire (voir les Minima Oeconomica parmi mes articles téléchargeables). L’idée de fixer, même temporairement, « l’espace des phases » ou des possibles économiques nécessaires pour écrire les équations d’une dynamique, comme l’on fait en physique, cette idée, en économie, est une erreur conceptuelle, faite de simplifications et de réductions des dimensions mathématiques du problème, totalement arbitraires. Ou, mieux, les deux ont des motivations politiques qui se cachent derrière une prétendue objectivité mathématique. Les physiciens savent que le choix de l’espace des phases, des paramètres et des observables pertinents, est très difficile (« C’est la théorie qui fixe les observables » disait Einstein) et que les variables qui sont éludées, mais qui peuvent avoir une influence sur la dynamique, font croître l’impredictibilité du système de manière exponentielle par rapport à leur nombre (voir Border). En économie, quand ça nous arrange, on fait semblant de ne pas savoir tout cela.
Paolo Bartolini: Vous avez évoqué un rapport très étroit entre les sciences, la démocratie et le désaccords créatif. Pouvez-vous approfondir la question?
Giuseppe Longo: J’ai évoque ce sujet dans Lo-MSCS, éditorial d’une revue d’informatique mathématique que j’ai longtemps dirigé, signé par tous ses trente ”editors” d’une vingtaine de pays différents. Il est paru par la suite d’une lutte contre les abus des instruments bibliométriques pour évaluer la recherche scientifique. J’avais eu la chance, à l’époque, d’avoir l’appui des départements de mathématiques et de physique de l’ENS de Paris, école où je travaille depuis 25 ans, en plus de celui des informaticiens. Parmi les élèves et les enseignants du département de mathématiques se trouvent 11 des 13 médailles Fields et, en physique, on trouve deux prix Nobel des dix dernières années. Nous avons ainsi contribué à arrêter, au moins pour l’instant et seulement en France, l’emploi systématique de comptages insensés de la production scientifique, instruments qui encore aujourd’hui pervertissent la recherche dans nombreux pays. Par la suite, un colloque de l’Académie Européenne à Stockholm a repris notre position (voir Lo-bib). Pour résumer, dans l’histoire, la construction de la connaissance scientifique est toujours liée à la démocratie. Une agora ou tout autre lieu de débat est nécessaire à l’exploration scientifique, qu’il s’agisse d’un tout petit espace protégé de la cour d’un seigneur renaissant ou d’un prince éclairé…. ou même de l’Académie des Sciences de l’Union Soviétique, seule endroit où l’on pouvait discuter, à l’époque, en URSS (même si exclusivement de mathématiques et de physique, sûrement pas de biologie). Les sciences ont toujours été un savoir critique, qui va à l’encontre du sens commun, mais qui se construit aussi contre le savoir de la majorité. On commence toujours par dire : « non, ce n’est pas comme cela… », même s’il s’agit d’un fait, d’une observation ou d’une idée moindres. Il faut une école de pensée – un scientifique totalement isolé n’existe pas – mais à l’intérieur de celle-ci, la nouveauté, permise par du pluralisme et par le débat, dérive de la réflexion de certains qui osent aller à l’encontre de la pensée dominante. La science a toujours été liée à cette composante essentielle de la démocratie, à savoir la présence d’une minorité qui pense différemment ; la démocratie est la formation d’une majorité qui ‘gouverne’, certes, mais elle est aussi la présence de différences – Hitler n’a-t-il pas été élu avec une majorité relative ? La science a besoin de la composante critique de la démocratie et, cela renforce sa capacité à explorer de nouvelles voies, à développer une pensée nouvelle et, par ce fait, à enrichir le débat. Si, au contraire, à chaque évaluation, on fait voter tous les experts de la planète en laissant une machine compter les citations, on empêche la formation d’une nouvelle manière de voir, d’une école minoritaire, future majorité. Pas une seule des nouvelles manières de penser la nature n’a eu la vie facile à ses débuts, parfois nous oublions cela et nous pensons que Galilée n’a été qu’une exception. Un résultat difficile, une vision profonde et nouvelle demande des décennies pour être comprise et assimilée. Au contraire, l’ « impact factor » des revues est calculé à partir du nombre de citations des articles dans les deux années qui suivent la publication. Deux ans, c’est aberrant ! On peut citer des dizaines d’entreprises scientifiques fondamentales dont les textes fondateurs ont été maintes fois refusés, puis, longtemps après, cités, repris, développés. C’est normal, c’est même (presque toujours) juste : tellement d’âneries circulent qu’il faut être prudents avant de publier et de citer des nouveautés surprenantes…. Mais si on transforme cette prudence ordinaire en méthode d’évaluation, les sciences n’ont qu’à mettre la clé sous la porte ! Avec la bibliométrie, les réseaux d’ordinateurs sont utilisés non pas pour mettre la connaissance de tous à disposition de tous, nouveauté fantastique de notre temps, mais pour ”normaliser”, pour demander à tous de s’adapter à la pensée de la majorité, pour canaliser tous les esprits vers l’école de pensée la plus forte, ou même vers la banalité, le sens commun, la mode. L’évaluation doit être confiée à un groupe de personnes qui varient et qui prennent la responsabilité de comprendre et de juger, de saisir la nouveauté dans les limites de l’humain, et non avec des machines pour le comptage.
L’autre nouvel obstacle face à l’invention scientifique est la praxis toujours plus répandue qui consiste à financer la recherche sur la base de projets de plus en plus grands, voir très grands. Une première conséquence est que l’on attribue des bourses de doctorat et de post-doctorat seulement au sein de grands projets. La bourse d’une institution, versée à un étudiant avec un bon cursus d’études, quel que soit son projet de thèse, lui permet de s’entraîner à la recherche par la recherche, mais aussi de changer ses thèses, son directeur…. bref, de changer d’idée. Alors que, encadré dans un grand projet, il doit seulement viser à démontrer ou confirmer à tout prix la thèse de ce projet … même si elle lui semble fausse. Des années de formation d’une pensée critique, originale, où l’on apprenne aussi à dire « non, c’est différent de ce que tout le monde pense » deviennent ainsi des années de formation d’un « yes-man » (ou « woman »). Le phénomène est impressionnant aux Etats Unis, et il se diffuse à grande vitesse chez nous, avec l’hégémonie du financement par projet. À ce propos, il faut rappeler que, au sein de la Communauté Européenne, on observe une violation des accords de Nice et de Lisbonne, dont on se souvient car ils demandaient aux Etats d’atteindre 3% du PIB en financement de la recherche et de l’université en 2010, dans toute l’Europe (en Italie, par exemple, mais la baisse a été la règle, on est passé en-dessous de 1% – parfois le nombre 3 est sacré, d’autre fois moins…). Ces accords stipulaient que le financement de la recherche finalisée à des projets aurait été du ressort de la Communauté Européenne. La recherche de base ou fondamentale, quant à elle, aurait été à la charge des Etats à travers le financement des institutions de recherche et des universités. Mais en fait, au sein des Etats, les gouvernements ont décidé à leur tour de faire ”comme l’Europe”, de ne financer que des projets. Ainsi, en France, une partie importante des fonds récurrents du CNRS, institution scientifique de la plus haute importance, ont été déviés sur l’ANR, agence de financement de projets. En Italie les financements pour la recherche ont diminué encore plus, entamant ainsi, depuis la réforme Berlinguer-Prodi, une graduelle et constante démolition de l’université et de la recherche. En mon opinion, cette question n’est pas seulement liée à la connaissance humaine mais aussi à une volonté d’annuler une composante essentielle de la pensée critique. Le travail sur projet, la plupart du temps sur 5 ans, rappelle les plans quinquennaux de la défunte Europe de l’Est. Des collègues polonais – Pologne, pays d’une ancienne tradition de mathématiques – me racontaient que dans les plans quinquennaux de recherche, il fallait indiquer exactement les théorèmes et les résultats attendus, les « deliverables », comme on les appelle aujourd’hui à Bruxelles. Ils avaient donc appris à promettre des théorèmes … déjà démontrés, mais gardé exprès dans un tiroir. La difficulté surgissait seulement lors du premier plan quinquennal de travail : en écrivant la thèse de doctorat, ils faisaient en sorte de ne pas rendre public quelque résultat important, pour l’utiliser dans un futur. Aujourd’hui, on a plutôt tendance à faire des promesses exagérées : les articles dans un livre intéressant intitulé « Pourquoi tant de promesses ? », publié par M. Audétat et collaborateurs, analysent en détail certains projets européens, « flagships » à un milliard ou plus, obtenus par des collègues particulièrement habiles dans la promesse de progrès mirobolants, mais dans des cadres orthodoxes, bien circonscrits, et donc compréhensibles par tous, même par le manager, le politicien (par exemple, l’un de ces projets affirme que dans un cerveau en silicium on pourra étudier l’Alzheimer et le Parkinson… reprogrammer les déficiences cognitives … autant de visées qui rappellent l’homme-ADN dans un disque compact cité plus haut).
Paolo Bartolini: Avec le mythe de l’individu isolé et la maximisation de l’utile, en quoi la culture néo-libérale influence-t-elle la recherche scientifique et la création d’un savoir ‘complexe’ et à la hauteur de notre époque?
Giuseppe Longo: La notion de “Ressources Humaines”, qui analyse le travail de la même manière que les ressources matérielles, ainsi que l’optimisation de toutes les composantes de la production par les méthodes mathématiques de la “programmation linéaire” sont deux approches inventées dans l’ex-URSS. Elles ont ensuite trouvé leur place dans nos grandes entreprises et, par là, dans les secteurs publics et nationaux. Ne doit-on gouverner ces derniers comme des (grandes) entreprises ? Le Gouvernement doit-il être alors confié au “Meilleur” des entrepreneurs, comme l’était Berlusconi en Italie, avec un parti centralisé et autoritaire à l’image du pire parti stalinien de nos démocraties? C’est ainsi que le cercle se referme. Dans l’Etat-Entreprise, stalinien et néolibéral, scientisme et gouvernement se mêlent à merveille : ainsi naît le mythe du gouvernement purement technique, mis dans les mains des ingénieurs du Gosplan soviétique, que, dans nos pays, on appelle aujourd’hui « gouvernance ». Comme l’observe un ami mathématicien à Paris, Alessandro Sarti, le scientisme demande à la science de comprendre le monde puis de le gouverner avec des méthodes d’optimisation. Alain Supiot, dans son livre La gouvernance par les nombres explique bien la différence entre la « gouvernance » et le gouvernement par la loi. La première est une gestion « objective », selon des règles formelles, potentiellement mécanisables, indépendantes de tout contexte, qui formalisent des méthodes d’optimisation, donnant une seule voie possible, optimale, une « géodésique ». Au contraire, la loi de l’homme est interprétée, discutée avant tout sur l’agora, au moment de sa votation, puis par le gouvernement ou par le juge qui l’appliquent dans leur domaine, qui lui donnent un sens contextuel. En fait, le terme « loi de la nature » a été articulé à celui de « loi des hommes » (et des dieux) de manière très intéressante, et ce dans des cultures différentes (voir le projet que je dirige à IEA de Nantes). La règle, basée su des écritures numériques ou formelles, est gérable par des automatismes indépendants des ambiguïtés interprétatives, dont au mieux on fait un « fine tuning ». Dans les accords Merkel-Sarkozy, par exemple, il est écrit que la punition pour les Etats transgresseurs des règles sur le déficit aurait été mise en place « de manière automatique », potentiellement mécanisable. Mais la question essentielle reste pour moi celle de la démocratie, de la loi qu’il faut discuter et interpréter, qui donne un sens à la vie en commun, dans la possibilité d’une réelle dissension, qui peut être organisée : l’analyse du stalinisme et du néo-libéralisme, européen ou américain, en est subordonnée. Pour poursuivre ce parallèle, Alain Supiot, juriste, explique que, dans les accords entre la Troika et le gouvernement grec, en juillet 2015, on a demandé au gouvernement de confesser ses fautes sur la dette publique (amplement héritée), de renier ses politiques et le résultat d’un référendum, donc de faire ”allégeance” à la Troika. Allégeance, terme médiéval d’hommage et de subordination au seigneur féodal. Mais le statut de personne juridique des grandes corporations américaines n’est-il pas assimilable au corps mystico-juridique du seigneur médiéval? Depuis le Securities and Trust Indentures Act de 1933, loi qui n’a pas, pour l’instant, d’égal en Europe, la personne juridique d’une ”corporation” ne fait-elle pas corps avec sa propriété, son fief ? Quant à la science, au sein de grandes corporations éclairées, telle IBM, ATT – Bell Labs ou Digital – avec laquelle j’ai collaboré à la fin des années ’80, il existait d’extraordinaires espaces de liberté pour la recherche : de grands groupes de recherche très variés pouvaient penser librement, protégés qu’ils étaient par le seigneur/corporation, grâce à une vision de la recherche éclairée et sur le long terme, même si industrielle. Apple, Google et Microsoft s’offrent encore aujourd’hui de petits fleurons, des centres de recherche autonomes avec une petite dizaine de personnes libres de penser, mais ce ne sont plus les dizaines de milliers de chercheurs qui, jusqu’au début des années ’90, exploraient toutes les directions possibles de l’industrie américaine. Apple et Google ont en effet commencé avec de grandes idées innovantes, à la fin des années ’70 et ’80, mais aujourd’hui elles répètent, dans des mémoires informatiques toujours plus miniaturisées, puissantes et rapides, les mêmes idées ; je reviendrai sur ce problème. Quant à Microsoft, Roberto di Cosmo, professeur d’informatique à Paris, en explique la croissance dans Le hold-up planétaire, moment de bouleversement sans contenu de recherche advenu dans les années ’80. Plus généralement, la forte baisse de la recherche industrielle des vingt dernières années est décrite par plusieurs auteurs (voir LoSe pour une analyse et des références) : une des principales causes en serait la transformation de la propriété industrielle en actionnariat, géré par des managers universels, interchangeables, qui doivent seulement faire augmenter la valeur des actions à court ou très court terme.
Il est évident, pour reprendre votre question, que tout cela ne nous aide pas à poser le problème de la complexité de notre monde : j’en ai évoqué la distance en parlant de la méthode et des processus de recherche, comme vous le suggériez. Mais en effet il n’existe pas une activité de recherche sans une méthode propre et sans une éthique : faire un pas de côté pour mettre en question ses propres principes de connaissance, se donner le temps de réfléchir, sans savoir exactement où l’on va, être disposé à être jugé, embauché, promu, sur la base d’un travail créatif effectué, et non sur des promesses.
Si on ne respecte pas l’éthique de la recherche, la passion de la connaissance, aucune ingénierie institutionnelle ne pourra permettre d’évaluer correctement notre activité, ni de financer des projets finalisés, eux aussi nécessaires ; les grands problèmes de l’écosystème, par exemple, en ont bien besoin… Mais si on ne fait que Big Science, on tue la science : aucun projet dont l’application finale est dite à l’avance ne pourra jamais être très innovant. La vraie nouveauté, même technique, a toujours été obtenue à partir d’une recherche qui ne l’imaginait pas – et souvent longtemps après ou comme retombée indirecte.
Paolo Bartolini: Quels effets cette diffusion de nouvelles technologies asservies à la logique de l’accumulation économique et à la nouveauté incessante peut-elle avoir sur le cerveau humain et l’imaginaire collectif ?
Giuseppe Longo: Nous sommes confrontés à une importante croisée des chemins : d’extraordinaires instruments d’interaction et d’échange peuvent enrichir ultérieurement et énormément nos connaissances et nos pratiques scientifiques ou être employés pour nous normaliser et nous faire ‘suivre la règle’, nous rendre tous homogènes. Les réseaux mettent tout un chacun dans une position sans précédent de rencontre à distance, de rapprochement, d’accès aux connaissances de toute l’humanité, dans leur diversité. L’échange de cultures, d’idées, d’objets… a été au cœur des plus hauts moments de notre histoire, depuis la Grèce jusqu’à l’Italie de la Renaissance, pour ne citer que deux exemples de centres d’échanges intenses, en Méditerranée. Mais avec cette nouvelle vitesse nous pouvons faire bien plus. Or, au contraire, le réseau informatique peut être utilisé comme ”camp moyen” au sens physique : avec trop de voisins, on n’arrive plus à avoir des singularités, on devient tous gris. Nous avons discuté plus haut des images du monde de ce type, monochromatiques : l’ADN, le cerveau, les lois humaines, tous sont des ensembles de règles formelles, d’instructions et de programmes, d’un même type, tout comme les ordinateurs, mais enrichis, au mieux, de quelques aléatoires de réseau. Un instrument, l’ordinateur, outil auxiliaire d’excellence utilisé par les sciences (la modélisation par exemple) pour comprendre le monde, est ainsi employé pour aplatir le monde ou, pire, est identifié avec le monde, nouvelle mécanicité au sens commun. Il en arrive même à organiser nos activités, par les évaluations informatisées du travail, dont la bibliométrie n’est qu’un exemple ; on ne peut passer sous silence des utilisations plus graves encore, tels les QCM numériques dans les écoles, tous les mêmes de Djakarta à Helsinky, ainsi que, plus généralement, les modes actuels d’évaluation des compétences, tous méthodologiquement identiques, qui ne sont plus soumis au jugement qualitatif, mais sont imposées dans quasiment tous les métiers. Les modes de vie en sont profondément modifiés, sous la pression de ces machines qui, nous promet-on depuis les années ’70, devraient remplacer l’homme en tout. C’est ainsi que l’androïde de Blade Runner (1982) a une relation d’amour avec Harrison Ford, androïde (ou était-ce une ginecoïde ?) qu’on ne peut distinguer d’une femme, en 2019 – mais, dans les film, il s’agissait d’une très belle actrice, j’en suis certain. Depuis ces mêmes années, les bureaux de Poste et les banques investissent dans l’élimination de travaux humains pénibles, tels les centres de tri ou la lecture des chèques: mais les progrès, jusqu’à présent, sont moindres …. Toutefois, pas un jour ne passe sans qu’on nous dise « Attention, acceptez n’importe quelle condition de travail, acceptez de perdre vos droits, car sinon vous serez remplacés par des machines ! » – construction volontaire d’un imaginaire collectif. Cette substitution a déjà eu lieu, depuis des décennies, et elle continue dans les bureaux et, surtout, grâce à des machines de contrôle numérique, dans les chaînes de montage, des lieux de stockage, c’est-à-dire dans des métiers qui nécessitent la réitération identique des gestes – savoir faire originel de la machine digitale. Pour le reste, nous observons la construction d’un imaginaire adapté à la subordination aux règles, à l’évaluation mécanique, à la gouvernance qui remplace le gouvernement. Quant à la nouveauté incessante, certes, nous sommes entourés, étouffés par mille nouveaux gadgets, mais le substrat technico-scientifique n’a pas évolué depuis une vingtaine d’années. Une des idées scientifiques qui contribue à cette avalanche de gadgets est la découverte de la magnétorésistance géante, dans les années ’80 : Albert Fert (université de Paris XI) et Peter Grünberg (à Jülich, en Allemagne) remportèrent le prix Nobel pour la physique en 2007 pour cette invention. Les secteurs de recherche des entreprises, surtout nord-américaines, en saisirent immédiatement l’intérêt pratique, la développèrent et en firent naître les mémoires numériques, dont les performances, depuis et ce encore aujourd’hui, redoublent tous les deux ans. Grâce à des mémoires toujours plus impressionnantes, on peut stocker de plus en plus de données et de programmes, dans des objets toujours plus petits, ce qui a développé un remarquable artisanat des applications informatiques. Mais la vraie nouveauté scientifique de Fert-Grünberg a maintenant plus d’un quart de siècle et est enrichie par des variantes de méthode de programmation qui ont une vingtaine d’années au moins. Si vous lisez des journaux de la fin des années ’90 vous trouverez des annonces semblables à celles de la Google Car et … que sont devenus les Google Glass d’il y a deux ans? Autant de promesses dont la réelle retombée se résume à la poignée de gadgets décorant nos voitures. À Pittsburgh (PA, USA), Uber a lancé un grand projet de taxis sans chauffeur. Pour le moment, ils déclarent, il y aura toutefois un ”employé” dans les voitures. Est-il possible qu’une entreprise qui a su gagner énormément d’argent à partir de rien, en vendant de l’information, se trompe ? Mais non, l’objectif en premier lieu est l’augmentation à court terme de la valeur des actions des entreprises concernées, par l’effet d’annonce. Quant aux automatismes, il faudra peut-être canaliser, par des rails/balises électroniques par exemple, la conduite par les robots et par les hommes pour rendre possible la coexistence des deux sur la chaussée. Tant qu’on nous canalise dans la conduite des voitures, c’est formidable, mais le mythe de la mécanicité, du tout algorithmes, de la génétique à l’évaluation, les besoins de l’interaction comme subordination, tout d’abord théorique, conceptuelle, puis pratique à des machines numériques, peut avoir comme but ou effet de canaliser tous nos comportements.
Ainsi, d’excellents programmateurs et joueurs d’échecs (IBM, 1997) et de Go (Google, 2015), ont mis en mémoire des décennies de parties jouées par des hommes. Ils y ont ajouté des algorithmes très bien dessinés qui génèrent au hasard des millions de stratégies de jeu à la seconde, selon la Méthode de Montecarlo (1950), et d’algorithmes d’apprentissage statistique qui mémorisent les coups les plus efficaces selon le contexte de jeu. Ces pauvres champions d’échecs et de Go ont donc joué et perdu contre une horde d’adversaires, décennies de stratégies humaines mémorisées par des machines qui réitèrent à l’identique, mis à part la génération aléatoire de stratégies, et contre des algorithmes de mémorisation statistique comparative (Deep Learning ou réseaux à 3D), résultant d’un indiscutable progrès de l’informatique – d’origine tout d’abord académique, et non industrielle. Bien sûr, cela n’a rien à voir avec la vision imagée du jeu, qui diffère d’un joueur à l’autre, avec la singularité propre à la ”vision” humaine d’une dynamique de configurations avant tout qualitatives, d’une organisation toute humaine de l’art combinatoire qui fait la richesse de ces jeux, insensés lorsqu’on les mécanise. Le comble de ces exemples d’humiliation préconçue, présumée et menaçante de l’intellect humain, véritable scoop publicitaire pour ceux qui en sont dupes, est peut-être bien la nouvelle mode du Data Mining a-scientifique en Big Data. Celui-ci devrait prédire toutes sortes de dynamiques et orienter l’action, sans avoir besoin d’hypothèses, de théorie ou de connaissance (Anderson, 2008). Les Big Data et leurs techniques d’analyse statistique sont une opportunité sans pareille s’ils sont utilisés pour émettre des hypothèses, pour valider des théories et en proposer de nouvelles. Mais, au contraire, et de manière terriblement virale, on pense aujourd’hui pouvoir optimiser la pensée, en la réduisant à zéro : des algorithmes assez puissants pourraient ainsi « remplacer la connaissance scientifique » (sic !). Plus la base de données est grande, yotta de yotta bites, plus on peut éviter de penser : les machines décèlent des régularités que les sciences ne voient pas, mais qui suffisent pour prédire et agir – « Nous tuons sur la base des métadonnées », a déclaré l’ancien directeur de la CIA, M. Hayden, dans un récent débat. Heureusement que les mathématiques permettent de démontrer l’absurdité de ces promesses. C. Calude, mathématicien à l’Université de Auckland (NZ) et moi avons montré, dans un article simple mais basé sur des résultats classiques non banals, le Deluge of Spurious Correlations in Big Data. Pour résumer, pour n’importe quelle ”correspondance régulière entre des nombres”, il existe un nombre d’éléments, m disons, tel que tout ensemble de nombres ayant au moins m éléments contient cette correspondance. C’est donc le cas aussi pour un ensemble engendré au hasard, par des lancements de dés ou des mesures quantiques : la correspondance sera alors tout à fait factice (”spurious”), car elle est due au hasard, et ne consent en aucun cas de prédire ou d’agir. Ainsi, pour ne pas penser, ces auteurs d’algorithmes qui disent ignorer par principe la théorie des algorithmes, la théorie ergodique et celle combinatoire des nombres, convoquées dans notre article, sont confrontés aux limites internes démontrées par ces mêmes théories. L’aléatoire s’infiltre inévitablement dans les très grands ensembles de nombres, rendant périlleuse toute prédiction sans le recours à une pensée qui donne un sens et qui permette de choisir ce qui compte, ce qu’on peut mesurer, associer à un nombre, pensée nécessaire pour comprendre et, si possible, prédire. Par ailleurs, la force de la connaissance scientifique réside aussi dans le fait de savoir démontrer les limites de chaque théorie, de pouvoir expliciter la perspective qui permet de faire des sciences : celui qui prétend comprendre ou tout faire avec un seul objet ou un seul instrument, l’ADN, les algorithmes … est certainement dans l’erreur. Mais j’insiste : l’ADN, les algorithmes… sont très importants, leur science essentielle. Le premier est l’incroyable trace chimico-physique de l’évolution, continuellement employée par la cellule pour produire des protéines, à partir du mouvement brownien du protéome (qui est d’ailleurs le tout premier aléatoire fonctionnel en biologie). Les seconds, les algorithmes, sont en train de changer nos vies, potentiellement en mieux, si toutefois on tient compte des limites de toute approche monocorde du réel (voir NegRes et Incomplétude).
Dans cette folie du « tout est instructions et règles formelles », avec une pointe d’aléatoire généré ad hoc, on fait souvent référence à Alan Turing, inventeur de la Logical Computing Machine (1936), fondement mathématique des ordinateurs, mais avec une interprétation dangereusement erronée de son travail. Ainsi, outré, j’ai pris une feuille et un stylo (non, d’accord, j’ai ouvert mon ordinateur avec Linux) et je lui ai écrit une lettre (à vrai dire j’ai été invité à lui écrire). J’espère qu’elle pourra aider à aller outre un imaginaire collectif, tout comme il a su lui-même le faire en rendant fausses des hypothèses communes, par son résultat de ”non-calculabilité”, afin de penser la « prochaine machine ». En effet, entre nous, cette machine et ses puissants réseaux sont peut être un peu ennuyants, avec leurs itérations toujours à l’identique : si on démarre et redémarre la simulation numérique d’une turbulence, avec les même données initiales, ou si l’on ouvre une page web au Japon, elles seront toujours identiques. Face à une dynamique physique non linéaire, comme pour une structure linguistique, tout cela est insensé puisque aucun ouragan ni aucun humain ne répétera jamais rien à l’identique. Et qui plus est, en réseau, les méthodes raffinées de ”interleaving” et de ”sémaphores” rendent sans effet l’aléatoire du continu spatio-temporel et de réseau. Ceci a pour conséquence un « do not care », comme disent les experts, les vrais, ceux de l’informatique complexe de la concurrence et des réseaux, qui arrivent à les faire fonctionner avec une exactitude informatique, selon les règles, éliminant le bruit. En fait, contre l’image du sens commun de l’informatique, propre à la biologie moléculaire dominante et à la gouvernance par la règle formelle, l’informatique comme science, aujourd’hui, analyse et fait un vaste usage de l’aléatoire, du calcul stochastique, des dynamiques de réseaux aux techniques aléatoires de codage, quoique dans un sens fort différent du biologique, disions-nous, BraLo : on analyse et utilise du bruit et des moyennes, rien à voir avec le ”bricolage” évolutif d’événements rares, le changement de l’espace des phases (voir Historicity)
Il est du devoir des sciences de mettre en évidence la diversité de l’humain et dans l’humain, à partir du biologique, où la diversité, et non l’identité, où la variante inattendue, le ”hopeful monster” de la théorie de l’évolution, n’est pas un bruit qu’il faut éliminer ou utiliser de façon stochastique, mais est ce qui rend possible le vivant, selon la grande intuition de Darwin (voir les articles 5 et 7 dans LoSo-mine). Cela nous permettra de mieux nous servir de cette formidable machine à état discret et de ses réseaux, et certainement d’en inventer d’autres, tout comme les êtres humains sauront certainement le faire, si nous n’identifions pas cette machine et ses algorithmes au monde, si nous abandonnons cette obligation de travailler dans les mêmes modalités de recherche, évalués par des techniques sans pensée et normalisatrices, en compétition entre chercheurs formatés avec des objectifs presque identiques. La recherche scientifique, c’est le dialogue difficile entre des perspectives lointaines, c’est la collaboration entre des sujets différents avec des idées improbables, mais profondes. Pour faire de la science, il faut de la démocratie, et la science est une composante essentielle de la démocratie.