
Définir le processus machinique comme celui qui vise à réduire l'aléa dans la poursuite d'un objectif, plutôt que celui que vise directement un objectif, permet de replacer la machine dans le contexte des lois de la physique qui régissent l'univers. Beaucoup ont eu cette intuition depuis l'antiquité mais la loi fondamentale, la deuxième loi de la thermodynamique, leur échappait. Ainsi ni Archimède, ni De Vinci, ni Newton, pour ne citer qu'eux, n'auraient pu établir de véritable théorie générale de la Machine.
Thermodynamique
La machine révèlera elle-même son secret : au début du 19e siècle, avec l'industrialisation en toile de fond, l'étude des lois physiques s'appliquant aux moteurs a permis de faire émerger les principes fondamentaux de la thermodynamique. La deuxième loi, aussi appelée principe de Carnot (1824), établit l'irréversibilité des phénomènes physiques. En 1865, Clausius approfondit cette théorie et introduit la notion d'entropie comme mesure de la désorganisation d'un système. La deuxième loi de la thermodynamique énonce simplement que, dans un système isolé, l'entropie ne diminue pas avec le temps. En d'autres termes, elle augmente jusqu'à ce que le maximum du chaos soit atteint.
Cette loi a de nombreuses implications qui peuvent nous intéresser dans le cadre d'une théorie de la Machine. Concentrons-nous d'abord sur ceci : si l'on constate que le désordre n'augmente pas, alors soit le chaos est maximal, soit le système n'est pas fermé, c'est à dire que de l'énergie extérieure est constamment ajoutée pour résister à un inéluctable désordre. Le point commun entre toutes les machines, qu'elles soient générales ou spécifiques, est de canaliser cette énergie pour résister. Ceci est valable pour tout processus mécanique, attelage animal, ou procédure organisant des tâches effectuées par des humains.
Les machines spécifiques permettent de maximiser la probabilité de réalisation d'un événement ; les machines générales visent la stabilité du système.
Arrêtons-nous un instant sur la résistance fournie par ces machines générales dont l'unique objet est d'éviter que les éléments du système ne se dispersent. L'équilibre du système repose sur une tension entre deux forces qui s'opposent. Par analogie avec les systèmes planétaires, notre machine générale joue le rôle de la gravité sans laquelle les corps célestes, s'ils avaient même pu se former, dériveraient de façon plus ou moins erratique dans notre univers en expansion1.
Notons que cette analogie n'a cessé d'inspirer les architectes de machines générales depuis la formalisation de la gravitation par Newton en 1687. Chez Beccaria en 17642, le législateur établit des règles s'opposant “aux forces destructives de la pesanteur et met en œuvre celles qui contribuent à la solidité de l'édifice.” Les progrès scientifiques depuis le 18e siècle nous invitent à inverser la vision de Beccaria et à envisager que les règles qui contribuent à la solidité de l'édifice sont analogues à la gravitation plutôt que l'inverse. Mais l'idée d'une résistance, au sens mécanique du terme, a une force naturelle conduisant irrémédiablement au désordre reste valable. Et c'est particulièrement intéressant venant de quelqu'un qui fut probablement plus influencé par Rousseau que par Hobbes.
Il faut toutefois expliciter la conséquence de l'inversion de l'analogie cosmique de Beccaria : si la gravité peut permettre de maintenir le système dans un état d'équilibre qui ne correspond pas au chaos maximal, l'équilibre est précaire et, au-delà d'un certain seuil, le système s'effondre sur lui-même. Contrôler l'augmentation de l'entropie d'un système est une chose, chercher à la réduire en est une autre. Nous avons ici un premier avertissement concernant l'énergie que nous canalisons dans le cadre de nos machines générales.
Il ne faut pas croire en notre contrôle total de la Machine. Le processus machinique n'est pas l'apanage de l'Homme ; l'Homme semble juste la seule espèce à ne pas simplement le subir mais à l'avoir dompté. Car toute forme de vie consomme de l'énergie pour tenter de résister au hasard, à l'incertitude et ultimement au chaos. La Vie pourrait d'ailleurs se résumer à cette résistance. Norbert Wiener développa cette idée dans Cybernétique et Société : L'usage humain des êtres humains en 1950.
L'organisme s'oppose au chaos, à la désintégration, à la mort, comme le message s'oppose au bruit. Pour décrire un organisme, on ne cherche pas à spécifier chaque molécule qu'il contient et à le cataloguer morceau par morceau, mais plutôt à répondre à certaines questions le concernant pour révéler son schéma : un schéma d'autant plus significatif et moins probable que l'organisme devient, pour ainsi dire, plus pleinement un organisme.
Norbert Wiener, 1950
Cette citation recèle deux informations essentielles à notre raisonnement.
D'une part, le schéma auquel Wiener fait référence correspond bien à l'organisation du système, il s'oppose au chaos. Il est décrit comme “moins probable” car la probabilité combinée des caractéristiques présentes dans le système (celles qui caractérisent l'espèce) diminue à mesure que leur nombre augmente. Wiener implique que plus le schéma est complexe et précis, c'est à dire plus la résistance au désordre est forte, plus la forme de vie est évoluée.
La perspective de Wiener se prête à une double interprétation : d'une part, elle pourrait être perçue comme un argument en faveur de la prétendue supériorité humaine ; d'autre part, elle pourrait servir de justification de ses travaux sur la cybernétique. Il faudra l'expliquer et l'illustrer mais gardons-nous de toute forme de conclusion à ce stade. Tout au plus, pouvons-nous constater que le déterminisme est séduisant pour l'Homme quel que soit le niveau de sophistication intellectuelle.
Un exemple plus trivial de notre appétence pour le déterminisme est l'émerveillement, semble-t-il universel, à la vue d'un enfant qui ressemble à l'un de ses parents. Il est difficile de dire si le sentiment est inné ou induit mais nous n'avons jamais entendu parler de cultures tenant une telle ressemblance pour “bizarre” voire “répugnante”.
Théorie de l'information
L'autre aspect important de la citation de Wiener est l'introduction du “message” s'opposant au “bruit” en miroir du schéma s'opposant au chaos. Wiener établit ainsi un pont entre la physique et la théorie de l'information. Ce pont est la pierre angulaire de la cybernétique, théorie du contrôle et la communication dans l'animal et la machine, telle que détaillée dans le très riche ouvrage de 1948. Ce pont nous oblige aussi à faire, dès maintenant, un détour par la théorie de l'information sans attendre d'aborder le sujet du rôle de la communication dans l'organisation des communautés.
La théorie de l'information est toujours associée à Claude Shannon3 qui a créé, ex nihilo, cette branche des mathématiques à la fin des années 1940. La théorie de l'information repose sur la quantification du contenu informatif d'un message non pas en termes d'informations physiquement transmises (nombre de bits) mais en termes de probabilités. Elle a trouvé des applications dans la compression des données, la cryptographie, la détection/correction d'interférences dans les signaux… Cette science a été au cœur du développement de toutes les technologies de communication modernes, y compris pour communiquer avec des objets à des millions de kilomètres dans l'espace.
Il n'y a pas besoin d'être un grand mathématicien pour faire usage de la théorie de l'information. L'un des corollaires essentiels, pour le commun des mortels, est que, plus la probabilité est élevée, moins le volume d'information nécessaire pour transmettre un message est important. Tout le monde ou presque applique la théorie de l'information quotidiennement sans le savoir : lorsque vous envoyez ou recevez un SMS en ignorant des lettres (souvent des voyelles), le message reste compréhensible car vous pouvez mentalement combler les trous. Le remplissage est relativement aisé en raison du nombre limité de lettres parmi lesquelles choisir et les options sont encore moins nombreuses pour créer de vrais mots. Certains bits ne nous apprennent pas grand chose et peuvent donc être supprimés. Il en découle que tout message ou réunion dont le contenu informatif serait nul, c'est-a-dire que l'on n'apprendrait rien de nouveau, n'a pas lieu d'être. Mais paradoxalement l'envoi d'un message qui n'a pas lieu d'être est, en soi, porteur d'information donc il conviendra de s'interroger, au moment d'aborder les phénomènes bureaucratiques, sur ces messages en apparence dépourvus de contenu informatif.
Pour finaliser cette formation express à la théorie de l'information, il faut mentionner qu'il y existe aussi un concept d'entropie (information entropy ou Shannon entropy). Comme en physique, elle est intimement liée aux probabilités. En théorie de l'information, l'entropie correspond à la valeur attendue du contenu informatif. En cas d'entropie très faible, la probabilité d'être surpris par un message reçu est faible, c'est-à-dire qu'il y a très peu de chances que le message vous conduise à mettre à jour votre représentation a priori du sujet du message.
Apprendre
Notre brève présentation de l'entropie doit permettre de saisir un paradoxe qui se présente lorsque l'on traite d'entités capables d'apprendre. Le paradoxe apparaît dès lors que, comme Wiener4, on rapproche les deux notions d'entropie physique et d'entropie en théorie de l'information.
Lorsque l'on a fait l'expérience de quelque chose de complètement inattendu - c'est-à-dire ayant une probabilité perçue de 0 - cet événement n'est plus complètement inattendu. Même si la nouvelle probabilité assignée est de 0,000001% au lieu de 0%, le contenu informatif de la prochaine occurrence de cet événement diminue donc l'entropie, au sens de la théorie de l'information, diminue. En substance, l'apprentissage crée de l'ordre à partir du chaos, ce qui va à l'encontre de la tendance des systèmes physiques à augmenter leur entropie au fil du temps.
La plupart des gens associent directement l'intelligence à la capacité d'apprentissage, mais cette dernière n'est qu'une condition nécessaire à la première ; elle n'est pas suffisante. La capacité d'apprentissage et la Vie sont intimement liées même sous des formes très peu intelligentes.
Les bactéries constituent l'une des premières formes de vie et l'une des plus simples, aussi basique qu'une cellule unique et sans noyau, souvent munie d'un seul chromosome. Elles se reproduisent par fission binaire, c'est-à-dire en produisant des clones. Malgré cette apparente simplicité, ces organismes "apprennent".
Leur génome agit comme un registre des "surprises" qu'elles ont rencontrées au cours de leur évolution. L'illustration parfaite de leur capacité d'apprentissage génétique est CRISPR-Cas9: cette technologie d'édition du génome, désormais déployée dans l'industrie pharmaceutique, est un mécanisme naturel employé par les bactéries pour intégrer des portions d'ADN des virus qui les ont infectées, développant ainsi une défense immunitaire en cas de nouvelle rencontre.
Dans une publication récente, Moody et al. suggèrent que le dernier ancêtre universel commun (dont l'acronyme anglais est LUCA), il y a environ 4,2 milliards d'années, possédait déjà des gènes de CRISPR-Cas9. Ceci renforce la théorie d'un lien complexe entre la Vie et la capacité d'apprentissage par l'encodage dynamique d'informations nouvelles. Bien que les mécanismes précis puissent varier considérablement d'une espèce à l'autre aujourd'hui, cette capacité à apprendre et à s'adapter aux défis environnementaux est commune à la plupart des formes de vie.
L'apprentissage, sous toutes ses formes, a une empreinte énergétique qui se matérialise principalement à deux niveaux : d'abord au cours du processus d'encodage puis, dans un second temps, au cours du processus de récupération et d'interprétation de l'information encodée. Cela vaut aussi bien pour les mécanismes complexes qui sont à l'œuvre dans nos cerveaux, que pour les mécanismes immunitaires décrits précédemment. Si la Vie est synonyme d'apprentissage et que l'apprentissage réduit l'entropie, alors la Vie répond à notre définition de la Machine, même dans son expression la plus simple. Et elle est extrêmement efficiente.
Nous rejoignons ici Guattari dans sa conception que “la machine est préalable à la technique”. Le raisonnement qui nous a mené à Guattari nous a d'ailleurs permis d'explorer certains aspects des deux premières composantes de son concept de machine5:
- la composante “matérielle et énergétique”;
- la composante “diagrammatique et algorithmique”.
Quiconque s'intéresse aux technologies de l'information doit être en admiration devant la machinerie ADN/ARN.
La Vie n'est pas la Machine parfaite
Cependant cette machinerie est loin d'être infaillible. Elle reste sujette à des erreurs qui modifient continuellement le code et maintiennent la Vie sur la voie de la Nature conduisant au chaos. Le désordre peut provenir de plusieurs sources:
- des mutations aléatoires modifient des gènes existants (un petit nombre de séquences de nucléotides qui encodent la fabrication des protéines);
- des gènes de novo apparaissent à la suite de mutations aléatoires sur de l'ADN non-codant (séquences de nucléotides représentant la grande majorité de l'ADN);
- des transferts horizontaux permettent à de l'information génétique d'etre transférée d'une espèce à une autre via des intermédiaires, généralement des bactéries ou des [rétro]virus qui peuvent capter du matériel génétique et/ou l'insérer dans le génome de leurs hôtes. On estime ainsi que jusqu'à 8% du génome humain est constitué de restes de rétrovirus alors que les humains n'utilisent pas [naturellement] CRISPR-Cas9.
Nous retrouvons partout cette tension entre deux forces opposées qui contribuent à l'équilibre fragile d'un système voué à éclater sous les assauts incessants de l'aléa. Dans la nature, l'éclatement crée des sous-systèmes toujours plus spécifiques ou la machine peut focaliser son énergie pour défendre un front toujours plus restreint.
L'Homme jouit d'un statut unique comme seule forme de vie connue à avoir apprivoisé le processus machinique. D'abord encadré, puis optimisé (augmenté ou simplifié), le processus machinique a finalement été généralisé et démultiplié, en empruntant à la Vie une méthode qui a fait ses preuves : découper un système en sous-systèmes ou des machines toujours plus spécialisées combattront le chaos de manière toujours plus efficace.
Notre série sur les Machines Domestiquées va nous conduire à examiner nombre de ces créations humaines. Dans les premiers articles, nous garderons la Vie comme fil conducteur pour montrer comment la Nature a inspiré puis guidé le développement des machines humaines.

