8. I.A.D., complexité, émergence

Jusqu'à présent, nous avons considéré les connaissances détenues par un expert ou une base de données. Dans ce chapitre, nous allons nous intéresser aux connaissances qui émergent de non-connaissances éparses.

8.1. Insectes sociaux

Le système nerveux d'une fourmi est composé de quelques milliers de neurones. C'est donc un automate, c'est-à-dire "quelque chose" qui, recevant un stimulus, produit une réponse prévisible. A ceci près (et c'est toute l'astuce) que, de temps en temps, elle ne produit pas la réponse prévue (ou n'a pas perçu le stimulus?).
Bref, c'est ultra-stupide. Maintenant, mettez-en quelques dizaines de milliers ensemble, et vous obtenez un "être" capable de résoudre des problèmes assez compliqués : construire un nid dans lequel la température et le degré hygrométrique sont constants quelles que soient les conditions extérieures, aller en construire un autre si les conditions se dégradent, trouver de la nourriture en contournant les obstacles, etc. Prenons ce dernier exemple :

Une fourmi, qui se promenait au hasard, découvre de la nourriture. Elle en charge autant qu'elle peut, et revient au nid, en déposant sur son chemin des gouttes de phéromone.
Les fourmis qui se promènent dans le coin découvrent la trace et la suivent (vers la nourriture, les gouttes sont en pointe).

La trace de phéromone s'en trouve renforcée, et attire de plus en plus de fourmis.

La source s'épuise, mais une fourmi qui ne fait pas comme les autres en trouve une autre.

Bientot, la première piste disparaitra, car la phéromone s'évapore.

8.2. Emergence

Si nous regardons la fourmilière, nous sommes en droit de dire qu'elle détient des connaissances extrèmement puissantes pour, par exemple, trouver de la nourriture. Nous pouvons même être tentés de chercher où se trouve l'intelligence qui régit cela, et de l'attribuer à la Reine (puisqu'elle est grosse et au milieu). En fait, cette "reine" n'est qu'une pauvre pondeuse. L'intelligence est collective.
L'"intelligence" de la fourmilière est la somme de la "stupidité" de toutes les fourmis ; on parle, dans ce cas, d'émergence, en contradiction profonde avec le principe attribué à Aristote "le tout est la somme des parties".
Cette notion bottom-up nous est peu familière, car nous avons été plongés tout petits dans le réductionnisme top-down : pour comprendre un phénomène, il suffit de le découper en sous-phénomènes. Exemple : pour comprendre la vie, couper le corps en morceaux.
En fait, c'est une question d'échelle : si je regarde la fourmi, je vois un certain comportement, si je regarde la fourmilière j'en vois un autre. Le problème (s'il y en a un) n'est donc pas dans les phénomènes, mais dans ma façon de les regarder.
Remarquer d'ailleurs que mon "intelligence" est produite par 12 milliards de neurones très stupides, baignant dans quelques centaines de milliards d'autres cellules, elles-mêmes composées de ...

8.3. Complexité

Nous avons parlé au 1.1. de la complexité des algorithmes (nombre d'opérations en fonction de la taille du problème) et, par extension, de la complexité des problèmes (complexité du meilleur algorithme possible). Nous allons ici reprendre ce problème sous un autre angle, que l'on peut attribuer à Kolmogorov (1903-1987). Considérons le nombre "111...1" obtenu en écrivant mille fois 1. Je peux écrire un programme qui écrive ce nombre puis s'arrête :
pour i variant de 1 à 1000
  écrire "1"
finpour
Mon programme comporte 45 caractères, pour écrire un nombre de 1000 caractères. Bon rendement! Maintenant, considérons un nombre obtenu en tirant aléatoirement des chiffres, mille fois. Le seul programme capable de l'écrire puis de s'arrêter, est :
écrire "..."
Il comporte 1009 caractères. On peut ainsi définir une échelle de complexité, en faisant le rapport entre la taille du programme et la taille de son produit. On peut ainsi définir proprement la notion d'aléatoire : c'est quand ce rapport est supérieur à 1. En d'autres termes, on a une mesure de l'ignorance du programmeur (dans le premier exemple, un mauvais aurait écrit mille fois "écrire 1").
Par exemple, si les résultats d'une expérience donnent 1, 6, 11, 16, 21, vous pouvez considérer que le phénomène est complexe, tant que vous n'avez pas vu qu'il suffisait d'ajouter 5 à chaque fois.

Une autre définition possible de la complexité est la suivante : je dis qu'un phénomène est complexe si une théorie T1 ne rend pas compte de la totalité du phénomène, qu'une théorie T2 n'en rend pas non plus totalement compte, mais qu'à elles deux elles en rendent compte. Je dis que le phénomène est très complexe s'il me faut trois théories pour le couvrir, etc.
Exemple : la lumière au début du XXèmesiècle, dont certains comportements s'expliquent par la théorie ondulatoire, et les autres par la théorie corpusculaire.
Il est, je pense, facile de se convaincre ici encore, que la complexité n'est pas inhérente au phénomène, mais à l'inadéquation de nos théories.

8.4. Lien entre les deux notions

On peut désormais faire le lien entre la notion d'émergence et celle de complexité : il y a émergence lorsque la complexité diminue par un changement d'échelle.
Par exemple, le météorologue est incapable de prévoir la trajectoire d'une goutte (?) d'eau, mais il peut prévoir la trajectoire du nuage, et à quels moment et endroit il va donner de la pluie.

8.5. Lien avec ce cours

Vous êtes en droit de vous demander pourquoi j'ai introduit ces notions dans un cours sur la validation de connaissances dans un DEA sur l'ECD. La raison est qu'il ne faut pas se tromper de cible. Le réductionnisme, dans lequel vous et moi avons été élevés, nous entraine parfois à chercher des connaissances sur les parties pour résoudre les problèmes du tout. C'est, à mon avis, un réflexe dont il convient de se méfier. D'autant que, de plus en plus, nous allons nous tourner vers des sciences dites "molles" (médecine, sociologie...). Aller chercher des connaissances fines sur le comportement des individus pour prévoir le comportement d'une foule est, à mon avis, une perte de temps.

8.6. Retour à l'IAD

Le terme "I.A." a été forgé par McCarthy (le génial père de Lisp, pas le sénateur fasciste), dans le but de "vendre" sa science. Le terme "V.A." procède de la même escroquerie intellectuelle. Et je ne parle pas des "algorithmes génétiques"... qui font pleurer de rire les généticiens.
Vous entendrez souvent parler de "Systèmes Multi-Agents" ; cette expression recouvre tout et n'importe quoi, de l'IAD (dont nous allons reparler) jusqu'à la programmation structurée (modules), connue depuis 30 ans.

Il faut cependant reconnaître que l'analogie avec des phénomènes observables dans "la Nature" permet : Il y a quelques décennies, Bénard avait constaté un phénomène surprenant : si l'on chauffe un liquide visqueux dans une poële, on voit apparaître des "cellules", c'est-à-dire une structure. Ilya Prigogine reçut le Prix Nobel pour l'explication qu'il en fournit.
Maturana et Varela nous ont mis la puce (pardon) à l'oreille en 1980, en inventant la notion d'auto-poïèse. Résumons abruptement : le Second Principe de la Thermodynamique montre qu'un système fermé ne peut que dégénerer, c'est-à-dire perdre sa structure ("ordre"). Or nous constatons qu'un enfant (humain, animal, ou végétal) croît, puis se reproduit.
Le Second Principe n'est pas en cause, puisque ces systèmes ne sont pas isolés. Mais comment expliquer cette néguentropie? Maturana et Varela insistent sur la notion de boucle sensori-motrice, à travers une peau : j'agis sur mon environnement, et je le perçois.
Je dis bien "et" et non pas "puis", et encore moins "donc" : la notion de causalité est profondément remise en question, comme trop simple.

Chapitre précédent Chapitre suivant Table des matières

Attention, ce fichier n'est peut-être plus d'actualité s'il est dans votre cache ; vérifiez la date du copyright, et faites éventuellement un 'reload'.
© Jean-Marc Fouet, 1-11-1999