8. I.A.D., complexité, émergence
Jusqu'à présent, nous avons considéré
les connaissances détenues par un expert ou une base de données. Dans ce
chapitre, nous allons nous intéresser aux connaissances qui émergent de
non-connaissances éparses.
Le système nerveux d'une fourmi est
composé de quelques milliers de neurones. C'est donc un automate, c'est-à-dire
"quelque chose" qui, recevant un stimulus, produit une réponse prévisible. A
ceci près (et c'est toute l'astuce) que, de temps en temps, elle ne produit pas
la réponse prévue (ou n'a pas perçu le stimulus?).
Bref, c'est ultra-stupide.
Maintenant, mettez-en quelques dizaines de milliers ensemble, et vous obtenez un
"être" capable de résoudre des problèmes assez compliqués : construire un nid
dans lequel la température et le degré hygrométrique sont constants quelles que
soient les conditions extérieures, aller en construire un autre si les
conditions se dégradent, trouver de la nourriture en contournant les obstacles,
etc. Prenons ce dernier exemple :
Une
fourmi, qui se promenait au hasard, découvre de la nourriture. Elle en charge
autant qu'elle peut, et revient au nid, en déposant sur son chemin des gouttes
de phéromone.
Les fourmis
qui se promènent dans le coin découvrent la trace et la suivent (vers la
nourriture, les gouttes sont en pointe).
La trace de phéromone s'en trouve renforcée,
et attire de plus en plus de fourmis.
La source s'épuise, mais une fourmi qui ne
fait pas comme les autres en trouve une autre.
Bientot, la première piste disparaitra, car
la phéromone s'évapore.
Si nous regardons la fourmilière, nous sommes
en droit de dire qu'elle détient des connaissances extrèmement puissantes pour,
par exemple, trouver de la nourriture. Nous pouvons même être tentés de chercher
où se trouve l'intelligence qui régit cela, et de l'attribuer à la Reine
(puisqu'elle est grosse et au milieu). En fait, cette "reine" n'est qu'une
pauvre pondeuse. L'intelligence est collective.
L'"intelligence" de la
fourmilière est la somme de la "stupidité" de toutes les fourmis ; on parle,
dans ce cas, d'émergence, en contradiction profonde avec le principe attribué à
Aristote "le tout est la somme des parties".
Cette notion bottom-up nous est
peu familière, car nous avons été plongés tout petits dans le
réductionnisme top-down : pour comprendre un phénomène, il suffit
de le découper en sous-phénomènes. Exemple : pour comprendre la vie, couper le
corps en morceaux.
En fait, c'est une question d'échelle : si
je regarde la fourmi, je vois un certain comportement, si je regarde la
fourmilière j'en vois un autre. Le problème (s'il y en a un) n'est donc pas dans
les phénomènes, mais dans ma façon de les regarder.
Remarquer d'ailleurs que
mon "intelligence" est produite par 12 milliards de neurones très stupides,
baignant dans quelques centaines de milliards d'autres cellules, elles-mêmes
composées de ...
Nous avons parlé au 1.1. de la
complexité des algorithmes (nombre d'opérations en fonction de la taille du
problème) et, par extension, de la complexité des problèmes (complexité du
meilleur algorithme possible). Nous allons ici reprendre ce problème sous un
autre angle, que l'on peut attribuer à Kolmogorov (1903-1987). Considérons le
nombre "111...1" obtenu en écrivant mille fois 1. Je peux écrire un programme
qui écrive ce nombre puis s'arrête : pour i variant de 1 à 1000
écrire "1"
finpour
Mon programme comporte 45 caractères, pour écrire un nombre de 1000
caractères. Bon rendement! Maintenant, considérons un nombre obtenu en tirant
aléatoirement des chiffres, mille fois. Le seul programme capable de l'écrire
puis de s'arrêter, est : écrire "..."
Il comporte 1009 caractères. On peut ainsi définir une échelle de
complexité, en faisant le rapport entre la taille du programme et la taille de
son produit. On peut ainsi définir proprement la notion
d'aléatoire : c'est quand ce rapport est supérieur à 1. En
d'autres termes, on a une mesure de l'ignorance du programmeur (dans le premier
exemple, un mauvais aurait écrit mille fois "écrire 1").
Par exemple, si les
résultats d'une expérience donnent 1, 6, 11, 16, 21, vous pouvez considérer que
le phénomène est complexe, tant que vous n'avez pas vu qu'il suffisait d'ajouter
5 à chaque fois.
Une autre définition possible de la complexité est la
suivante : je dis qu'un phénomène est complexe si une théorie T1 ne
rend pas compte de la totalité du phénomène, qu'une théorie T2 n'en
rend pas non plus totalement compte, mais qu'à elles deux elles en rendent
compte. Je dis que le phénomène est très complexe s'il me faut trois théories
pour le couvrir, etc.
Exemple : la lumière au début du
XXèmesiècle, dont certains comportements s'expliquent par la théorie
ondulatoire, et les autres par la théorie corpusculaire.
Il est, je pense,
facile de se convaincre ici encore, que la complexité n'est pas inhérente au
phénomène, mais à l'inadéquation de nos théories.
On peut désormais faire le
lien entre la notion d'émergence et celle de complexité : il y a émergence
lorsque la complexité diminue par un changement d'échelle.
Par exemple, le
météorologue est incapable de prévoir la trajectoire d'une goutte (?) d'eau,
mais il peut prévoir la trajectoire du nuage, et à quels moment et endroit il va
donner de la pluie.
Vous êtes en droit de vous demander
pourquoi j'ai introduit ces notions dans un cours sur la validation de
connaissances dans un DEA sur l'ECD. La raison est qu'il ne faut pas se tromper
de cible. Le réductionnisme, dans lequel vous et moi avons été élevés, nous
entraine parfois à chercher des connaissances sur les parties pour résoudre les
problèmes du tout. C'est, à mon avis, un réflexe dont il convient de se méfier.
D'autant que, de plus en plus, nous allons nous tourner vers des sciences dites
"molles" (médecine, sociologie...). Aller chercher des connaissances fines sur
le comportement des individus pour prévoir le comportement d'une foule est, à
mon avis, une perte de temps.
Le terme "I.A." a été
forgé par McCarthy (le génial père de Lisp, pas le sénateur fasciste), dans le
but de "vendre" sa science. Le terme "V.A." procède de la même escroquerie
intellectuelle. Et je ne parle pas des "algorithmes génétiques"... qui font
pleurer de rire les généticiens.
Vous entendrez souvent parler de "Systèmes
Multi-Agents" ; cette expression recouvre tout et n'importe quoi, de l'IAD (dont
nous allons reparler) jusqu'à la programmation structurée (modules), connue
depuis 30 ans.
Il faut cependant reconnaître que l'analogie avec des
phénomènes observables dans "la Nature" permet :
- d'avoir des idées
- de se faire comprendre (donc financer :-)
Il y a quelques
décennies, Bénard avait constaté un phénomène surprenant : si l'on chauffe un
liquide visqueux dans une poële, on voit apparaître des "cellules", c'est-à-dire
une structure. Ilya Prigogine reçut le Prix Nobel pour l'explication qu'il en
fournit.
Maturana et Varela nous ont mis la puce (pardon) à l'oreille en
1980, en inventant la notion d'auto-poïèse. Résumons abruptement :
le Second Principe de la Thermodynamique montre qu'un système fermé ne peut que
dégénerer, c'est-à-dire perdre sa structure ("ordre"). Or nous constatons qu'un
enfant (humain, animal, ou végétal) croît, puis se reproduit.
Le Second
Principe n'est pas en cause, puisque ces systèmes ne sont pas isolés. Mais
comment expliquer cette néguentropie? Maturana et Varela insistent sur la notion
de boucle sensori-motrice, à travers une peau :
j'agis sur mon environnement, et je le perçois.
Je dis bien "et" et non
pas "puis", et encore moins "donc" : la notion de causalité est profondément
remise en question, comme trop simple.
Chapitre précédent Chapitre suivant Table des matières
Attention, ce fichier n'est peut-être plus d'actualité s'il est dans votre cache
; vérifiez la date du copyright, et faites éventuellement un 'reload'.
©
Jean-Marc Fouet, 1-11-1999