Trace d'exécution d'un algorithme et complexité

Trace d'exécution d'un algorithme

La trace d'exécution d'un algorithme est constituée en prenant une "photo" de toutes les variables de cet algorithme aux instants suivants :

  • au début

  • à chaque while

  • à la fin

La trace est un "compte-rendu" de l'exécution de l'algorithme.

Considérons l'algorithme suivant :

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
"""
:entrée n:  int, AFFECTÉ précédemment
:pré-cond:  n ≥ 0
:sortie r:  int, AFFICHÉ à l'écran
:post-cond: r est la partie entière de la racine de n
"""
r = 0
while r*r <= n:
  r = r+1
r = r-1
print(r)

La trace d'exécution de cet algorithme, pour n=5, est la suivante

#ligne

n

r

commentaire

1

5

?

8

5

0

0×0 ≤ 5, on entre dans la boucle → ligne 9

8

5

1

1×1 ≤ 5, on entre dans la boucle → ligne 9

8

5

2

2×2 ≤ 5, on entre dans la boucle → ligne 9

8

5

3

3×3 > 5, on sort de la boucle → ligne 10

11

5

2

« 2 » est affiché

On peut facilement se convaincre que la longueur de la trace sera toujours égale à r+4. En effet :

  • la valeur finale de r correspond au nombre de fois où on est rentré dans la boucle, moins 1 (à cause de la ligne 13).

  • La taille de la trace est ici égale :

    • au nombre de fois où on est entré dans la boucle,

    • plus 1 pour le passage à la ligne 13 qui sort de la boucle,

    • plus 1 pour la photo de départ,

    • plus 1 pour la photo à la fin,

soit (nombre de passages dans la boucle) + 3, soit r + 4.

Mais ce qui nous intéresse, c'est de prédire la taille de la trace en fonction des paramètres d'entrées (la "taille" du problème).

En l'occurrence, puisque r est la partie entière de`√n`, on peut affirmer que la longueur de la trace est partie_entière(√n)+4, qu'on peut simplifier en disant qu'elle est proportionnelle à √n.

Complexité

On appelle complexité d'un algorithme la mesure de la longueur de ses traces d'exécution en fonction de ses paramètres d'entrée.

Ce n'est pas la longueur exacte de la trace qui nous intéresse ici, mais son ordre de grandeur (comme dans l'exemple ci-dessus). C'est pourquoi on utilise la notation 𝓞(...) qui sert justement à représenter les ordres de grandeur.

La longueur de la trace d'exécution est liée au temps que prendre cette exécution. Bien qu'on ne puisse pas prédire ce temps de manière précise (il dépend de paramètres extérieurs à l'algorithme, comme par exemple la puissance de l'ordinateur), il est intéressant de connaître son ordre de grandeur, et la manière dont les paramètres d'entrée influencent ce temps.

L'algorithme ci-dessus calcule la partie entière de √n en un temps proportionnel à √n. On dira qu'il a « un temps d'exécution en 𝓞(√n) ».

On peut faire mieux avec l'algorithme ci-dessous :

"""
:entrée n:  int, AFFECTÉ précédemment
:pré-cond:  n ≥ 0
:sortie r:  int, AFFICHÉ à l'écran
:post-cond: r est la partie entière de la racine de n
"""
min = 0
max = n
while max-min > 1:
    moy = (max+min)//2
    if moy*moy <= n:
        min = moy
    else:
        max = moy
    r = min
print(r)

L'algorithme ci-dessus applique une recherche dichotomique. On utilise le fait que :

  • la racine de n est forcément comprise entre 0 et n

  • les racines de deux nombres sont toujours dans le même ordre que ces nombres (la fonction racine est monotone croissante).

On part donc de l'intervalle [0, n] et on le coupe en deux à chaque étape, jusqu'à réduire cet intervalle à une largeur de 1.

Le nombre d'étape (et donc la longueur de la trace) est proportionnel au nombre de fois où l'on peut diviser n par 2, c'est-à-dire le logarithme à base 2 de n, 𝓞(log₂(n)).

Complexité avec plusieurs paramètres d'entrée

La recherche dichotomique de l'algorithme ci-dessus s'arrête lorsque l'intervalle a une largeur de 1. Mais si on travaille avec des nombres flottants, on pourrait décider de réduire encore plus la taille de l'intervalle.

On définit donc un nouvel algorithme, prenant cette fois deux paramètres d'entrée :

  • x, le nombre flottant dont on veut calculer la racine carrée,

  • erreur, l'erreur maximale que l'on accepte d'avoir sur le résultat

## exemple d'entrées
x=500
erreur=0.001

"""
:entrée x:      float, AFFECTÉ précédemment
:entrée erreur: float, AFFECTÉ précédemment
:pré-cond:      x ≥ 0
:pré-cond:      erreur > 0
:sortie r:      float, AFFICHÉ à l'écran
:post-cond:     'r' est la racine de 'x' à 'erreur' près
"""
min = 0
max = x
while max-min > erreur:
   moy = (max+min)/2
   if moy*moy <= x:
       min = moy
   else:
       max = moy
   r = min
print(r)

# pour vérifier
print(r*r)

L'algorithme ci-dessus a une complexité en 𝓞(log₂(n/erreur), ce qui signifie que le temps d'exécution augmente lorsque n augmente, mais aussi lorsque erreur diminue. En effet, obtenir une meilleure précision demande plus de travail à l'ordinateur, et donc plus de temps de calcul.