Algorithmes

Accueil

Application à l'inversion de matrice

Propagation d'erreur sur une fonction de plusieurs variables

2 Application à la droite de régression

1 Algorithmes

2 Application à la droite de régression

3 Application à l'inversion de matrice

4 Application aux fonctions financières


  Ici les dérivées partielles sont facilement calculables, les deux algorithmes, classique et différences finies, conduisent à des formules identiques.


2.1 Coefficients de la droite de régression

  La détermination des paramètres de la droite des moindres carrés est suffisamment simple pour que l'erreur puisse encore se calculer analytiquement.
  Soit une série de n valeurs expérimentales, Y1, Y2 ...Yn, entachées d'erreur, y1, y2 ...yn , fonction d'une variable X selon :

  Si les erreurs en abscisse sont nulles ou négligeables, calculer la droite de régression consiste à déterminer les coefficients A et B qui minimisent la somme des carrés construits entre chacun des points et la droite.

  A et B se calculent par deux formules très classiques :

B s'exprime plus simplement par :


2.2 Algorithme aux dérivées partielles

  Pour regrouper les valeurs de Y, les variables A et B peuvent aussi s'exprimer sous la forme:

  Seules les erreurs sur les n valeurs de Y étant prises en compte, les erreurs a et b, seront données par :

a et b vaudront donc :


2.3 Algorithme aux différences finies

  Considérons l'erreur sur la pente :
  Elle est donnée par

 

soit

 

  En remplaçant au numérateur Y par :

on défini Ai

 

d'où

 

soit

qui correspond effectivement à l'erreur sur la pente de la droite de régression, telle qu'elle a été calculée avec l'algorithme classique. Il en est de même pour b : les deux méthodes de calcul mènent au mêmes résultats.


Extraire la page pour l'enregistrer ou l'imprimer