Ajustement de courbe à l’aide de méthodes des moindres carrés linéaires sans contrainte et avec contrainte

Ce calculateur en ligne construit le modèle de régression pour correspondre à une courbe en utilisant la méthode des moindres carrés. Si des contraintes supplémentaires sur l'approximation de la fonction sons saisies, le calculateur utilise les multiplicateurs de Lagrange pour trouver les solutions.

Le calculateur ci-dessous utilise la méthode des moindres carrés linéaires pour l'ajustement de courbe, en d'autres termes, pour approximer une fonction variable en utilisant l'analyse de régressions, tout comme le calculateur Approximation d'une fonction avec une analyse régressive. Mais, contrairement au calculateur précédent, celui-ci peut trouver une fonction d'approximation si elle est également contrainte par des points particuliers, ce qui signifie que l'ajustement de courbe calculé doit passer par ces points particuliers.

Les multiplicateurs de Lagrange sont utilisés pour trouver l'ajustement de la courbe en cas de contraintes. Ceci crée la limite d'utilisation de modèle de régression, soit, seul les modèles de régressions linéaires peuvent être utilisés. C'est pourquoi, contrairement au calculateur mentionné précédemment, celui-ci n'inclut pas les régressions puissances et exponentielles. Cependant, il inclut les régressions polynomiales de degrés 4 et 5. Les formules et un récapitulatif théoriques sont disponible en-dessous du calculateur, comme d'habitude.

Notez que si le champ valeurs D x est vide, le calculateur assume que x change à partir de zéro avec une incrémentation de +1.

PLANETCALC, Ajustement de courbe à l’aide de méthodes des moindres carrés linéaires sans contrainte et avec contrainte

Ajustement de courbe à l’aide de méthodes des moindres carrés linéaires sans contrainte et avec contrainte

La fonction doit passer par des points particuliers

objets par page:

Chiffres après la virgule décimale : 4
Régression quadratique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression cubique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression polynomiale de degré 4
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression polynomiale de degré 5
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression linéaire
 
Coefficient de corrélation linéaire
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression logarithmique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression hyperbolique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression polynomiale de degré 6
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression polynomiale de degré 7
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression polynomiale de degré 8
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Résultats
Le fichier est très volumineux; un ralentissement du navigateur peut se produire pendant le chargement et la création.

Moindres carrés linéaires (LLS)

Les moindres carrés linéaires sont l'approximation des moindres carrés d'une fonction linéaire aux données. Et la méthode des moindres carrés est l'approche standard dans l'analyse de régressions afin d'approximer la solution de systèmes surdéterminés (ensembles d'équations dans lesquelles il y a plus d'équations que d'inconnues) en minimisant la somme des carrés des résidus issus des résultats de chaque équation.

Vous pouvez trouver plus d'informations, dont les formules, concernant l'approximation des moindres carrés sur Approximation d'une fonction avec une analyse régressive.

Ici, nous parlerons des modèles de régressions linéaires, puis de l'approximation de la fonction est la combinaison linéaire des paramètres qui doivent être déterminés. Bien sûr, les valeurs déterminées doivent minimiser la somme des carrés des résidus.

Supposons que nous avons un ensemble de points de données $(x_1,y_1), ..., (x_m,y_m)$.

Notre fonction d'approximation est la combinaison linéaire des paramètres à déterminer, par exemple
y(x;a_1,a_2,a_3,a_4,a_5,a_6)=a_1+a_2x+a_3 \cdot ln(x) + ... + a_6x^{10}

Nous pouvons utiliser la notation matricielle pour exprimer les valeurs de cette fonction

\begin{bmatrix} \hat{y}_1 \\ ... \\ \hat{y}_m \end{bmatrix} = \begin{bmatrix} 1 & x_1 & ln(x_1) & ... & x_{1}^{10} \\ ... & ... & ... & ... & ... \\ 1 & x_m & ln(x_m) & ... & x_{m}^{10} \end{bmatrix} \begin{bmatrix} a_1 \\ ... \\ a_6 \end{bmatrix}

Ou, en notation abrégée :

\mathbf{\hat{y}=Xa}

Comme nous utilisons l'approximation des moindres carrés, nous devons minimiser la fonction suivante

f(\mathbf{a})=\sum_{i=1}^m[\hat{y}(x_i;\mathbf{a})-y_i]^2,

ou, en forme matricielle

f(\mathbf{a})=|\mathbf{Xa-y}|^2

Cette valeur est la distance entre le vecteur y et le vecteur Xa. Pour minimiser cette distance, Xa doit être la projection de l'espace des colonnes X et le vecteur Xa-y doit être orthogonal à cet espace.

Ceci est possible lorsque

(X\mathbf{v})^T(X{\mathbf{a}}-\mathbf{y})=\mathbf{v}^T(X^TX{\mathbf{a}}-X^T\mathbf{y})=0,

v - est un vecteur aléatoire dans l'espace des colonnes. Comme il peut être aléatoire, la seule manière de satisfaire la condition ci-dessus est d'avoir

X^TX{\mathbf{a}}-X^T\mathbf{y}=0,

ou

X^TX{\mathbf{a}}=X^T\mathbf{y},

d'où

\mathbf{a}=(X^TX)^{-1}X^T\mathbf{y}

Le calculateur utilise la formule ci-dessus en cas de méthode des moindres carrés linéaires non contrainte.

Multiplicateurs de Lagrange

Maintenant, parlons des contraintes. Celles-ci peuvent être :

  • l'ajustement de la courbe passe par des points particuliers (ceci est pris en charge par le calculateur)
  • la pente de la courbe à des points particuliers doit être égale à des valeurs particulières.

Ainsi, nous avons besoin de trouver la fonction d'approximation, qui d'un côté doit minimiser la somme des carrés,

f(\mathbf{a})=|\mathbf{Xa-y}|^2

et de l'autre côté doit satisfaire aux conditions.

\begin{bmatrix} y_{c_1} \\ ... \\ y_{c_k} \end{bmatrix} = \begin{bmatrix} 1 & x_{c_1} & ln(x_{c_1}) & ... & x_{c_1}^{10} \\ ... & ... & ... & ... & ... \\ 1 & x_{c_k} & ln(x_{c_k}) & ... & x_{c_k}^{10} \end{bmatrix} \begin{bmatrix} a_1 \\ ... \\ a_6 \end{bmatrix}

ou, sous forme matricielle,

\mathbf{b = Ca}

Ceci est appelé l'extremum conditionnel et c'est résolu en construisant le Lagrangien F(a,\lambda) en utilisant les multiplicateurs de Lagrange.

F(a, \lambda)=f(a)+\lambda\varphi(a)

Dans notre cas, le Lagrangien est

F(a, \lambda)=|\mathbf{Xa-y}|^2+\lambda  (\mathbf{Ca - b})

et la tâche est de trouver son extremum. Après quelques dérivations, que je ne listerai pas ici, la formule pour trouver les paramètres est

\begin{bmatrix} a \\ \lambda \end{bmatrix} = \begin{bmatrix} 2X^TX & C^T \\ C & 0 \end{bmatrix}^{-1} \begin{bmatrix} 2X^Ty \\ b \end{bmatrix}

Le calculateur utilise la formule ci-dessus dans le cas d'une méthode des moindres carrés linéaires contrainte

URL copiée dans le presse-papiers
PLANETCALC, Ajustement de courbe à l’aide de méthodes des moindres carrés linéaires sans contrainte et avec contrainte

commentaires