Approximation d'une fonction avec une analyse régressive

Ce calculateur en ligne utilise plusieurs modèles de régressions simples pour approximer une fonction donnée suivant un ensemble de points.

Cette page existe grâce aux efforts des personnes suivantes :

Timur

Timur

Gaulthier Marrel

Créé: 2017-12-10 03:05:38, Dernière mise à jour: 2020-11-03 14:19:34
Creative Commons Attribution/Share-Alike License 3.0 (Unported)

Ce contenu est sous License Creative Commons Attribution/Partage à l'Identique 3.0(Unported). Cela signifie que vous pouvez redistribuer ou modifier librement ce contenu avec les mêmes modalités de licence et que vous devez créditer l'auteur original en plaçant un lien hypertexte de votre site vers l'œuvre https://fr.planetcalc.com/5992/. Vous ne pouvez pas modifier (le cas échéant) les références dans le contenu de l'œuvre originale.

Le problème de l'approximation de fonction nous pousse à sélectionner une fonction parmi une classe bien définie qui correspond étroitement ("approximativement") à la fonction cible.

Ce calculateur utilise les tableaux de données de fonctions cibles fournies {x, f(x)} pour construire plusieurs modèles de régression, soit régression linéaire, régression quadratique, régression cubique, régression puissance, régression logarithmique, régression hyperbolique, régression exponentielle ab, régression exponentielle. Les résultats peuvent être comparés en utilisant le coefficient de corrélation, le coefficient de détermination, l'erreur relative moyenne (erreur standard de la régression) et visuellement sur le graphique. La théorie et les fonctions sont après le calculateur, comme d'habitude.

PLANETCALC, Approximation d'une fonction avec une analyse régressive

Approximation d'une fonction avec une analyse régressive

Chiffres après la virgule décimale : 4
Régression linéaire
 
Coefficient de corrélation linéaire
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression quadratique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression cubique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression puissance
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression exponentielle ab
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression logarithmique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression hyperbolique
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Régression exponentielle
 
Coefficient de corrélation
 
Coefficient de détermination
 
Erreur relative moyenne, %
 
Résultats
Le fichier est très volumineux; un ralentissement du navigateur peut se produire pendant le chargement et la création.

Régression linéaire

Equation :
\widehat{y}=ax+b

Coefficient a
a&=\frac{\sum x_i \sum y_i- n\sum x_iy_i}{\left(\sum x_i\right)^2-n\sum x_i^2}

Coefficient b
b&=\frac{\sum x_i \sum x_iy_i-\sum x_i^2\sum y_i}{\left(\sum x_i\right)^2-n\sum x_i^2}

Coefficient de corrélation linéaire
r_{xy}&=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{\left(n\sum x_i^2-\left(\sum x_i\right)^2\right)\!\!\left(n\sum y_i^2-\left(\sum y_i\right)^2 \right)}}

Coefficient de détermination
R^2=r_{xy}^2

Erreur standard de la régression
\overline{A}=\dfrac{1}{n}\sum\left|\dfrac{y_i-\widehat{y}_i}{y_i}\right|\cdot100\%

Régression quadratique

Equation :
\widehat{y}=ax^2+bx+c

Système d'équations pour déterminer a, b et c
\begin{cases}a\sum x_i^2+b\sum x_i+nc=\sum y_i\,,\\[2pt] a\sum x_i^3+b\sum x_i^2+c\sum x_i=\sum x_iy_i\,,\\[2pt] a\sum x_i^4+b\sum x_i^3+c\sum x_i^2=\sum x_i^2y_i\,;\end{cases}

Coefficient de corrélation
R= \sqrt{1-\frac{\sum(y_i-\widehat{y}_i)^2}{\sum(y_i-\overline{y})^2}},

\overline{y}= \dfrac{1}{n}\sum y_i

Coefficient de détermination
R^2

Erreur standard de la régression
\overline{A}=\dfrac{1}{n}\sum\left|\dfrac{y_i-\widehat{y}_i}{y_i}\right|\cdot100\%

Régression cubique

Equation :
\widehat{y}=ax^3+bx^2+cx+d

Système d'équations pour déterminer a, b, c et d
\begin{cases}a\sum x_i^3+b\sum x_i^2+c\sum x_i+nd=\sum y_i\,,\\[2pt] a\sum x_i^4+b\sum x_i^3+c\sum x_i^2+d\sum x_i=\sum x_iy_i\,,\\[2pt] a\sum x_i^5+b\sum x_i^4+c\sum x_i^3+d\sum x_i^2=\sum x_i^2y_i\,,\\[2pt] a\sum x_i^6+b\sum x_i^5+c\sum x_i^4+d\sum x_i^3=\sum x_i^3y_i\,;\end{cases}

Coefficient de corrélation, coefficient de détermination, erreur standard de la régression - formules identiques à celles de la régression quadratique.

Régression puissance

Equation :
\widehat{y}=a\cdot x^b

Coefficient b
b=\dfrac{n\sum(\ln x_i\cdot\ln y_i)-\sum\ln x_i\cdot\sum\ln y_i }{n\sum\ln^2x_i-\left(\sum\ln x_i\right)^2 }

Coefficient a
a=\exp\!\left(\dfrac{1}{n}\sum\ln y_i-\dfrac{b}{n}\sum\ln x_i\right)

Coefficient de corrélation, coefficient de détermination, erreur standard de la régression - les mêmes formules que ci-dessus.

Régression exponentielle ab

Equation :
\widehat{y}=a\cdot b^x

Coefficient b
b=\exp\dfrac{n\sum x_i\ln y_i-\sum x_i\cdot\sum\ln y_i }{n\sum x_i^2-\left(\sum x_i\right)^2 }

Coefficient a
a=\exp\!\left(\dfrac{1}{n}\sum\ln y_i-\dfrac{\ln b}{n}\sum x_i\right)

Coefficient de corrélation, coefficient de détermination, erreur standard de la régression - identiques.

Régression hyperbolique

Equation :
\widehat{y}=a + \frac{b}{x}

Coefficient b
b=\dfrac{n\sum\dfrac{y_i}{x_i}-\sum\dfrac{1}{x_i}\sum y_i }{n\sum\dfrac{1}{x_i^2}-\left(\sum\dfrac{1}{x_i}\right)^2 }

Coefficient a
a=\dfrac{1}{n}\sum y_i-\dfrac{b}{n}\sum\dfrac{1}{x_i}

Coefficient de corrélation, coefficient de détermination, erreur standard de la régression - identiques à ceux ci-dessus.

Régression logarithmique

Equation :
\widehat{y}=a + b\ln x

Coefficient b
b=\dfrac{n\sum(y_i\ln x_i)-\sum\ln x_i\cdot \sum y_i }{n\sum\ln^2x_i-\left(\sum\ln x_i\right)^2 }

Coefficient a
a=\dfrac{1}{n}\sum y_i-\dfrac{b}{n}\sum\ln x_i

Coefficient de corrélation, coefficient de détermination, erreur standard de la régression - identiques à ceux ci-dessus.

Régression exponentielle

Equation :
\widehat{y}=e^{a+bx}

Coefficient b
b=\dfrac{n\sum x_i\ln y_i-\sum x_i\cdot\sum\ln y_i }{n\sum x_i^2-\left(\sum x_i\right)^2 }

Coefficient a
a=\dfrac{1}{n}\sum\ln y_i-\dfrac{b}{n}\sum x_i

Coefficient de corrélation, coefficient de détermination, erreur standard de la régression - identiques à ceux ci-dessus.

Dérivation des formules

Commençons par le problème :
Nous avons une fonction inconnue y=f(x), donné sous la forme d'un tableau de données (par exemples, celles obtenues lors d'expériences).
Nous avons besoin, de trouver une fonction d'un type connu (linéaire, quadratique, etc.) y=F(x), pour laquelle ces valeurs seront aussi proches que possibles des valeurs du tableau au même point. En pratique, le type de fonction est déterminée en comparant visuellement les points du tableaux aux graphiques des fonctions connues.

En résultat, nous devrions obtenir une formule y=F(x), nommée formule empirique (équation régressive, approximation de la fonction) qui nous permet de calculer y pour des valeurs de x non présentes de le tableau. Donc la formule empirique "lisse" les valeurs de Y.

Nous utilisations la Méthode des moindres carrés pour obtenir les paramètres de F qui correspondent le mieux. La meilleure correspondance dans la méthode des moindres carrés tends à minimiser la somme des carrés résiduels, un résiduel étant la différence entre la valeur observée et la valeur correspondante fournie par le modèle.

Ainsi, nous devons trouver une fonction F, de telle sorte que la somme des carrés résiduels S soit minimale
S=\sum\limits_i(y_i-F(x_i))^2\rightarrow min

Décrivons la solution pour ce problème en utilisant une régression linéaire F=ax+b par exemple. Nous devons trouver la meilleure correspondance pour les coefficients a et b, puisque S dépend de a et b. Pour trouver le minimum, nous trouveront les points extrêmes où la dérivée partielle est égale à zéro.

En utilisant la formule de dérivation de fonctions complexes, nous obtiendrons les équations suivantes
\begin{cases} \sum [y_i - F(x_i, a, b)]\cdot F^\prime_a(x_i, a, b)=0 \\ \sum [y_i - F(x_i, a, b)]\cdot F^\prime_b(x_i, a, b)=0 \end{cases}

Pour la fonction F(x,a,b)=ax+b les dérivés partielles sont
F^\prime_a=x,
F^\prime_b=1

En étendant les premières formules avec des dérivés partielles, nous obtiendrons les équations suivantes
\begin{cases} \sum (y_i - ax_i-b)\cdot x_i=0 \\ \sum (y_i - ax_i-b)=0 \end{cases}

Après avoir éliminé les parenthèse, nous obtenons alors :
\begin{cases} \sum y_ix_i - a \sum x_i^2-b\sum x_i=0 \\ \sum y_i - a\sum x_i - nb=0 \end{cases}

A partir de ces équations, nous pouvons obtenir les formules pour a et b, qui seront les mêmes formules que celles listées ci-dessus.

En utilisant la même technique, nous pouvons trouver les formules pour toutes les autres régressions restantes.

URL copiée dans le presse-papiers
PLANETCALC, Approximation d'une fonction avec une analyse régressive

commentaires