En mathématiques, en analyse numérique, l'interpolation polynomiale est une technique d'interpolation d'un ensemble de données ou d'une fonction par un polynôme. En d'autres termes, étant donné un ensemble de points (obtenu, par exemple, à la suite d'une expérience), on cherche un polynôme qui passe par tous ces points, p(xi) = yi, et éventuellement vérifie d'autres conditions, de degré si possible le plus bas.
Cependant, dans le cas de l'interpolation lagrangienne, par exemple, le choix des points d'interpolation est critique. L'interpolation en des points régulièrement espacés peut fort bien diverger même pour des fonctions très régulières (phénomène de Runge).
Le théorème de l'unisolvance précise qu'il n'existe qu'un seul polynôme p de degré inférieur ou égal à n défini par un tel ensemble de n + 1 points.
On voit aisément que la combinaison linéaire p ( x ) = ∑ i = 0 n y i L i ( x ) {\displaystyle p(x)=\sum _{i=0}^{n}y_{i}L_{i}(x)} vérifie bien p ( x i ) = y i , ∀ i ∈ { 0 , … , n } {\displaystyle p(x_{i})=y_{i},\forall i\in \{0,\ldots ,n\}} si les polynômes ( L i ) i ∈ { 0 , … , n } {\displaystyle (L_{i})_{i\in \{0,\ldots ,n\}}} vérifient L i ( x j ) = δ i j = { 1 si i = j 0 sinon {\displaystyle L_{i}(x_{j})=\delta _{ij}={\begin{cases}1&{\text{si }}i=j\\0&{\text{sinon}}\end{cases}}} (voir symbole de Kronecker). Il est tout aussi évident que c'est bien le cas pour L i ≜ ∏ j = 0 , j ≠ i n x − x j x i − x j {\displaystyle L_{i}\triangleq {\prod _{j=0,j\neq i}^{n}}{\frac {x-x_{j}}{x_{i}-x_{j}}}} . La propriété caractéristique L i ( x j ) = δ i j {\displaystyle L_{i}(x_{j})=\delta _{ij}} implique immédiatement que la famille ( L i ) {\displaystyle (L_{i})} est libre, donc implique une base R n [ x ] {\displaystyle \mathbf {R} _{n}[x]} , appelée « base de Lagrange » (ou « base lagrangienne »), relative à la famille ( x i ) i ∈ { 0 , … , n } {\displaystyle (x_{i})_{i\in \{0,\ldots ,n\}}} .
L'erreur d'interpolation lors de l'approximation d'une fonction f, c'est-à-dire : lorsque yi = f(xi) dans ce qui précède, est donnée par une formule de type Taylor-Young :
Si f est n + 1 fois différentiable sur I = [min{x0, …, xn, x} ; max{x0, …, xn, x}] alors ∃ ξ ∈ I f ( x ) − p n ( x ) = f ( n + 1 ) ( ξ ) ( n + 1 ) ! ∏ i = 0 n ( x − x i ) . {\displaystyle \exists \xi \in I\quad f(x)-p_{n}(x)={\frac {f^{(n+1)}(\xi )}{(n+1)!}}\prod _{i=0}^{n}(x-x_{i}).}
Si f est n + 1 fois différentiable sur I = [min{x0, …, xn, x} ; max{x0, …, xn, x}] alors
L'existence d'un tel ξ se démontre en appliquant de manière itérée le théorème de Rolle[1] :
Soit x ∈ R {\displaystyle x\in \mathbb {R} } . Si x est un point d'interpolation, f(x) – pn(x) = 0 et la formule est vérifiée.
Dans le reste de la démonstration, on suppose que x n'est pas une abscisse d'interpolation. Introduisons une fonction auxiliaire g :
Cette fonction g possède n + 2 racines distinctes :
Par application du théorème de Rolle, g', dérivée de g, possède n+1 racines distinctes (toutes situées exactement entre deux racines successives de g). En appliquant encore n fois le théorème de Rolle, on obtient que ∃ ξ ∈ I {\displaystyle \exists \xi \in I} tel que 0 = g ( n + 1 ) ( ξ ) = f ( n + 1 ) ( ξ ) − f ( x ) − p n ( x ) ∏ i = 0 n ( x − x i ) ( n + 1 ) ! {\displaystyle 0=g^{(n+1)}(\xi )=f^{(n+1)}(\xi )-{\frac {f(x)-p_{n}(x)}{\prod _{i=0}^{n}(x-x_{i})}}(n+1)!} (puisque la dérivée d'ordre n+1 de pn est nulle).
En isolant f(x) – pn(x) on obtient le résultat escompté :
Il est intéressant de noter que cette démonstration reste valide pour le cas de l'extrapolation, i.e. pour x {\displaystyle x} pris en dehors de l'intervalle délimité par les points d'interpolations I d = [ min ( x 0 , … , x n ) ; max ( x 0 , … , x n ) ] ⊂ I {\displaystyle I_{d}=[\min(x_{0},\ldots ,x_{n});\max(x_{0},\ldots ,x_{n})]\subset I} . Dans ce cas cependant, il est possible que ξ {\displaystyle \xi } soit lui aussi en dehors de cet intervalle.
Dans le cas de l'interpolation ou de l'extrapolation, on peut majorer l'erreur comme suit :
où l'on souligne la dépendance en x {\displaystyle x} de l'intervalle I {\displaystyle I} .
Quand les points sont uniformément répartis, c’est-à-dire x i = x 0 + i h , ∀ i ∈ { 1 , … , n } , ∀ h ≠ 0 {\displaystyle x_{i}=x_{0}+ih,\forall i\in \{1,\ldots ,n\},\forall h\neq 0} , il se produit en général une aggravation catastrophique de l'erreur d'interpolation, connue sous le nom de phénomène de Runge, à mesure que le nombre de points augmente.