\chapter{Approximations} \section{Introduction} Le but de ce chapitre est de donner les premières notions de la théorie de l'approximation permettant d'aborder la résolution de problèmes tels que : \begin{itemize} \item soit $f(x)$ continue sur $[a;b]$, déterminer dans l'espace des polynôme de degré $n$ celui rend~: $|f(x)-P_n(x)|$ le plus petit possible~; \item déterminer les coefficients $a_k$ qui minimisent la valeur $\int^b_a (f(x).\sum^{n^2}_{k=0}a_k.\varphi_k)^2.\omega(x)dx$ où $\omega(x)$ est le poid. \item Soit $f$ continue et $(n+1)$ points $X_0, X_1, ..., X_n$~:\\ $\exists? P_n(x)/P_n(X_i)=f(X_i)\quad\forall i=0..n$\\ $P_n(x)$ est le polynôme d'interpolation de $f(x)$. \end{itemize} \section{Approximation dans un espace métrique} % 1.1 pour le prof !!! $(E,d)$ est un espace métrique~: il existe une distance $d$~: $$d:E_x E\longmapsto\mathbb{R}_{+}$$ $$(f,\Phi)\longmapsto d(f,\Phi)$$ \begin{enumerate}[(i)] \item $d(f,\Phi)=0\Rightarrow f=\Phi$ \item $d(f,\Phi)=d(\Phi,f)$ \item $d(f,\Phi)\leq d(f,\psi)+d(\psi,\Phi)\quad\forall f,\Phi,\psi\in E$ \end{enumerate} \paragraph{Problème} Soit $(E,d)$ un espace métrique~: $F\subset E$ (sous espace-vectoriel de $E$). Déterminer $\Phi^{*}\in F/d(f,\Phi^{*})=Min d(f,\Phi)\qquad\Phi\in F$. S'il existe, cet élément $\Phi^{*}$ sera appelé meilleur approximation (ou sens de la distance $d$) de $f\in E$. \paragraph{Définition} $E$ est un espace vectoriel normé s'il existe une norme $||f(f)||$, $\forall f\in E$.\\ $d(f,\Phi)=||f-\Phi||$ distance sur $E$. On suppose que $dim(E)<+\infty$ $$||f-\Phi^*||=Min(||f-\Phi||)\qquad\Phi\in F$$ \section{Approximation uniforme} Soit $E=\mathcal{C}([a,b]\in\mathbb{R})={f\text{~continue~} [a,b]\rightarrow\mathbb{R}}$.\\ $E$ est normée $||f||=Max|f(x)|\quad a\leq x\leq b$ $$d(f,\Phi)=||f-\Phi||=Max|f(x)-\Phi(x)|$$ Soit $\mathbb{C}_n$ un sous espace vectoriel de $E$, de dimension $n$.\\ La meilleur approximation uniforme $\Phi^{*}\in\mathcal{E}_n$ de $f\in E$ est donc la fonction définie par~: $$f-\Phi^{*}=Min(Max|f(x)-\Phi(x)|)\qquad\Phi\in\mathcal{E}_n$$ Soit ${\varphi_1,\varphi_2,...,\varphi_n}$ une vase de $\mathcal{E}_n$~: $$\Phi^{*}=\sum^n_{i=1}a_i^{*}.\varphi_i$$ $$||f-\Phi^*||=Min(Max|f(x)-\Phi(x)|)\qquad\Phi\in\mathcal{E}, a\leq x\leq b$$ \subsection{Polynôme de Chibyshev} Les polynômes sont définis pour~: %$${^{T_{n+1}(x)=2x.T(x)-T_{n-1}(x)}_{T(x)=1, T_1(x)=x}$$ $$T_2=2X.T_1(x)-T(x)=2x^2-1$$ $$T_3=2x.T_2(x)-T_1(x)=2x(2x^2-1)-x=4x^3-3x$$ $$T_4(x)=8^4-8x^2+1$$ \paragraph{Propriétés} \begin{enumerate}[(i)] \item $T_n(x)=cos(n.\theta)\qquad -1\leq x\leq 1$ où $x=cos(\theta)\Leftrightarrow\theta=cos(x)\qquad 0\leq\theta\leq\pi$ \item Le coefficient dominant de $T_n(x)$ est $a_n=2^{n-1}$, $T_n(x)=2^{n-1}.X^n...$ \item ${T_0,T_1,T_2,...,T_n}$ est un ensemble de polynômes orthogonaux sur $[-1,1]$ relativement à la fonction poids $\omega(x)=\frac{1}{\sqrt{1-X^2}}$ $$=\int^1_{-1}\frac{T_n(x).T_m(x)}{\sqrt{1-X^2}}dx=0\quad\forall n\neq m\qquad p\text{p. scalaire}$$ \item $T_n(x)=+1;-1;+1;-1;...$\\ Pour $X=1, cos(\frac{\pi}{n}), cos(\frac{2\pi}{n}), cos(\frac{k\pi}{n})$ \end{enumerate} \paragraph{Théorème} Dans l'ensemble des polynômes de degré $n$ ayant le coefficient de tête égal à 1, c'est $T_n^*=\frac{T_n}{2^{n-1}}$ qui réalise la meilleure approximation uniforme de la fonction nulle sur $[-1;1]$. $$||T_n^*||=max|T_n^*(x)|=\frac{1}{2^{n-1}}\qquad -1\leq x\leq 1$$ $$\mathcal{P}_n={\text{polynôme~:~} X^n+a_{n-1}.X^{n-1}+...+a_0}$$ \paragraph{Démonstration} On veut montrer que $||T_n^*||=Min||R_n||\quad R_n\in P_n$. Supposons le contraire~: $\exists R_n\in P_n$ tel que $||R_n||<||T_n^*||=\frac{1}{2^{n-1}}$, $T_n^*-R_n=P_{n-1}$ polynôme de degré $\leq n-1$. $$X_0=1\qquad P_{n-1}(1)=T_n^*(1)-R_n(1)=\frac{1}{2^{n-1}}-R_n(1)>0$$ $$X_1=cos(\frac{\pi}{n})\quad P_{n-1}(X_1)=T_n^*(X_1)-R_n(X_1)=\frac{-1}{2^{n-1}}-R_n(X_1)<0$$ $$X_2=cos(\frac{2\pi}{n})\quad P_{n-1}(X_2)=T_n^*(X_2)-R_n(X_2)=\frac{1}{2^{n-1}}-R_n(X_2)>0$$ $$\vdots$$ $$X_n=cos(\pi)=-1\quad P_{n-1}(X_n)=T_n^*(X_n)-R_n(X_n)=\frac{1}{2^{n-1}}-R_n(X_n)^<_>0$$ Les $(n+1)$ points $X_0=1,...,X_n$ pour lesquels $T_n^*$ prend les valeurs $\frac{1}{2^{n-1}};\frac{1}{2^{n-1}};...$ Donc $P_{n-1}(x)$ possède au moins $n$ racines dans $[-1,1]$. Ceci n'est pas possible car le degré $P_{n-1}\leq n-1$. Donc $||T_n^*||=Min||R_n||\quad R_n\in P_n$.\\ \paragraph{Théorème} Si $P_n\in\mathbb{P}_n={\text{polynôme de degré}\leq n}$ est tel que la fonction erreur $\epsilon_n=f-P_n$ atteint les \emph{valeurs extrêmes alternées} $M;-M;M;...$ à $M=||\epsilon_n||$ en \emph{au moins $n+2$} points $X_1,X_2,...,X_{n+2}\in[a,b]$ alors $P_n$ est le polynôme qui réalise la meilleure approximation de $f$ sur $[a,b] (P_n=P_n^*)$ \paragraph{Démonstration} (Par l'absurde) Supposons $\exists q_n\in\mathbb{P}_n/||f-q_n||<||f-P_n||=||\epsilon_n||=M$, $Max|f(x)-q_n(x)|0$$ $$r_n(x_2)=\epsilon_n(x_2)+q_n(x_2)-f(x_2)=M+q_n(x_2)-f(x_2)<0$$ $$\vdots$$ $$r_n(x_{n+2})=\epsilon_n(x_{n+2})+q_n(x_{n+2})-f(x_{n+2})=M+q_n(x_{n+2})-f(x_{n+2})^>_<0$$ $r_n(x)$ change au moins $(n-1)$ fois de signe dans $[a,b]$ en raison de l'aternance de $\epsilon_n\Rightarrow r_n$ possède au moins $(n+1)$ racines ce qui est impossible. \paragraph{Exercice 1} Polynôme de Chebyshev\\ $$\begin{cases} T_{n+1}(x) & =\quad2x.T_n(x)-T_{n-1}(x)\\ T_0(x) & =\quad 1, T_1(x)=x\\ \end{cases}$$ \begin{enumerate} \item Montrer que $T_n(x)=cos(\theta)\quad|x|\leq 1\quad\theta=arccos(x)$ \item Montere que le coefficient dominant de $T_n$ est $a_n=2^{n-1}$ \item Montrer que $T_n(x)=\frac{1}{2}((x+\sqrt{x^2-1})^n+(x-\sqrt{x^2}-1)^n) \forall x\in\mathbb{R}$ \item Montrer que $\int^1_{-1}\frac{T_n(x).T_m(x)}{\sqrt{1-x^2}}dx=0\quad\forall n\neq m$ \end{enumerate} \begin{enumerate}[1.] \item Par récurence sur $n$~: \end{enumerate} $$\begin{cases} n=0 & T_0(x)=cos(0)=1\\ n=1 & T_1(x)=x=cos(\theta) \\ \end{cases}$$ \paragraph{Hypothèse} Supposons que $T_k(x)=cos(k\theta)$ $$T_{n+1}(x)=2x.T_n(x)-T_{n-1}(x)=2.cos(\theta).cos(n\theta)-cos(n-1)\theta$$ $$=2.cos(\theta).cos(n\theta)-(cos(n\theta).cos(\theta)+sin(\theta). sin(n\theta))$$ $$=cos(\theta).cos(n\theta)-sin(\theta).sin(n\theta)= cos(n+1)\theta$$ \vspace{1em} \begin{enumerate}[2.] \item \end{enumerate} $$\begin{cases} T_{n+1}(x) & =\quad 2x.T_n(x)-T_{n-1}(x)\\ T_0(x) & =\quad 1, T_1(x)=x\\ \end{cases}$$ Supposons que le coefficient dominant de $T_n$ est $a_n=2^{n-1}$ $$T_{n+1}(x)=2x.T(x)-T_{n-1}(x) = 2x.(2^{n-1}.X^n+R_{n-1}(x))-T_{n-1}(x)$$ $$\Rightarrow a_{n+1}=2.2^{n-1}=2^n$$ \vspace{1em} \begin{enumerate}[3.] \item \end{enumerate} $$T_{n+1}=2x.T_n-T_{n-1}$$ $$T_{n+1}-2x.T_n+T_{n-1}=0 \text{(équation récurente)(*)}$$ L'équation caractéristique~: $r^2-2xr+1=0$ 2 solutions particulières de l'équation (*)~: $r_1^n$ et $r_2^n$. En effet $r_1^{n+1}-2x.r_1^n+r_1^{n-1}=r_1^{n-1}(r_1^{n-1}-2x.r_1+1)=0$, de même pour $r_2^n$. La solution générale de $(*)$ est $T_n=\alpha.r_1^n+\beta.r_2^n$ où $\alpha$ et $\beta$ sont déterminées par les conditions initiales. \vspace{1em} \begin{enumerate}[4.] \item \end{enumerate} $$T_{n+1}(x)=2\times T_n(x)-T_{n-1}(x)$$ $$T_n(x)=\cos(n.\theta)\qquad\theta=\arccos(x)\Leftrightarrow$$ $$X=\cos(\theta)\Rightarrow dx=-\sin(\theta)d\theta$$ $$\int^1_{-1}\frac{T_n(x)T_m(x)}{\sqrt{1-x^2}}dx= \int^0_\pi\frac{\cos(n.\theta).\cos(m\theta)}{|\sin(\theta)|}(-\sin(\theta)d\theta) =\int^\pi_0\cos(n\theta)cos(m\theta)d\theta$$ $$\int^\pi_0\cos(n\theta).\cos(m\theta)d\theta= \frac{1}{2}\int^\pi_0\left(\cos(n+m)\theta+\cos(n-m)\theta\right)d\theta$$ $$=\frac{1}{2}\left[\frac{\sin(n+m)\theta}{n+m}+\frac{\sin(n-m) \theta}{n-m}\right]=0$$ \begin{enumerate}[5.] \item \end{enumerate} $$T_n(x)=0\qquad|x|\leq1$$ $$\Leftrightarrow\cos(n\theta)=0\Leftrightarrow n.\Theta=\frac{\pi}{2}+k\pi \Leftrightarrow\theta_k=\frac{\pi}{2n}+\frac{k\pi}{n}$$ Les racines de $T_n(x)$ soit~: $$X_k=\cos(\frac{\pi}{2n}+\frac{k\pi}{n})\qquad k=0,1\quad n=1$$ \paragraph{Exercice 2} Polynôme de Legendre On considère les polynômes~: \[ \left\{ \begin{array}{l l} P_0(x) & =1\\ P_n(x) & =\frac{1}{2^n!}\frac{d^n}{dx^n}((x^2-1)^n)\quad\forall n\geq1\\ \end{array} \right. \] Les polynômes vérifient la relation $P_n(x)=\frac{2n-1}{n}\times P_{n-1}(x) -\frac{n-1}{n}P_n(x)\quad\forall n\geq2$. \begin{enumerate} \item Montrer que $\int^1_{-1}x^k.P_n(x)dx=0\quad\forall k=0,1,...,n-1$. \item En déduire la relation d'orthogonalité~: $\int^{1}_{-1}P_n(x).P_m(x)dx =0\quad\forall n\neq m$. \item Montrer que le coefficient dominant de $P_n(x)$ est~: $a_n= \frac{(2.n)!}{2^n(n!)^2}$ \item Montrer que $||P_n||=\sqrt{\frac{2}{2n-1}}$\\ (Rappel~: $||P_n||=\sqrt{\int^1_{-1}P^2_n(x)dx}$) \end{enumerate} \begin{enumerate}[1.] \item \end{enumerate} $$\frac{1}{2^nn!}\int^1_{-1}x^k\frac{d^n}{dx^n} \left(\left(x^2-1\right)^n\right)dx \left\{ \begin{array}{l l} u^1 & =\frac{d^n}{dx^n}\left(\left(x^2-1\right)^n\right)\\ v & =x^k\\ \end{array} \right. $$ $$=\frac{1}{2^nn!}\left(\left[x^k\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1 \right)^n\right)\right]^1_{-1}\right)-k\int^1_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1} }\left(\left(x^2-1\right)^n\right)$$ $$=\frac{-k}{2^nn!}\int^{1}_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1\right)^n\right)dx$$ \subparagraph{Deuxième intégration par partie} $$I=-\frac{k}{2^nn!}\int^1_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1\right)^n\right)dx$$ $$=-\frac{k}{2^nn!}\left(\left[X^{k-1}\frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)\right]^1_{-1} \frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)dx\right)$$ $$I=\frac{k(k-1)}{2^nn!}\int^1_{-1}x^{k-2}\frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)dx$$ Après $p$ intégration par parties, on obtient~: $$I=\frac{(-1)^p.k(k-1)(k-2)...(k-p+1)}{2^nn!}\int^1_{-1}x^{k-p}\frac{d^{n-p}}{dx^{n-p}}\left(\left(x^2-1\right)^n\right)dx$$ Si $p=k$ ($k$ intégrations par partie)~: $$I=\frac{(-1)^kk!}{2^nn!}\int^1_{-1}\frac{d^{n-k}}{dx^{n-k}}\left(\left(x^2-1\right)^n\right)dx$$ $$=\frac{(-1)^kk!}{2^nn!}\left[\frac{d^{n-k-1}}{dx^{n-k-1}}\left(\left(x^2-1\right)^n\right)\right]^1_{-1}=0$$ \begin{enumerate}[2.] \item \end{enumerate} $$\int^1_{-1}P_n(x).P_m(x)dx=\sum^n_{k=0}a_k\int^1_{-1}x^k.P_m(x)=^?0\quad\forall n\neq m$$ Supposons que $n\in\mathbb{R}$$ $$||f||=\sqrt{}$$ Soit $F\subset E$ (sous-espace vectoriel) de dimension finie. \paragraph{Théorème} Une condition nécessaire et suffisante pour que $\phi^*\in F$ soit une meilleure approximation de $f\in E$ et que $=0\quad\forall\phi\in F$ \paragraph{Démonstration} \subparagraph{Condition nécessaire} Soit $\phi^*\in F$ la meilleure approximation de $f\in E$, supposons $\exists\phi_1\in F$ tel que $=\alpha\neq 0$. Soit $\phi_2=\phi^*+\beta.\phi_1$ avec $\beta=\frac{\alpha}{||\phi_1||^2}$ $$ \begin{array}{l l} ||f-\phi_2||^2 & =\\ & =\\ & =||f-\phi^*||^2 - 2\beta+\beta^2||\phi_1||^2\\ & =||f-\phi^*||^2 - 2\beta\alpha + \beta^2||\phi_1||^2\\ &=||f-\phi^*||^2-2\frac{\alpha^2}{||\phi_1||}+\frac{\alpha^2}{||\phi_1||^2}\\ & =||f-\phi^*||^2-\frac{\alpha^2}{||\phi_1||^2}\\ & =||f-\phi^*||^2-\frac{\alpha^2}{||\phi_1||^2}\\ & \Rightarrow||f-\phi_2||<||f-\phi^*|| \text{ce qui est absurde car }\phi^* \text{ est déjà la meilleure approximation de } f\\ & \Rightarrow =0\forall\phi\in F\\ \end{array} $$ \subparagraph{Condition suffisante} Supposons que $=0\quad\forall\phi\in F$. Soit $\phi_1\in F$ tel que $=0\quad\forall\phi\in F$. $$ \begin{array}{l l} ||f-\phi||^2 & =\\ & = <(f-\phi_1)-(\phi-\phi_1), (f-\phi_1)-(\phi-\phi_1)>\\ & =||f-\phi_1||^2-2+||\phi-\phi_1||^2\\ & =||f-\phi_1||^2+||\phi-\phi_1||^2\qquad\forall\phi\in F\\ & \Rightarrow ||f-\phi_1||\le||f-\phi||\quad\forall\phi\in F\\ & \Rightarrow ||f-\phi_1||=\min||f-\phi||\Longrightarrow\phi_1=\phi^*\\ \end{array} $$ \subparagraph{Remarque} Cette condition montre que l'élément $\phi^*$ représente la projection orthogonale de $f$ sur $F$.\\ $\phi^*$ est unique \subsubsection{Construction de $\phi^*$} Soit ${\varphi_1,\varphi_2,\ldots,\varphi_n}$ une base de $F$. $$\varphi^*=\sum^{n}_{k=1}a^*_k.\varphi_k$$ La condition d'orthogonalisation $=0\quad\forall j=1\ldots n$\\ $$\left=0\quad\forall j=1\ldots n$$ $$-\sum^n_{k=1}a^*_{k=1}<\varphi_k,\varphi_j>=0\quad\forall j=1\ldots n$$ \[ (S) \begin{cases} \sum^n_{k=1}<\varphi_k,\varphi_j>a^*_k=\\ \forall j=1\ldots n \end{cases} \] C'est un système linéaire à $n$ équations et $n$ inconnues. \paragraph{Remarque} Si la base ${\varphi_1,\varphi_2,\ldots,\varphi_n}$ est orthonormée, la matrice du système sera diagonale.\\ La matrice du système $(S)$ est la matrice de \emph{Gram}~: $$G_{kj}=<\varphi_k,\varphi_j>\forall k=1\ldots n, j=1\ldots n$$ \begin{enumerate}[(a)] \item \textbf{Cas continu} \end{enumerate} Soit $\omega$ une fonction poids, position telle que $\int^b_af(x)\omega(x)dx$ existe $\forall f\in E=\mathcal{C}([a,b])$. $=\int^b_af(x)g(x)\omega(x)dx$ produit scalaire sur $E$. $F=\epsilon$ sous-espace vectoriel de dimension $n$. $$(S)\Leftrightarrow \begin{cases} \sum^n_{k=1}a^*_k\int_a^b\varphi_k(x)\omega(x)dx=\int_a^bf(x)\varphi_j(x)dx\\ \forall j=1\ldots n\\ \end{cases} $$ $$\text{La matrice de Gram~: } G_{kj}=\int^b_a\varphi_k(x).\varphi_j(x)\omega(x)dx$$ \begin{enumerate}[(b)] \item \textbf{Cas discret} \end{enumerate} Le produit scalaire discret~: $=\sum^N_{i=0}f(x_i)g(x_i)\omega(x_i)$. $f$ est donnée aux points $x_i(i=0\ldots N)$ $$||f||=\sqrt{\sum^N_{i=0}f(x_i)\omega(x_i)}$$ $$(S)\Leftrightarrow \left\{ \begin{array}{l} \sum^n_{k=1}a_k^* \sum^N_{i=0}\varphi_k(x_i).\varphi_j(x_i)\omega(x_i)= \sum^N_{i=0}f(x_i)\varphi_j(x_i)\omega(x_i)\\ \forall j=1\ldots n \text{ La matrice } G_{kj}= \sum^N_{i=0}\varphi_k(x_i).\varphi_j(x_i)\omega(x_i) \end{array}\right. $$ \section{Interpolation} Soit $f(x)$ une fonction continue sur $[a,b]$. $f(x)$ est connue en $(n+1)$ points $x_i\in[a,b] (i=1\ldots n+1)$. Chercher une fonction $\varphi$ d'un type choisi à l'avance qui interpole $f(x)$ sur $[a,b]$, c'est déterminer $\varphi$ tel que $\varphi(x_i)\quad\forall i=1\ldots n+1$. En général, on cherche $\varphi$ dans l'espace des polynômes. \subsection{Polynôme d'interpolation de Lagrange} Soit $P_n(x)=\sum_{i=1}^{n+1}L_i(x)f(x_i)$ où les fonctions $L_i$ sont des polynômes de degré au plus $n$, telles que $L_i(x_j)=\delta_{ij}$. $$L_i(x_j)=0\Rightarrow L_i(x)=C(x-x_1)(x-x_2)\ldots(x-x_{i-1})(x-x_{i+1})\ldots(x-x_{n+1}) \qquad\forall j\neq i$$ $$L_i(x_i)=1\Rightarrow C=\left[(x_i-x_1)\ldots(x-x_{i-1})(x-x_{i+1})\ldots(x-x_{n+1})\right]$$ $$L_i(x)=\prod^{n+1}_{j=1~j/neq i}\frac{x-x_j}{x_i-x_j}\text{ La base de Lagrange}$$ $$P_n(x)=\sum^{n+1}_{i=1}L_i(x)f(x_i)=\sum^{n+1}_{i=1}\prod^{n+1}_{j=1~j\neq i}\frac{x-x_j}{x_i-x_j}f(x_i)\text{ Le polynôme de Lagrange}$$ $$P_n(x_k)=\sum^{n+1}_{i=1}L_i(x_k)f(x_i)$$ $$P_n(x_k)=f(x_k)\qquad\forall k=1\ldots n+1$$ \paragraph{Exemple} Soit $f$ continue telle que~: \begin{tabular}{r|cccc} $x_i$ & $0$ & $1$ & $3$ & $4$ \\ \hline $f(x_i)$ & $1$ & $3$ & $2$ & $5$ \end{tabular} Construire le polynôme d'interpolation $P_z(x)$ de $f(x)$. $$P_z(x)=\frac{(x-1)(x-3)(x-4)}{(-1)(-3)(-4)}.1+ \frac{x(x-3)(x-4)}{1(1-3)(1-4)}.3+ \frac{x(x-1)(x-4)}{3(3-1)(3-4)}.2+ \frac{x(x-1)(x-3)}{4(4-1)(4-3)}.5$$ $$P_z(x)=\frac{x^3}{2}-\frac{14}{6}x^2+\frac{13}{3}x+1$$ Pour vérifier que l'on a pas fait d'erreur de calcul, on véfifie que $P_z(x_i)=f(x_i)$ \paragraph{Remarque} L'erreur d'interpolation $\varepsilon(x)=f(x)-P_n(x)$. Si $f\in\mathcal{C}^{n+1}[a,b]$ ($f$ est dérivable $n+1$ fois avec ses dérivées continues). $$\exists\eta_x\in[a,b]/\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i) \frac{f^{(n+1)}(\eta_x)}{(n+1)!}$$ \subsection{Polynôme d'interpolation de Newton} \paragraph{Différence divisées} Soit $f$ une fonction donnée en $n+1$ points $x_1,x_2,\ldots,x_{n+1}~(x_i\neq x_j~i\neq j)$. On appelle différence divisée d'ordre $0,1,2,\ldots,n$ de $f$ les expressions suivantes~: \begin{figure}[h!] \centering \begin{tabular}{c|c|c} \textbf{Ordre} & \textbf{Notation} & \textbf{Définition} \\ \hline $0$ & $f[x_i]$ & $f(x_i)$ \\ $1$ & $f[x_i,x_j]$ & $\frac{f[x_i]-f[x_j]}{x_i-x_j}~i\neq j$ \\ $2$ & $f[x_i,x_j,x_k]$ & $\frac{f[x_i,x_j]-f[x_j,x_k]}{x_i-x_k}~i\neq j\neq k$ \\ \vdots&\vdots&\vdots\\ $n$ & $f[x_1,\ldots,x_{n+1}]$ & $\frac{f[x_1,\ldots,x_n]-f[x_2,\ldots,x_{n+1}]}{x_1-x_{n+1}}$\\ \end{tabular} \end{figure} \paragraph{Polynôme de Newton} $$f[x,x_1]=\frac{f(x)-f(x_1)}{x-x_1}\Rightarrow f(x)=f(x_1)+(x-x_1).f[x,x_1]$$ $$f[x,x_1,x_2]=\frac{f[x,x_1]-f[x_1,x_2]}{x-x_2} \Rightarrow f[x,x_1]=f[x_1,x_2]+(x-x_2).f[x,x_1,x_2]$$ $$f(x)=f(x_1)+(x-x_1).f[x_1,x_2]+(x-x_1)(x-x_2).f[x,x_1,x_2]$$ $$P_1(x)=f(x_1)+(x-x_1).f[x_1,x_2]$$ $$P_1(x_1)=f(x_1)$$ $$P_1(x_2)=f(x_1)+(x_2-x_1).\frac{f(x_1)-f(x_2)}{x_1-x_2}=f(x_1)-f(x_1)+f(x_2) =f(x_2)$$ Donc $P_1(x)$ interpole la fonction $f$ aux points $x_1$ et $x_2$. En réitérant le procédé, on obtient~: $$f(x)=f(x_1)+(x-x_1).f[x_1,x_2]+(x-x_1)(x-x_2)f[x_1,x_2,x_3]+ \ldots+(x-x_1)\ldots(x-x_n).f[x_1,\ldots,x_{n+1}]$$ $$+\prod^{n+1}_{i=1}(x-x_i).f[x,x_1,\ldots,x_{n+1}]\qquad\text{l'erreur}$$ $P_n(x)$ est le polynôme d'interpolation de Newton de $f(x)$ aux $(n+1)$ points $x_i~(i=1\ldots n+1)$. $$\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i).f[x,x_1,\ldots,x_{n+1}]$$ \paragraph{Algorithme de Newton} $$P_0(x)=f(x_1)$$ Pour $m=0,\ldots,n-1$~: $$P_{m+1}(x)=P_m(x)+(x-x_1)\ldots(x-x_{m-1}).f[x_1,\ldots,x_{m+1}]$$ %% Il cherchait à faire un tableau \section{Dérivation numérique} \section{Intégration numérique}