\chapter{Approximations} \section{Introduction} Le but de ce chapitre est de donner les premières notions de la théorie de l'approximation permettant d'aborder la résolution de problèmes tels que : \begin{itemize} \item soit $f(x)$ continue sur $[a;b]$, déterminer dans l'espace des polynôme de degré $n$ celui rend~: $|f(x)-P_n(x)|$ le plus petit possible~; \item déterminer les coefficients $a_k$ qui minimisent la valeur $\int^b_a (f(x).\sum^{n^2}_{k=0}a_k.\varphi_k)^2.\omega(x)dx$ où $\omega(x)$ est le poid. \item Soit $f$ continue et $(n+1)$ points $X_0, X_1, ..., X_n$~:\\ $\exists? P_n(x)/P_n(X_i)=f(X_i)\quad\forall i=0..n$\\ $P_n(x)$ est le polynôme d'interpolation de $f(x)$. \end{itemize} \section{Approximation dans un espace métrique} % 1.1 pour le prof !!! $(E,d)$ est un espace métrique~: il existe une distance $d$~: $$d:E_x E\longmapsto\mathbb{R}_{+}$$ $$(f,\Phi)\longmapsto d(f,\Phi)$$ \begin{enumerate}[(i)] \item $d(f,\Phi)=0\Rightarrow f=\Phi$ \item $d(f,\Phi)=d(\Phi,f)$ \item $d(f,\Phi)\leq d(f,\psi)+d(\psi,\Phi)\quad\forall f,\Phi,\psi\in E$ \end{enumerate} \paragraph{Problème} Soit $(E,d)$ un espace métrique~: $F\subset E$ (sous espace-vectoriel de $E$). Déterminer $\Phi^{*}\in F/d(f,\Phi^{*})=Min d(f,\Phi)\qquad\Phi\in F$. S'il existe, cet élément $\Phi^{*}$ sera appelé meilleur approximation (ou sens de la distance $d$) de $f\in E$. \paragraph{Définition} $E$ est un espace vectoriel normé s'il existe une norme $||f(f)||$, $\forall f\in E$.\\ $d(f,\Phi)=||f-\Phi||$ distance sur $E$. On suppose que $dim(E)<+\infty$ $$||f-\Phi^*||=Min(||f-\Phi||)\qquad\Phi\in F$$ \section{Approximation uniforme} Soit $E=\mathcal{C}([a,b]\in\mathbb{R})={f\text{~continue~} [a,b]\rightarrow\mathbb{R}}$.\\ $E$ est normée $||f||=Max|f(x)|\quad a\leq x\leq b$ $$d(f,\Phi)=||f-\Phi||=Max|f(x)-\Phi(x)|$$ Soit $\mathbb{C}_n$ un sous espace vectoriel de $E$, de dimension $n$.\\ La meilleur approximation uniforme $\Phi^{*}\in\mathcal{E}_n$ de $f\in E$ est donc la fonction définie par~: $$f-\Phi^{*}=Min(Max|f(x)-\Phi(x)|)\qquad\Phi\in\mathcal{E}_n$$ Soit ${\varphi_1,\varphi_2,...,\varphi_n}$ une vase de $\mathcal{E}_n$~: $$\Phi^{*}=\sum^n_{i=1}a_i^{*}.\varphi_i$$ $$||f-\Phi^*||=Min(Max|f(x)-\Phi(x)|)\qquad\Phi\in\mathcal{E}, a\leq x\leq b$$ \subsection{Polynôme de Chibyshev} Les polynômes sont définis pour~: %$${^{T_{n+1}(x)=2x.T(x)-T_{n-1}(x)}_{T(x)=1, T_1(x)=x}$$ $$T_2=2X.T_1(x)-T(x)=2x^2-1$$ $$T_3=2x.T_2(x)-T_1(x)=2x(2x^2-1)-x=4x^3-3x$$ $$T_4(x)=8^4-8x^2+1$$ \paragraph{Propriétés} \begin{enumerate}[(i)] \item $T_n(x)=cos(n.\theta)\qquad -1\leq x\leq 1$ où $x=cos(\theta)\Leftrightarrow\theta=cos(x)\qquad 0\leq\theta\leq\pi$ \item Le coefficient dominant de $T_n(x)$ est $a_n=2^{n-1}$, $T_n(x)=2^{n-1}.X^n...$ \item ${T_0,T_1,T_2,...,T_n}$ est un ensemble de polynômes orthogonaux sur $[-1,1]$ relativement à la fonction poids $\omega(x)=\frac{1}{\sqrt{1-X^2}}$ $$=\int^1_{-1}\frac{T_n(x).T_m(x)}{\sqrt{1-X^2}}dx=0\quad\forall n\neq m\qquad p\text{p. scalaire}$$ \item $T_n(x)=+1;-1;+1;-1;...$\\ Pour $X=1, cos(\frac{\pi}{n}), cos(\frac{2\pi}{n}), cos(\frac{k\pi}{n})$ \end{enumerate} \paragraph{Théorème} Dans l'ensemble des polynômes de degré $n$ ayant le coefficient de tête égal à 1, c'est $T_n^*=\frac{T_n}{2^{n-1}}$ qui réalise la meilleure approximation uniforme de la fonction nulle sur $[-1;1]$. $$||T_n^*||=max|T_n^*(x)|=\frac{1}{2^{n-1}}\qquad -1\leq x\leq 1$$ $$\mathcal{P}_n={\text{polynôme~:~} X^n+a_{n-1}.X^{n-1}+...+a_0}$$ \paragraph{Démonstration} On veut montrer que $||T_n^*||=Min||R_n||\quad R_n\in P_n$. Supposons le contraire~: $\exists R_n\in P_n$ tel que $||R_n||<||T_n^*||=\frac{1}{2^{n-1}}$, $T_n^*-R_n=P_{n-1}$ polynôme de degré $\leq n-1$. $$X_0=1\qquad P_{n-1}(1)=T_n^*(1)-R_n(1)=\frac{1}{2^{n-1}}-R_n(1)>0$$ $$X_1=cos(\frac{\pi}{n})\quad P_{n-1}(X_1)=T_n^*(X_1)-R_n(X_1)=\frac{-1}{2^{n-1}}-R_n(X_1)<0$$ $$X_2=cos(\frac{2\pi}{n})\quad P_{n-1}(X_2)=T_n^*(X_2)-R_n(X_2)=\frac{1}{2^{n-1}}-R_n(X_2)>0$$ $$\vdots$$ $$X_n=cos(\pi)=-1\quad P_{n-1}(X_n)=T_n^*(X_n)-R_n(X_n)=\frac{1}{2^{n-1}}-R_n(X_n)^<_>0$$ Les $(n+1)$ points $X_0=1,...,X_n$ pour lesquels $T_n^*$ prend les valeurs $\frac{1}{2^{n-1}};\frac{1}{2^{n-1}};...$ Donc $P_{n-1}(x)$ possède au moins $n$ racines dans $[-1,1]$. Ceci n'est pas possible car le degré $P_{n-1}\leq n-1$. Donc $||T_n^*||=Min||R_n||\quad R_n\in P_n$.\\ \paragraph{Théorème} Si $P_n\in\mathbb{P}_n={\text{polynôme de degré}\leq n}$ est tel que la fonction erreur $\epsilon_n=f-P_n$ atteint les \emph{valeurs extrêmes alternées} $M;-M;M;...$ à $M=||\epsilon_n||$ en \emph{au moins $n+2$} points $X_1,X_2,...,X_{n+2}\in[a,b]$ alors $P_n$ est le polynôme qui réalise la meilleure approximation de $f$ sur $[a,b] (P_n=P_n^*)$ \paragraph{Démonstration} (Par l'absurde) Supposons $\exists q_n\in\mathbb{P}_n/||f-q_n||<||f-P_n||=||\epsilon_n||=M$, $Max|f(x)-q_n(x)|0$$ $$r_n(x_2)=\epsilon_n(x_2)+q_n(x_2)-f(x_2)=M+q_n(x_2)-f(x_2)<0$$ $$\vdots$$ $$r_n(x_{n+2})=\epsilon_n(x_{n+2})+q_n(x_{n+2})-f(x_{n+2})=M+q_n(x_{n+2})-f(x_{n+2})^>_<0$$ $r_n(x)$ change au moins $(n-1)$ fois de signe dans $[a,b]$ en raison de l'aternance de $\epsilon_n\Rightarrow r_n$ possède au moins $(n+1)$ racines ce qui est impossible. \paragraph{Exercice 1} Polynôme de Chebyshev\\ $$\begin{cases} T_{n+1}(x) & =\quad2x.T_n(x)-T_{n-1}(x)\\ T_0(x) & =\quad 1, T_1(x)=x\\ \end{cases}$$ \begin{enumerate} \item Montrer que $T_n(x)=cos(\theta)\quad|x|\leq 1\quad\theta=arccos(x)$ \item Montere que le coefficient dominant de $T_n$ est $a_n=2^{n-1}$ \item Montrer que $T_n(x)=\frac{1}{2}((x+\sqrt{x^2-1})^n+(x-\sqrt{x^2}-1)^n) \forall x\in\mathbb{R}$ \item Montrer que $\int^1_{-1}\frac{T_n(x).T_m(x)}{\sqrt{1-x^2}}dx=0\quad\forall n\neq m$ \end{enumerate} \begin{enumerate}[1.] \item Par récurence sur $n$~: \end{enumerate} $$\begin{cases} n=0 & T_0(x)=cos(0)=1\\ n=1 & T_1(x)=x=cos(\theta) \\ \end{cases}$$ \paragraph{Hypothèse} Supposons que $T_k(x)=cos(k\theta)$ $$T_{n+1}(x)=2x.T_n(x)-T_{n-1}(x)=2.cos(\theta).cos(n\theta)-cos(n-1)\theta$$ $$=2.cos(\theta).cos(n\theta)-(cos(n\theta).cos(\theta)+sin(\theta). sin(n\theta))$$ $$=cos(\theta).cos(n\theta)-sin(\theta).sin(n\theta)= cos(n+1)\theta$$ \vspace{1em} \begin{enumerate}[2.] \item \end{enumerate} $$\begin{cases} T_{n+1}(x) & =\quad 2x.T_n(x)-T_{n-1}(x)\\ T_0(x) & =\quad 1, T_1(x)=x\\ \end{cases}$$ Supposons que le coefficient dominant de $T_n$ est $a_n=2^{n-1}$ $$T_{n+1}(x)=2x.T(x)-T_{n-1}(x) = 2x.(2^{n-1}.X^n+R_{n-1}(x))-T_{n-1}(x)$$ $$\Rightarrow a_{n+1}=2.2^{n-1}=2^n$$ \vspace{1em} \begin{enumerate}[3.] \item \end{enumerate} $$T_{n+1}=2x.T_n-T_{n-1}$$ $$T_{n+1}-2x.T_n+T_{n-1}=0 \text{(équation récurente)(*)}$$ L'équation caractéristique~: $r^2-2xr+1=0$ 2 solutions particulières de l'équation (*)~: $r_1^n$ et $r_2^n$. En effet $r_1^{n+1}-2x.r_1^n+r_1^{n-1}=r_1^{n-1}(r_1^{n-1}-2x.r_1+1)=0$, de même pour $r_2^n$. La solution générale de $(*)$ est $T_n=\alpha.r_1^n+\beta.r_2^n$ où $\alpha$ et $\beta$ sont déterminées par les conditions initiales. \vspace{1em} \begin{enumerate}[4.] \item \end{enumerate} $$T_{n+1}(x)=2\times T_n(x)-T_{n-1}(x)$$ $$T_n(x)=\cos(n.\theta)\qquad\theta=\arccos(x)\Leftrightarrow$$ $$X=\cos(\theta)\Rightarrow dx=-\sin(\theta)d\theta$$ $$\int^1_{-1}\frac{T_n(x)T_m(x)}{\sqrt{1-x^2}}dx= \int^0_\pi\frac{\cos(n.\theta).\cos(m\theta)}{|\sin(\theta)|}(-\sin(\theta)d\theta) =\int^\pi_0\cos(n\theta)cos(m\theta)d\theta$$ $$\int^\pi_0\cos(n\theta).\cos(m\theta)d\theta= \frac{1}{2}\int^\pi_0\left(\cos(n+m)\theta+\cos(n-m)\theta\right)d\theta$$ $$=\frac{1}{2}\left[\frac{\sin(n+m)\theta}{n+m}+\frac{\sin(n-m) \theta}{n-m}\right]=0$$ \begin{enumerate}[5.] \item \end{enumerate} $$T_n(x)=0\qquad|x|\leq1$$ $$\Leftrightarrow\cos(n\theta)=0\Leftrightarrow n.\Theta=\frac{\pi}{2}+k\pi \Leftrightarrow\theta_k=\frac{\pi}{2n}+\frac{k\pi}{n}$$ Les racines de $T_n(x)$ soit~: $$X_k=\cos(\frac{\pi}{2n}+\frac{k\pi}{n})\qquad k=0,1\quad n=1$$ \paragraph{Exercice 2} Polynôme de Legendre On considère les polynômes~: \[ \left\{ \begin{array}{l l} P_0(x) & =1\\ P_n(x) & =\frac{1}{2^n!}\frac{d^n}{dx^n}((x^2-1)^n)\quad\forall n\geq1\\ \end{array} \right. \] Les polynômes vérifient la relation $P_n(x)=\frac{2n-1}{n}\times P_{n-1}(x) -\frac{n-1}{n}P_n(x)\quad\forall n\geq2$. \begin{enumerate} \item Montrer que $\int^1_{-1}x^k.P_n(x)dx=0\quad\forall k=0,1,...,n-1$. \item En déduire la relation d'orthogonalité~: $\int^{1}_{-1}P_n(x).P_m(x)dx =0\quad\forall n\neq m$. \item Montrer que le coefficient dominant de $P_n(x)$ est~: $a_n= \frac{(2.n)!}{2^n(n!)^2}$ \item Montrer que $||P_n||=\sqrt{\frac{2}{2n-1}}$\\ (Rappel~: $||P_n||=\sqrt{\int^1_{-1}P^2_n(x)dx}$) \end{enumerate} \begin{enumerate}[1.] \item \end{enumerate} $$\frac{1}{2^nn!}\int^1_{-1}x^k\frac{d^n}{dx^n} \left(\left(x^2-1\right)^n\right)dx \left\{ \begin{array}{l l} u^1 & =\frac{d^n}{dx^n}\left(\left(x^2-1\right)^n\right)\\ v & =x^k\\ \end{array} \right. $$ $$=\frac{1}{2^nn!}\left(\left[x^k\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1 \right)^n\right)\right]^1_{-1}\right)-k\int^1_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1} }\left(\left(x^2-1\right)^n\right)$$ $$=\frac{-k}{2^nn!}\int^{1}_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1\right)^n\right)dx$$ \subparagraph{Deuxième intégration par partie} $$I=-\frac{k}{2^nn!}\int^1_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1\right)^n\right)dx$$ $$=-\frac{k}{2^nn!}\left(\left[X^{k-1}\frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)\right]^1_{-1} \frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)dx\right)$$ $$I=\frac{k(k-1)}{2^nn!}\int^1_{-1}x^{k-2}\frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)dx$$ Après $p$ intégration par parties, on obtient~: $$I=\frac{(-1)^p.k(k-1)(k-2)...(k-p+1)}{2^nn!}\int^1_{-1}x^{k-p}\frac{d^{n-p}}{dx^{n-p}}\left(\left(x^2-1\right)^n\right)dx$$ Si $p=k$ ($k$ intégrations par partie)~: $$I=\frac{(-1)^kk!}{2^nn!}\int^1_{-1}\frac{d^{n-k}}{dx^{n-k}}\left(\left(x^2-1\right)^n\right)dx$$ $$=\frac{(-1)^kk!}{2^nn!}\left[\frac{d^{n-k-1}}{dx^{n-k-1}}\left(\left(x^2-1\right)^n\right)\right]^1_{-1}=0$$ \begin{enumerate}[2.] \item \end{enumerate} $$\int^1_{-1}P_n(x).P_m(x)dx=\sum^n_{k=0}a_k\int^1_{-1}x^k.P_m(x)=^?0\quad\forall n\neq m$$ Supposons que $n\in\mathbb{R}$$ $$||f||=\sqrt{}$$ Soit $F\subset E$ (sous-espace vectoriel) de dimension finie. \paragraph{Théorème} Une condition nécessaire et suffisante pour que $\phi^*\in F$ soit une meilleure approximation de $f\in E$ et que $=0\quad\forall\phi\in F$ \paragraph{Démonstration} \subparagraph{Condition nécessaire} Soit $\phi^*\in F$ la meilleure approximation de $f\in E$, supposons $\exists\phi_1\in F$ tel que $=\alpha\neq 0$. Soit $\phi_2=\phi^*+\beta.\phi_1$ avec $\beta=\frac{\alpha}{||\phi_1||^2}$ $$ \begin{array}{l l} ||f-\phi_2||^2 & =\\ & =\\ & =||f-\phi^*||^2 - 2\beta+\beta^2||\phi_1||^2\\ & =||f-\phi^*||^2 - 2\beta\alpha + \beta^2||\phi_1||^2\\ &=||f-\phi^*||^2-2\frac{\alpha^2}{||\phi_1||}+\frac{\alpha^2}{||\phi_1||^2}\\ & =||f-\phi^*||^2-\frac{\alpha^2}{||\phi_1||^2}\\ & =||f-\phi^*||^2-\frac{\alpha^2}{||\phi_1||^2}\\ & \Rightarrow||f-\phi_2||<||f-\phi^*|| \text{ce qui est absurde car }\phi^* \text{ est déjà la meilleure approximation de } f\\ & \Rightarrow =0\forall\phi\in F\\ \end{array} $$ \subparagraph{Condition suffisante} Supposons que $=0\quad\forall\phi\in F$. Soit $\phi_1\in F$ tel que $=0\quad\forall\phi\in F$. $$ \begin{array}{l l} ||f-\phi||^2 & =\\ & = <(f-\phi_1)-(\phi-\phi_1), (f-\phi_1)-(\phi-\phi_1)>\\ & =||f-\phi_1||^2-2+||\phi-\phi_1||^2\\ & =||f-\phi_1||^2+||\phi-\phi_1||^2\qquad\forall\phi\in F\\ & \Rightarrow ||f-\phi_1||\le||f-\phi||\quad\forall\phi\in F\\ & \Rightarrow ||f-\phi_1||=\min||f-\phi||\Longrightarrow\phi_1=\phi^*\\ \end{array} $$ \subparagraph{Remarque} Cette condition montre que l'élément $\phi^*$ représente la projection orthogonale de $f$ sur $F$.\\ $\phi^*$ est unique \subsubsection{Construction de $\phi^*$} Soit ${\varphi_1,\varphi_2,\ldots,\varphi_n}$ une base de $F$. $$\varphi^*=\sum^{n}_{k=1}a^*_k.\varphi_k$$ La condition d'orthogonalisation $=0\quad\forall j=1\ldots n$\\ $$\left=0\quad\forall j=1\ldots n$$ $$-\sum^n_{k=1}a^*_{k=1}<\varphi_k,\varphi_j>=0\quad\forall j=1\ldots n$$ \[ (S) \begin{cases} \sum^n_{k=1}<\varphi_k,\varphi_j>a^*_k=\\ \forall j=1\ldots n \end{cases} \] C'est un système linéaire à $n$ équations et $n$ inconnues. \paragraph{Remarque} Si la base ${\varphi_1,\varphi_2,\ldots,\varphi_n}$ est orthonormée, la matrice du système sera diagonale.\\ La matrice du système $(S)$ est la matrice de \emph{Gram}~: $$G_{kj}=<\varphi_k,\varphi_j>\forall k=1\ldots n, j=1\ldots n$$ \begin{enumerate}[(a)] \item \textbf{Cas continu} \end{enumerate} Soit $\omega$ une fonction poids, position telle que $\int^b_af(x)\omega(x)dx$ existe $\forall f\in E=\mathcal{C}([a,b])$. $=\int^b_af(x)g(x)\omega(x)dx$ produit scalaire sur $E$. $F=\epsilon$ sous-espace vectoriel de dimension $n$. $$(S)\Leftrightarrow \begin{cases} \sum^n_{k=1}a^*_k\int_a^b\varphi_k(x)\omega(x)dx=\int_a^bf(x)\varphi_j(x)dx\\ \forall j=1\ldots n\\ \end{cases} $$ $$\text{La matrice de Gram~: } G_{kj}=\int^b_a\varphi_k(x).\varphi_j(x)\omega(x)dx$$ \begin{enumerate}[(b)] \item \textbf{Cas discret} \end{enumerate} Le produit scalaire discret~: $=\sum^N_{i=0}f(x_i)g(x_i)\omega(x_i)$. $f$ est donnée aux points $x_i(i=0\ldots N)$ $$||f||=\sqrt{\sum^N_{i=0}f(x_i)\omega(x_i)}$$ $$(S)\Leftrightarrow \left\{ \begin{array}{l} \sum^n_{k=1}a_k^* \sum^N_{i=0}\varphi_k(x_i).\varphi_j(x_i)\omega(x_i)= \sum^N_{i=0}f(x_i)\varphi_j(x_i)\omega(x_i)\\ \forall j=1\ldots n \text{ La matrice } G_{kj}= \sum^N_{i=0}\varphi_k(x_i).\varphi_j(x_i)\omega(x_i) \end{array}\right. $$ \section{Interpolation} Soit $f(x)$ une fonction continue sur $[a,b]$. $f(x)$ est connue en $(n+1)$ points $x_i\in[a,b] (i=1\ldots n+1)$. Chercher une fonction $\varphi$ d'un type choisi à l'avance qui interpole $f(x)$ sur $[a,b]$, c'est déterminer $\varphi$ tel que $\varphi(x_i)\quad\forall i=1\ldots n+1$. En général, on cherche $\varphi$ dans l'espace des polynômes. \subsection{Polynôme d'interpolation de Lagrange} Soit $P_n(x)=\sum_{i=1}^{n+1}L_i(x)f(x_i)$ où les fonctions $L_i$ sont des polynômes de degré au plus $n$, telles que $L_i(x_j)=\delta_{ij}$. $$L_i(x_j)=0\Rightarrow L_i(x)=C(x-x_1)(x-x_2)\ldots(x-x_{i-1})(x-x_{i+1})\ldots(x-x_{n+1}) \qquad\forall j\neq i$$ $$L_i(x_i)=1\Rightarrow C=\left[(x_i-x_1)\ldots(x-x_{i-1})(x-x_{i+1})\ldots(x-x_{n+1})\right]$$ $$L_i(x)=\prod^{n+1}_{j=1~j/neq i}\frac{x-x_j}{x_i-x_j}\text{ La base de Lagrange}$$ $$P_n(x)=\sum^{n+1}_{i=1}L_i(x)f(x_i)=\sum^{n+1}_{i=1}\prod^{n+1}_{j=1~j\neq i}\frac{x-x_j}{x_i-x_j}f(x_i)\text{ Le polynôme de Lagrange}$$ $$P_n(x_k)=\sum^{n+1}_{i=1}L_i(x_k)f(x_i)$$ $$P_n(x_k)=f(x_k)\qquad\forall k=1\ldots n+1$$ \paragraph{Exemple} Soit $f$ continue telle que~: \begin{tabular}{r|cccc} $x_i$ & $0$ & $1$ & $3$ & $4$ \\ \hline $f(x_i)$ & $1$ & $3$ & $2$ & $5$ \end{tabular} Construire le polynôme d'interpolation $P_z(x)$ de $f(x)$. $$P_z(x)=\frac{(x-1)(x-3)(x-4)}{(-1)(-3)(-4)}.1+ \frac{x(x-3)(x-4)}{1(1-3)(1-4)}.3+ \frac{x(x-1)(x-4)}{3(3-1)(3-4)}.2+ \frac{x(x-1)(x-3)}{4(4-1)(4-3)}.5$$ $$P_z(x)=\frac{x^3}{2}-\frac{14}{6}x^2+\frac{13}{3}x+1$$ Pour vérifier que l'on a pas fait d'erreur de calcul, on véfifie que $P_z(x_i)=f(x_i)$ \paragraph{Remarque} L'erreur d'interpolation $\varepsilon(x)=f(x)-P_n(x)$. Si $f\in\mathcal{C}^{n+1}[a,b]$ ($f$ est dérivable $n+1$ fois avec ses dérivées continues). $$\exists\eta_x\in[a,b]/\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i) \frac{f^{(n+1)}(\eta_x)}{(n+1)!}$$ \subsection{Polynôme d'interpolation de Newton} \paragraph{Différence divisées} Soit $f$ une fonction donnée en $n+1$ points $x_1,x_2,\ldots,x_{n+1}~(x_i\neq x_j~i\neq j)$. On appelle différence divisée d'ordre $0,1,2,\ldots,n$ de $f$ les expressions suivantes~: \begin{figure}[h!] \centering \begin{tabular}{c|c|c} \textbf{Ordre} & \textbf{Notation} & \textbf{Définition} \\ \hline $0$ & $f[x_i]$ & $f(x_i)$ \\ $1$ & $f[x_i,x_j]$ & $\frac{f[x_i]-f[x_j]}{x_i-x_j}~i\neq j$ \\ $2$ & $f[x_i,x_j,x_k]$ & $\frac{f[x_i,x_j]-f[x_j,x_k]}{x_i-x_k}~i\neq j\neq k$ \\ \vdots&\vdots&\vdots\\ $n$ & $f[x_1,\ldots,x_{n+1}]$ & $\frac{f[x_1,\ldots,x_n]-f[x_2,\ldots,x_{n+1}]}{x_1-x_{n+1}}$\\ \end{tabular} \end{figure} \paragraph{Polynôme de Newton} $$f[x,x_1]=\frac{f(x)-f(x_1)}{x-x_1}\Rightarrow f(x)=f(x_1)+(x-x_1).f[x,x_1]$$ $$f[x,x_1,x_2]=\frac{f[x,x_1]-f[x_1,x_2]}{x-x_2} \Rightarrow f[x,x_1]=f[x_1,x_2]+(x-x_2).f[x,x_1,x_2]$$ $$f(x)=f(x_1)+(x-x_1).f[x_1,x_2]+(x-x_1)(x-x_2).f[x,x_1,x_2]$$ $$P_1(x)=f(x_1)+(x-x_1).f[x_1,x_2]$$ $$P_1(x_1)=f(x_1)$$ $$P_1(x_2)=f(x_1)+(x_2-x_1).\frac{f(x_1)-f(x_2)}{x_1-x_2}=f(x_1)-f(x_1)+f(x_2) =f(x_2)$$ Donc $P_1(x)$ interpole la fonction $f$ aux points $x_1$ et $x_2$. En réitérant le procédé, on obtient~: $$f(x)=f(x_1)+(x-x_1).f[x_1,x_2]+(x-x_1)(x-x_2)f[x_1,x_2,x_3]+ \ldots+(x-x_1)\ldots(x-x_n).f[x_1,\ldots,x_{n+1}]$$ $$+\prod^{n+1}_{i=1}(x-x_i).f[x,x_1,\ldots,x_{n+1}]\qquad\text{l'erreur}$$ $P_n(x)$ est le polynôme d'interpolation de Newton de $f(x)$ aux $(n+1)$ points $x_i~(i=1\ldots n+1)$. $$\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i).f[x,x_1,\ldots,x_{n+1}]$$ \paragraph{Algorithme de Newton} $$P_0(x)=f(x_1)$$ Pour $m=0,\ldots,n-1$~: $$P_{m+1}(x)=P_m(x)+(x-x_1)\ldots(x-x_{m-1}).f[x_1,\ldots,x_{m+1}]$$ \paragraph{Exercice 3} Sur $[-1,1]$ on considère la fonction $f(x)=X^3-X^2$ \begin{enumerate} \item Décomposer $f(x)$ dans la base de Chebyshev. \item En déduire $P^*_2(x)$ polynôme de meilleur approximation de degré 2 de $f(x)$.\\ Donner l'erreur d'approximation $||f-P^*||$ $$||f||=max|f(x)|\qquad -1\leq x\leq 1$$ \end{enumerate} \[ \begin{array}{l l} f(x)= & a_0.T_0(x)+a_1.T_1(x)+a_2.T_2(x)+a_3.T_3(x)$$\\ \begin{cases} T_0(x)=1\\ T_1(x)=x\\ T_2(x)=2x^2-1\\ T_3(x)=4x^3-3x \end{cases} & a_0 + a_1x + a_2(2x^2-1) + a_3 (4x^3 - 3x)\\ & a_0 + a_1x + 2a_2x^2 - a_2 + 4a_3 + 4a_3x^3 - 3a_3x\\ & a_0 - a_2 + (a_1 - 3a_3) x + 2a_2x^2 + 4a_3 + 4a_3x^3\\ \end{array} \] \[ \Rightarrow \begin{cases} a_0 - a_2 = 0\\ a_1 - 3a_3 = 0\\ 2a_1 = -1\\ 4a_3=1 \end{cases} \Rightarrow \begin{cases} a_0=-\frac{1}{2}\\ a_2=-\frac{1}{2}\text{ et }a_1=\frac{3}{4}\\ a_4=\frac{1}{4} \end{cases} \] Donc $f(x)=-\frac{1}{2}T_0(x)+\frac{3}{4}T_5(x)-\frac{1}{2}T_2(x)+\frac{1}{4}T_3(x)$ $$\epsilon=f(x)-P_2(x)=\frac{1}{4}=T_3(x)$$ $$M=||\epsilon||=\max|\epsilon(x)|=\frac{1}{4}$$ \[ \begin{cases} T_3(x)=\cos(3\theta)\\ \theta=\arccos(x) \end{cases} \] \subparagraph{Théorème} Si la fonction erreur $\epsilon(x)$ atteint la veuleur extrême alternée $M$ et $-M$ en au moins $(n+2)$ points, alors $P_n(x)=P^*_n(x)$. $$\epsilon(x)=\frac{1}{4}T_3(x)= \frac{1}{4}\cos(3\theta)\qquad\theta=\arccos(x)$$ Les $x_k=\cos\frac{k\pi}{n}\quad n=3$. \[ \begin{array}{l l l} k=0 & x_0=1 & \varepsilon(x_0)=\frac{1}{4}=M\\ k=1 & x_1=\cos\frac{\pi}{3} & \varepsilon(x_1)=-\frac{1}{4}\\ k=2 & x_2=\cos\frac{2\pi}{3} & \varepsilon(x_2)=\frac{1}{4}\\ k=3 & x_3=\cos\pi & \varepsilon(x)=-\frac{1}{4} \end{array} \Rightarrow \begin{cases} x_0=1\\ x_1=\cos\frac{\pi}{3}=\frac{1}{2}\\ x_2=\cos\frac{2\pi}{3}=-\frac{1}{2}\\ x_3=\cos\pi=-1 \end{cases} \Rightarrow P_2(x)=P_2^*(x) \] Donc~: \[ \begin{array}{l l} P_2^*(x)= & -\frac{1}{2}T_0(x)+\frac{3}{4}T_1(x)-\frac{1}{2}T_2(x)\\ & = -4+\frac{3}{4}x-\frac{1}{4}(2x^3-1)\\ & = -\frac{1}{2}+\frac{3}{4}X - x^2+\frac{1}{2}\\ & = \frac{3}{4}x = \frac{3}{4}x-x^2 \end{array} \] \paragraph{Exercice 4} Soit $f(x)$ une fonction continue donnée aux points $x_i(i=1,2,3,4)$. $f(0)=-5, f(1)=17, f(2)=115, f(4)=143$ En utilisant le polynôme d'interpolation de Lagrange, interpoler $f(2)$. $$f(0)=-5, f(1)=17, f(2)=115. f(4)=143$$ $$P_n(x)=\sum_{i=1}^{n+1}f(x_i)$$ $$L_i(x)=\prod^{n+1}_{j=1}\left(\frac{x-x_i}{x_i-x_j}\right)$$ Interpolons $f(2)$~: $$L_1(2)=\frac{(2-1)(2-3)(2-4)}{(-1)(-3)(-4)}=\frac{-2}{12}=\frac{-1}{6}$$ $$L_2(2)=\frac{(2-0)(2-3)(2-4)}{1(-2)(-3)}=\frac{4}{6}=\frac{2}{3}$$ $$L_3(2)=\frac{2(2-1)(2-4)}{3(3-1)(3-4)}=\frac{-4}{-6}=\frac{2}{3}$$ $$L_4(2)=\frac{2(2-1)(2-3)}{4(3)(1)}=\frac{-2}{12}=\frac{-1}{6}$$ La valeur interpolée est~: $f(2)\simeq P_3(2)=-\frac{1}{6}(-5)+\frac{2}{3}(17) +\frac{2}{3}(115)-\frac{1}{6}(143)\simeq 65$ \paragraph{Exercice 5} Soit $f\in C^{n+1}[a,b]$, $P_n(x)$ son polynôme d'interpolation de $f(x)$ aux points $x_i\in[a,b]$ $(i=1\ldots n+1)$ $$\varepsilon(x)=f(x)-P_n(x)\quad\text{erreur d'interpolation}$$ Montrer qu'il existe $\eta_x\in[a,b]$ tel que $\varepsilon(x)= \prod^{n+1}_{i=1}(x-x_i)\frac{f(\eta_x)}{(n+1)!}$ \subparagraph{Rappel} Théorème de Rolle $f$ continue, dérivable sur $[a,b]$. Si $f(a)=f(b)$ alors $\exists C\in]a,b]$ tel que $f'(c)=0$. $$\varepsilon(x_i)=0\text{ car }P_n(x_i)=f(x_i)$$ $$\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i)A_x\qquad x.f(x_i)\quad x\neq x_i\quad A_x\text{ quantité inconnue}$$ Soit la fonction $\varphi(y)=f(y)-P_n(y)-\prod^{n+1}_{i=1}(y-x_i)A_x\quad\forall y\in[a,b]$ \[ \begin{cases} \varphi(x_i)=0\qquad\forall i=1\ldots n+1\\ \varphi(x)=0 \end{cases} \] $\varphi$ admet $(n+2)$ racines. $\varphi\in C^{n+1}$ car $f\in C^{n+1}$. On applique le théorème de Rolle $\varphi'$ admet au moins $(n+1)$ racines. On applique le théorème de Rolle $\varphi''$ admet au moins $n$ racines. On applique le théorème de Rolle $\varphi^(3)$ admet au moins $n-1$ racines. \hspace{6cm}\vdots On applique le théorème de Rolle $\varphi^(p)$ admet au moins $(n+1)-p$ racines. Si $p=n+1$ $\Rightarrow\varphi^{(n+1)}$ admet au moins 1 racine $\eta_x\quad\varphi^{(n+1)}(\eta_x)=0$ or~: $$\varphi^{(n+1)}(y)=f^{(n+1)}(y)-0-(n+1)! A_x$$ $$\varphi^{(n+1)}(\eta_x)=0\Rightarrow f^{(n+1)}(\eta_x)-(n+1)! A_x=0\Rightarrow A_x=\frac{f^{(n+1)}(\eta_x)}{(n+1)!}$$ Donc~: $$\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i)\frac{f^{(n+1)(\eta_x)}}{(n+1)!}$$ $$f\left[x_1, \ldots, x_{n+1}\right]=\frac{f\left[x_1,\ldots, x_n\right]-f\left[x_2,\ldots, x_{n+1}\right]}{x_1 - x_{n+1}}$$ \section{Dérivation numérique} Lorsqu'une fonction $f(x)$ dont on veut calculer les dérivées siccessives $f'(x)$, $f''(x),\ldots$ est données par les valeurs $f(x_i)$, on procède de la manière suivante~: \begin{enumerate}[(i)] \item $f(x)\simeq g(x)\qquad\text{(polynôme d'interpolation)}$. \item $f^(k)(x)\simeq g^{(k)}\simeq g^{(k)}(x)$ \end{enumerate} \subsection{Dérivée d'un polynôme par division synthétique} $$f(x)\simeq P_n(x)=\sum^{n}_{j=0}a_j.x^j$$ Soit à calculer~: $$f^{(k)}(x=t)\qquad\text{dérivée d'ordre }k$$ $$f^{(k)}\simeq P^{(k)}_n(x)=\sum^{n}_{j=k}j(j-1)\ldots(j-k+1)a_j.x^{j-k}$$ Il suffit alors de calculer $P_n^{(k)}(x=t)$. $$P_n(x) | x-t\qquad\text{(division par )x-t}$$ $$P_n(x)=(x-t)Q_{n-1}(x)+R_n\quad Q_{n-1}(x)=b_{n-1}X^{n+1}+\ldots+b+0$$ \[ \begin{cases} b_{n-1}=a_n\\ b_{j-1}=t.b_j+a_j\quad j=n-1,\ldots, 1 \end{cases} \] \paragraph{Exemple} $$P_4(x)=2x^4-5x^3+x^2-7x+6\qquad t=2$$ \begin{figure}[h] \centering \begin{tabular}{c|cccccc} $j$ & 4 & 3 & 2 & 1 & 0 &\\\hline $P_4 a_j$ & 2 & -5 & 1 & -7 & 6 &\\ $Q_3 b_j$ & & 2 & -1 & -1 & -9 & -12\\ \end{tabular} \end{figure} On peut poursuivre le processus~: \begin{figure}[h] \centering \begin{tabular}{c|cccccc} $j$ & 4 & 3 & 2 & 1 & 0 & Reste\\\hline $P_4\quad a_j$ & 2 & -5 & 1 & -7 & 6 &\\ $Q_3\quad b_j$ & & 2 & -1 & -1 & -9 & $-12 = R_4$\\ $Q_2\quad c_j$ & & & 2 & 3 & 5 & $1 = R_3$\\ $Q_1\quad d_j$ & & & & 2 & 7 & $19 = R_2$\\ $Q_0\quad e_j$ & & & & & 2 & $11 = R_1$\\ \end{tabular} \end{figure} $$R_0=a_n=2=Q_0$$ \[ \left. \begin{array}{l} P_4(x)=(x-2).Q_3(x)-12\\ Q_3(x)=(x-2).Q_2(x)+1\\ Q_2(x)=(x-2).Q_1(x)+19\\ Q_1(x)=(x-2).Q_0(x)+11\\ \end{array} \right\} P_4(x)=-12+(x-2)+19(x-2)^2+11(x-2)+2(x-2)^4 \] Ainsi les $R_k$ sont les coefficients du développement de $P_n(x)$ en puissance de $(x-t)\quad(t=2)$. D'une manière générale~: $$P_n(x)=\sum^n_{l=0}R_e(x-t)^{n-l}$$ Em dérivant $k$ fois~: $$P_n^{(k)}(x)=\sum^{n-k}_{l=0}(n-l)\ldots(n-l-k+1)R_e(x-t)^{n-l-k}$$ $$x=t\Rightarrow P_n^{(k)}(t)=k!R_{n-k}$$ $$f^{(k)}(t)\simeq k!R_{n-k}$$ \paragraph{Exercice 6} $f(x)$ continue, donnée aux points~: $f(-2)=69$, $f(2)=17$, $f(3)=24$, $f(5)=-22$ \begin{enumerate} \item Construire le tableau des différences divisées. \item En déduire le polynôme d'interpolation de Newton. \item En utilisant l'algorithme de division synthétique, interpoler $f(4)$ et donner les approximations des dérivées $f'(4)$, $f''(4)$, $f'''(4)$. \end{enumerate} \begin{figure}[h] \centering \begin{tabular}{c|cccc} $x_i$ & 0 & 1 & 2 & 3 \\\hline $-2$ & \textbf{69} & \textbf{-13} & & \\ $2$ & 17 & & \textbf{4} & \textbf{-2}\\ $3$ & 24 & 7 & -10 & \\ $5$ & -22 & -23 & & \\ \end{tabular} \end{figure} Pour calculer les machins de ce tableau~: $$f[x_i;x_j]=\frac{f[x_i]-f[x_j]}{x_j-x_i}=\frac{f(x_i)-f(x_j)}{x_i-x_j}$$ $$f[-2,2,3]=\frac{f[2,3]-f[-2,2]}{5}$$ \subparagraph{2. Le polynôme d'interpolation de Newton} $$P_3(x)=f[-2]+(x+2)f[-2,2]+(x+2)(x-2)f[-2,2,3]+(x+2)(x-2)(x-3)f[-2,2,3,5]$$ On remplace ensuite les coefficients~: $$P_3(x)=69-13(x+2)+4(x+2)(x-2)-2(x+2)(x-2)(x-3)$$ On développe tout pour avoir le polynôme dans sa forme canonique (utile pour la question suivante)~: $$P_3(x)=-2x^3+10x^2-5x+3$$ On peut vérifier que ce polynôme interpole bien les points donnés de $f$. \subparagraph{3. Algorithme de division synthétique} Pour $Q_1$,0~: 4 (coeff) * -2 (valeur précédente sur la ligne) + 2 (valeur au dessus) = -6 \begin{figure}[h] \centering \begin{tabular}{c|ccccc} $j$ & 3 & 2 & 1 & 0 & Reste\\\hline $P_3\quad a_j$ & -2 & 10 & -5 & 3 & \\ $Q_2\quad b_j$ & & -2 & 2 & 3 & $15 = R_3$\\ $Q_1\quad c_j$ & & & -2 & -6 & $-21 = R_2$\\ $Q_0\quad d_j$ & & & & -2 & $-14 = R_1$\\ \end{tabular} \end{figure} $$P_3(x)=15-21(x-4)-14(x-4)^2-2(x-4)^3$$ $$f(4)\simeq P_3(4)=15$$ $$f^{(k)}(t)\simeq k!_{n-k}$$ $$f'(4)\simeq 1!R_2=-21$$ $$f''(4)\simeq 2!R_1=-28$$ $$f'''(4)\simeq 3!R_0=-12$$ \paragraph{Exercice 7} Soit $f(x)$ continue, donnée aux points $f(-2)=32$, $f(-1)=26$, $f(0)=30$, $f(1)=28$ \begin{enumerate} \item Construire le tableau des différences divisées. \item En déduire le polynôme d'interpolation de Newton. \item En utilisant l'algorithme de division synthétique, interpoler $f(2)$ et donner les approximations des dérivées $f'(2)$, $f''(2)$, $f'''(2)$. \end{enumerate} \begin{figure}[h] \centering \begin{tabular}{c|cccc} $x_i$ & 0 & 1 & 2 & 3 \\\hline $-2$ & \textbf{-32} & \textbf{58} & & \\ $-1$ & 26 & & \textbf{27} & \textbf{8}\\ $0$ & 30 & 4 & -3 & \\ $1$ & 28 & -2 & & \\ \end{tabular} \end{figure} \subparagraph{2. Le polynôme d'interpolation de Newton} $$P_3(x)=f[-2]+(x+2)f[-2,-1]+(x+2)(x+1)f[-2,-1,0]+(x+2)(x+1)(x)f[-2,-1,0]$$ On remplace ensuite les coefficients~: $$P_3(x)=-32-58(x+2)-27(x+2)(x+1)-8(x+2)(x+1)(x)$$ On développe tout pour avoir le polynôme dans sa forme canonique (utile pour la question suivante)~: $$P_3(x)=8x^3-3x^2-7x+30$$ On peut vérifier que ce polynôme interpole bien les points donnés de $f$. \begin{figure}[h] \centering \begin{tabular}{c|ccccc} $j$ & 3 & 2 & 1 & 0 & Reste\\\hline $P_3\quad a_j$ & 8 & -3 & -7 & 30 & \\ $Q_2\quad b_j$ & & 8 & 13 & 19 & $68 = R_3$\\ $Q_1\quad c_j$ & & & 8 & 29 & $77 = R_2$\\ $Q_0\quad d_j$ & & & & 8 & $45 = R_1$\\ \end{tabular} \end{figure} $$P_3(x)=68+77(x-2)+45(x-2)^2+8(x-2)^3$$ $$f(2)\simeq P_3(2)=68$$ $$f^{(k)}(t)\simeq k!_{n-k}$$ $$f'(2)\simeq 1!R_2=77$$ $$f''(2)\simeq 2!R_1=90$$ $$f'''(2)\simeq 3!R_0=48$$ \section{Intégration numérique} On se propose d'étudier quelques méthodes numériques permettant d'approcher $\int^b_af(x)dx$. De telles méthodes s'imposent en particulier lorsque la primitive $F(x)$ de $f(x)$ n'est pas connue, ou dans le cas où $f(x)$ n'est donnée que par points. Par exemple pour~: $\int^b_a e^{-x^2}dx\simeq\sum^n_{i=0}\omega_i f(x_i)$ \subsection{Méthode générale} $$I=\int^b_a f(x)p(x)dx\quad p(x):\text{fonction poids, }>0$$ L'idée est d'utiliser les valeurs de $f$ aux points $x_i\in[a,b]\quad i=0\ldots n$. $$\int^b_a f(x)p(x)dx=\sum^a_{i=0}\omega_i.f(x_i)+E\quad E\text{ l'erreur}$$ Les coefficients $\omega_i$ sont déterminés de telle sorte que $E$ soit nulle lorsque $f(x)$ appartient à une certaine classe de fonctions (les polynômes de degré $\le N$). $$f(x)=\phi(x)+E(x)$$ $$\phi(x_i)=f(x_i)\quad i=0\ldots n$$ $$\int^b_a f(x)p(x)dx=\int^b_a\phi(x)p(x)dx+\int^b_a E(x)p(x)dx$$ $$\phi(x)=\sum^n_{j=0}L_j(x)f(x_j)\quad\text{Lagrange}$$ $$\int^b_a f(x)p(x)dx=\int^b_a\left.\sum^n_{j=0}L_j(x)f(x_j)p(x)dx\right.+ \int^b_a E(x)p(x)dx$$ $$=\sum^n_{j=0}\left(\int^b_a L_j(x)p(x)dx\right)f(x_j)+\int^b_a E(x)p(x)dx$$ $$\int^b_a f(x)p(x)dx=\sum^n_{j=0}\omega_jf(x_j)+E$$ $$\text{avec }\omega_j=\int^b_a L_j(x_j)p(x_j)dx\text{ et }E=\int^b_aE(x)p(x)dx$$ \subsection{Quelques exemples de méthodes composées} $$[\alpha,\beta]\qquad I=\int^\beta_\alpha f(x)dx$$ La méthode consiste à décomposer $[\alpha,\beta]$ en $k$ intervalles $[\alpha_i,\alpha_{i+1}]\quad i=0,1,\ldots k$ et ensuite à approcher chaque $\int^{\alpha_{i+1}}_{\alpha_i}f(x)dx$ en remplaçant $f(x)$ par son polynôme d'interpolation. \paragraph{Exemple 1} $t_i\in[\alpha_i,\alpha_{i+1}]$ $$f(x)\simeq P_0(x)=f(t_i)\quad\forall x\in\left[\alpha_i,\alpha_{i+1}\right]$$ $$\int^{\alpha_{i+1}}_{\alpha_i}f(x)dx\simeq(\alpha_{i+1}-\alpha_i)f(t_i)$$ $$\int^\beta_\alpha f(x)dx\simeq\sum^{k-1}_{i=0}\left(\alpha_{i+1}-\alpha_i\right)f(t_i)\quad\text{Somme de Riemann}$$ \paragraph{Exemple 2} Sur $[\alpha_i, \alpha_{i+1}]$ on interpole $f(x)$ par $P_1(x)$ polynôme de degré 1 qui interpole $f(x)$ aux points $\alpha_i$ et $\alpha{i+1}.$ $$\int^{\alpha_{i+1}}_{\alpha}f(x)dx\simeq \int^{\alpha_{i+1}}_{\alpha}P_1(x)dx =\int^{\alpha_{i+1}}_{\alpha}\left[\left( \frac{x-\alpha_{i+1}}{\alpha_i-\alpha_{i+1}}\right)f(\alpha_i)+ \frac{x-\alpha_{i+1}}{\alpha_i-\alpha_{i+1}}f(\alpha_{i+1})\right]$$ $$\int^{\alpha_{i+1}}_{\alpha}f(x)dx\simeq \frac{f(\alpha_i)}{\alpha_i-\alpha_{i+1}}\left[ \frac{\left(x-\alpha_{i+1}\right)^2}{2}\right]^{\alpha_{i+1}}_{\alpha_i} +\frac{f(\alpha_{i+1})}{\alpha_{i+1}-\alpha_i}$$ $$\int^{\alpha_{i+1}}_{\alpha}f(x)dx\simeq \frac{(\alpha_{i+1})-\alpha_i}{2}\left( f(\alpha_i)+f(\alpha_{i+1})\right)$$ $$\int^\beta_\alpha f(x)dx= \sum^{k-1}_{i=0}\int^{\alpha_{i+1}}_{\alpha_i}f(x)dx\simeq \sum^{k-1}_{i=0}\frac{(\alpha_{i+1}-\alpha_i)}{2}\left( f(\alpha_i)+f(\alpha_{i+1})\right)$$ $$\int^\beta_\alpha f(x)dx\simeq\sum^{k-1}_{i=0} \frac{\alpha_{i+1}-\alpha_i}{2}(f(\alpha_i)+f(\alpha_{i+1}))$$ \paragraph{Définition} Soit la méthode d'intrégration $\int^\beta_\alpha f(x)p(x)dx\simeq\sum^k_{i=0}$. Nous dirons que la méthode d'intrégration est d'ordre N si elle est exacte pout tout polynôme de degré $\lq N$, c'est-à-dire~: $E(f)=\int^\beta_\alpha f(x)p(x)dx-\sum^k_{i=0}\alpha_i f(x_i)=0\quad\forall f\text{ un polynôme }d\lq N$. Soit $U_+=\max(u,0)$. Pour $t$ fixé, $K_N(t)=E(x\mapsto (x-t)^N_t)\quad N\text{~: ordre de la méthode}$ s'appelle le noyau de Péano de la méthode d'intégration. avec la convention $(x-t)^0_t=1\quad x\ge t\qquad = 0\quad x