This repository has been archived on 2021-03-01. You can view files and clone it, but cannot push or open issues or pull requests.
cours-ing1/maths/approximations.tex

1211 lines
39 KiB
TeX

\chapter{Approximations}
\section{Introduction}
Le but de ce chapitre est de donner les premières notions de la théorie de
l'approximation permettant d'aborder la résolution de problèmes tels que :
\begin{itemize}
\item soit $f(x)$ continue sur $[a;b]$, déterminer dans l'espace des polynôme
de degré $n$ celui rend~: $|f(x)-P_n(x)|$ le plus petit possible~;
\item déterminer les coefficients $a_k$ qui minimisent la valeur $\int^b_a
(f(x).\sum^{n^2}_{k=0}a_k.\varphi_k)^2.\omega(x)dx$$\omega(x)$ est le
poid.
\item Soit $f$ continue et $(n+1)$ points $X_0, X_1, ..., X_n$~:\\
$\exists? P_n(x)/P_n(X_i)=f(X_i)\quad\forall i=0..n$\\
$P_n(x)$ est le polynôme d'interpolation de $f(x)$.
\end{itemize}
\section{Approximation dans un espace métrique} % 1.1 pour le prof !!!
$(E,d)$ est un espace métrique~: il existe une distance $d$~:
$$d:E_x E\longmapsto\mathbb{R}_{+}$$
$$(f,\Phi)\longmapsto d(f,\Phi)$$
\begin{enumerate}[(i)]
\item $d(f,\Phi)=0\Rightarrow f=\Phi$
\item $d(f,\Phi)=d(\Phi,f)$
\item $d(f,\Phi)\leq d(f,\psi)+d(\psi,\Phi)\quad\forall f,\Phi,\psi\in E$
\end{enumerate}
\paragraph{Problème} Soit $(E,d)$ un espace métrique~: $F\subset E$ (sous
espace-vectoriel de $E$).
Déterminer $\Phi^{*}\in F/d(f,\Phi^{*})=Min d(f,\Phi)\qquad\Phi\in F$. S'il
existe, cet élément $\Phi^{*}$ sera appelé meilleur approximation (ou sens de
la distance $d$) de $f\in E$.
\paragraph{Définition} $E$ est un espace vectoriel normé s'il existe une norme
$||f(f)||$, $\forall f\in E$.\\
$d(f,\Phi)=||f-\Phi||$ distance sur $E$.
On suppose que $dim(E)<+\infty$
$$||f-\Phi^*||=Min(||f-\Phi||)\qquad\Phi\in F$$
\section{Approximation uniforme}
Soit $E=\mathcal{C}([a,b]\in\mathbb{R})={f\text{~continue~}
[a,b]\rightarrow\mathbb{R}}$.\\
$E$ est normée $||f||=Max|f(x)|\quad a\leq x\leq b$
$$d(f,\Phi)=||f-\Phi||=Max|f(x)-\Phi(x)|$$
Soit $\mathbb{C}_n$ un sous espace vectoriel de $E$, de dimension $n$.\\
La meilleur approximation uniforme $\Phi^{*}\in\mathcal{E}_n$ de $f\in E$ est
donc la fonction définie par~:
$$f-\Phi^{*}=Min(Max|f(x)-\Phi(x)|)\qquad\Phi\in\mathcal{E}_n$$
Soit ${\varphi_1,\varphi_2,...,\varphi_n}$ une vase de $\mathcal{E}_n$~:
$$\Phi^{*}=\sum^n_{i=1}a_i^{*}.\varphi_i$$
$$||f-\Phi^*||=Min(Max|f(x)-\Phi(x)|)\qquad\Phi\in\mathcal{E}, a\leq x\leq b$$
\subsection{Polynôme de Chibyshev}
Les polynômes sont définis pour~:
%$${^{T_{n+1}(x)=2x.T(x)-T_{n-1}(x)}_{T(x)=1, T_1(x)=x}$$
$$T_2=2X.T_1(x)-T(x)=2x^2-1$$
$$T_3=2x.T_2(x)-T_1(x)=2x(2x^2-1)-x=4x^3-3x$$
$$T_4(x)=8^4-8x^2+1$$
\paragraph{Propriétés}
\begin{enumerate}[(i)]
\item $T_n(x)=cos(n.\theta)\qquad -1\leq x\leq 1$
$x=cos(\theta)\Leftrightarrow\theta=cos(x)\qquad 0\leq\theta\leq\pi$
\item Le coefficient dominant de $T_n(x)$ est $a_n=2^{n-1}$,
$T_n(x)=2^{n-1}.X^n...$
\item ${T_0,T_1,T_2,...,T_n}$ est un ensemble de polynômes orthogonaux sur
$[-1,1]$ relativement à la fonction poids
$\omega(x)=\frac{1}{\sqrt{1-X^2}}$
$$<T_n,T_m>=\int^1_{-1}\frac{T_n(x).T_m(x)}{\sqrt{1-X^2}}dx=0\quad\forall
n\neq m\qquad p\text{p. scalaire}$$
\item $T_n(x)=+1;-1;+1;-1;...$\\
Pour $X=1, cos(\frac{\pi}{n}), cos(\frac{2\pi}{n}), cos(\frac{k\pi}{n})$
\end{enumerate}
\paragraph{Théorème} Dans l'ensemble des polynômes de degré $n$ ayant le
coefficient de tête égal à 1, c'est $T_n^*=\frac{T_n}{2^{n-1}}$ qui réalise la
meilleure approximation uniforme de la fonction nulle sur $[-1;1]$.
$$||T_n^*||=max|T_n^*(x)|=\frac{1}{2^{n-1}}\qquad -1\leq x\leq 1$$
$$\mathcal{P}_n={\text{polynôme~:~} X^n+a_{n-1}.X^{n-1}+...+a_0}$$
\paragraph{Démonstration}
On veut montrer que $||T_n^*||=Min||R_n||\quad R_n\in P_n$.
Supposons le contraire~: $\exists R_n\in P_n$ tel que
$||R_n||<||T_n^*||=\frac{1}{2^{n-1}}$, $T_n^*-R_n=P_{n-1}$ polynôme de degré
$\leq n-1$.
$$X_0=1\qquad P_{n-1}(1)=T_n^*(1)-R_n(1)=\frac{1}{2^{n-1}}-R_n(1)>0$$
$$X_1=cos(\frac{\pi}{n})\quad
P_{n-1}(X_1)=T_n^*(X_1)-R_n(X_1)=\frac{-1}{2^{n-1}}-R_n(X_1)<0$$
$$X_2=cos(\frac{2\pi}{n})\quad
P_{n-1}(X_2)=T_n^*(X_2)-R_n(X_2)=\frac{1}{2^{n-1}}-R_n(X_2)>0$$
$$\vdots$$
$$X_n=cos(\pi)=-1\quad
P_{n-1}(X_n)=T_n^*(X_n)-R_n(X_n)=\frac{1}{2^{n-1}}-R_n(X_n)^<_>0$$
Les $(n+1)$ points $X_0=1,...,X_n$ pour lesquels $T_n^*$ prend les valeurs
$\frac{1}{2^{n-1}};\frac{1}{2^{n-1}};...$
Donc $P_{n-1}(x)$ possède au moins $n$ racines dans $[-1,1]$. Ceci n'est pas
possible car le degré $P_{n-1}\leq n-1$.
Donc $||T_n^*||=Min||R_n||\quad R_n\in P_n$.\\
\paragraph{Théorème} Si $P_n\in\mathbb{P}_n={\text{polynôme de degré}\leq n}$
est tel que la fonction erreur $\epsilon_n=f-P_n$ atteint les \emph{valeurs
extrêmes alternées} $M;-M;M;...$ à $M=||\epsilon_n||$ en \emph{au moins
$n+2$} points $X_1,X_2,...,X_{n+2}\in[a,b]$ alors $P_n$ est le polynôme qui
réalise la meilleure approximation de $f$ sur $[a,b] (P_n=P_n^*)$
\paragraph{Démonstration} (Par l'absurde)
Supposons $\exists q_n\in\mathbb{P}_n/||f-q_n||<||f-P_n||=||\epsilon_n||=M$,
$Max|f(x)-q_n(x)|<M\Leftrightarrow-M<f(x)-q_n(x)<M\quad a\leq x\leq
b\quad\forall x\in[a,b]$
$$r_n=q_n-p_n\text{degré de~}r_n\leq n$$
$$r_n=f-P_n+q_n-f=\epsilon_n+q_n-f$$
$$r_n(x_1)=\epsilon_n(x_1)+q_n(x_1)-f(x_1)=M+q_n(x_1)-f(x_1)>0$$
$$r_n(x_2)=\epsilon_n(x_2)+q_n(x_2)-f(x_2)=M+q_n(x_2)-f(x_2)<0$$
$$\vdots$$
$$r_n(x_{n+2})=\epsilon_n(x_{n+2})+q_n(x_{n+2})-f(x_{n+2})=M+q_n(x_{n+2})-f(x_{n+2})^>_<0$$
$r_n(x)$ change au moins $(n-1)$ fois de signe dans $[a,b]$ en raison de
l'aternance de $\epsilon_n\Rightarrow r_n$ possède au moins $(n+1)$ racines ce
qui est impossible.
\paragraph{Exercice 1} Polynôme de Chebyshev\\
$$\begin{cases}
T_{n+1}(x) & =\quad2x.T_n(x)-T_{n-1}(x)\\
T_0(x) & =\quad 1, T_1(x)=x\\
\end{cases}$$
\begin{enumerate}
\item Montrer que $T_n(x)=cos(\theta)\quad|x|\leq 1\quad\theta=arccos(x)$
\item Montere que le coefficient dominant de $T_n$ est $a_n=2^{n-1}$
\item Montrer que $T_n(x)=\frac{1}{2}((x+\sqrt{x^2-1})^n+(x-\sqrt{x^2}-1)^n)
\forall x\in\mathbb{R}$
\item Montrer que
$\int^1_{-1}\frac{T_n(x).T_m(x)}{\sqrt{1-x^2}}dx=0\quad\forall n\neq m$
\end{enumerate}
\begin{enumerate}[1.]
\item Par récurence sur $n$~:
\end{enumerate}
$$\begin{cases}
n=0 & T_0(x)=cos(0)=1\\
n=1 & T_1(x)=x=cos(\theta) \\
\end{cases}$$
\paragraph{Hypothèse} Supposons que $T_k(x)=cos(k\theta)$
$$T_{n+1}(x)=2x.T_n(x)-T_{n-1}(x)=2.cos(\theta).cos(n\theta)-cos(n-1)\theta$$
$$=2.cos(\theta).cos(n\theta)-(cos(n\theta).cos(\theta)+sin(\theta).
sin(n\theta))$$
$$=cos(\theta).cos(n\theta)-sin(\theta).sin(n\theta)=
cos(n+1)\theta$$
\vspace{1em}
\begin{enumerate}[2.]
\item
\end{enumerate}
$$\begin{cases}
T_{n+1}(x) & =\quad 2x.T_n(x)-T_{n-1}(x)\\
T_0(x) & =\quad 1, T_1(x)=x\\
\end{cases}$$
Supposons que le coefficient dominant de $T_n$ est $a_n=2^{n-1}$
$$T_{n+1}(x)=2x.T(x)-T_{n-1}(x) = 2x.(2^{n-1}.X^n+R_{n-1}(x))-T_{n-1}(x)$$
$$\Rightarrow a_{n+1}=2.2^{n-1}=2^n$$
\vspace{1em}
\begin{enumerate}[3.]
\item
\end{enumerate}
$$T_{n+1}=2x.T_n-T_{n-1}$$
$$T_{n+1}-2x.T_n+T_{n-1}=0 \text{(équation récurente)(*)}$$
L'équation caractéristique~: $r^2-2xr+1=0$
2 solutions particulières de l'équation (*)~: $r_1^n$ et $r_2^n$.
En effet $r_1^{n+1}-2x.r_1^n+r_1^{n-1}=r_1^{n-1}(r_1^{n-1}-2x.r_1+1)=0$, de
même pour $r_2^n$.
La solution générale de $(*)$ est $T_n=\alpha.r_1^n+\beta.r_2^n$$\alpha$ et
$\beta$ sont déterminées par les conditions initiales.
\vspace{1em}
\begin{enumerate}[4.]
\item
\end{enumerate}
$$T_{n+1}(x)=2\times T_n(x)-T_{n-1}(x)$$
$$T_n(x)=\cos(n.\theta)\qquad\theta=\arccos(x)\Leftrightarrow$$
$$X=\cos(\theta)\Rightarrow dx=-\sin(\theta)d\theta$$
$$\int^1_{-1}\frac{T_n(x)T_m(x)}{\sqrt{1-x^2}}dx=
\int^0_\pi\frac{\cos(n.\theta).\cos(m\theta)}{|\sin(\theta)|}(-\sin(\theta)d\theta)
=\int^\pi_0\cos(n\theta)cos(m\theta)d\theta$$
$$\int^\pi_0\cos(n\theta).\cos(m\theta)d\theta=
\frac{1}{2}\int^\pi_0\left(\cos(n+m)\theta+\cos(n-m)\theta\right)d\theta$$
$$=\frac{1}{2}\left[\frac{\sin(n+m)\theta}{n+m}+\frac{\sin(n-m)
\theta}{n-m}\right]=0$$
\begin{enumerate}[5.]
\item
\end{enumerate}
$$T_n(x)=0\qquad|x|\leq1$$
$$\Leftrightarrow\cos(n\theta)=0\Leftrightarrow n.\Theta=\frac{\pi}{2}+k\pi
\Leftrightarrow\theta_k=\frac{\pi}{2n}+\frac{k\pi}{n}$$
Les racines de $T_n(x)$ soit~:
$$X_k=\cos(\frac{\pi}{2n}+\frac{k\pi}{n})\qquad k=0,1\quad n=1$$
\paragraph{Exercice 2} Polynôme de Legendre
On considère les polynômes~:
\[
\left\{
\begin{array}{l l}
P_0(x) & =1\\
P_n(x) & =\frac{1}{2^n!}\frac{d^n}{dx^n}((x^2-1)^n)\quad\forall n\geq1\\
\end{array} \right.
\]
Les polynômes vérifient la relation $P_n(x)=\frac{2n-1}{n}\times P_{n-1}(x)
-\frac{n-1}{n}P_n(x)\quad\forall n\geq2$.
\begin{enumerate}
\item Montrer que $\int^1_{-1}x^k.P_n(x)dx=0\quad\forall k=0,1,...,n-1$.
\item En déduire la relation d'orthogonalité~: $\int^{1}_{-1}P_n(x).P_m(x)dx
=0\quad\forall n\neq m$.
\item Montrer que le coefficient dominant de $P_n(x)$ est~: $a_n=
\frac{(2.n)!}{2^n(n!)^2}$
\item Montrer que $||P_n||=\sqrt{\frac{2}{2n-1}}$\\
(Rappel~: $||P_n||=\sqrt{\int^1_{-1}P^2_n(x)dx}$)
\end{enumerate}
\begin{enumerate}[1.]
\item
\end{enumerate}
$$\frac{1}{2^nn!}\int^1_{-1}x^k\frac{d^n}{dx^n}
\left(\left(x^2-1\right)^n\right)dx
\left\{
\begin{array}{l l}
u^1 & =\frac{d^n}{dx^n}\left(\left(x^2-1\right)^n\right)\\
v & =x^k\\
\end{array} \right.
$$
$$=\frac{1}{2^nn!}\left(\left[x^k\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1
\right)^n\right)\right]^1_{-1}\right)-k\int^1_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1}
}\left(\left(x^2-1\right)^n\right)$$
$$=\frac{-k}{2^nn!}\int^{1}_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1\right)^n\right)dx$$
\subparagraph{Deuxième intégration par partie}
$$I=-\frac{k}{2^nn!}\int^1_{-1}x^{k-1}\frac{d^{n-1}}{dx^{n-1}}\left(\left(x^2-1\right)^n\right)dx$$
$$=-\frac{k}{2^nn!}\left(\left[X^{k-1}\frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)\right]^1_{-1}
\frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)dx\right)$$
$$I=\frac{k(k-1)}{2^nn!}\int^1_{-1}x^{k-2}\frac{d^{n-2}}{dx^{n-2}}\left(\left(x^2-1\right)^n\right)dx$$
Après $p$ intégration par parties, on obtient~:
$$I=\frac{(-1)^p.k(k-1)(k-2)...(k-p+1)}{2^nn!}\int^1_{-1}x^{k-p}\frac{d^{n-p}}{dx^{n-p}}\left(\left(x^2-1\right)^n\right)dx$$
Si $p=k$ ($k$ intégrations par partie)~:
$$I=\frac{(-1)^kk!}{2^nn!}\int^1_{-1}\frac{d^{n-k}}{dx^{n-k}}\left(\left(x^2-1\right)^n\right)dx$$
$$=\frac{(-1)^kk!}{2^nn!}\left[\frac{d^{n-k-1}}{dx^{n-k-1}}\left(\left(x^2-1\right)^n\right)\right]^1_{-1}=0$$
\begin{enumerate}[2.]
\item
\end{enumerate}
$$\int^1_{-1}P_n(x).P_m(x)dx=\sum^n_{k=0}a_k\int^1_{-1}x^k.P_m(x)=^?0\quad\forall n\neq m$$
Supposons que $n<m$ $P_n(x)=\sum^n_{k=0}a_k.x^k$
$$\int^{1}_{-1}P_n(x).P_m(x)dx=\sum^n_{k=0}a_k\int^1_{-1}x^k.P(x)dx=0\quad\text{car }k<m\text{(première partie)}$$
\begin{enumerate}[3.]
\item
\end{enumerate}
$$P_n(x)=\frac{(2n-1)}{n}x.P_{n-1}(x)-\frac{(n-1)}{n}P_{n-2}(x)\quad\forall n\geq 2$$
$$=n.x.\deg(n)-n.P_{n-2}(x)$$
$a_n$ est le coefficient dominant de $P_n(x)$.
$$a_n=\frac{(2n-1)}{n}a_{n-1}\quad a_{n-1}\text{ est le coefficient dominant de }P_{n-1}$$
$$\left\{
\begin{array}{l l l}
a_n & = & \frac{(2n-1)}{n}a_{n-1}\\
a_{n-1} & = & \frac{(2n-3)}{n-1}a_{n-2}\\
a_{n-2} & = & \frac{(2n-5)}{n-2}a_{n-3}\\
\vdots & & \\
a_2 & = & \frac{3}{2}a_{1}\\
\end{array} \right.
$$
$$P_1(x)=\frac{1}{2}\frac{d}{dx}\left(x^2-1\right)=\frac{1}{2}\times 2x=x$$
$$P_1(x)=x$$
$$a_1=1$$
$$a_n=\frac{(2n-1)(2n-3)\ldots3.1}{n!}=\frac{(2n)!}{n!.2.4.5\ldots2n}=\frac{(2n)!}{2^n(n!)^2}$$
\begin{enumerate}[4.]
\item
\end{enumerate}
$$
\left.
\begin{array}{c l}
||P_n|| & = \sqrt{\int^{1}_{-1}P_n^2(x)dx}\\
P_n(x) & = a_n.x^n+Q_{n-1}(x)\\
\end{array} \right\}
||P_n||^2=\int^1_{-1}P_n^2(x)dx$$
$$=a_n\int^1_{-1}x^n.P_n(x)+\int^1_{-1}Q_{n-1}(x).P_n(x)dx$$
$$=a_n\int^1_{-1}x^n\frac{1}{2^nn!}\frac{d^n}{dx^n}\left(x^2-1\right)dx$$
$$=\frac{a_n}{2^nn!}\int^1_{-1}x^n\frac{d^n}{dx^n}\left(x^2-1\right)dx$$
En utilisant la première question avec $k=1$~:
$$\int^{1}_{-1}x^n\frac{d^n}{dx^n}\left(\left(x^2-1\right)^n\right)dx=(-1)^nn!
\int^1_{-1}(x-1)^ndx$$
$$||P_n||^2=\frac{a_n}{2nn!}(-1)^nn!\int^1_{-1}(x^2-1)^n dx
=\frac{a_n(-1)^n}{2^n}\int^1_{-1}\left(x^2-1\right)^n dx$$
Soit $I_n=\int^1_{-1}(x^2-1)^ndx$~:
$$\left\{
\begin{array}{l l l l l}
v & = & (x^2-1) & \rightarrow & v'=n(x^2-1)^{n-1}2x\\
n' & = & 1 & \rightarrow & n = x\\
\end{array} \right.
$$
$$I_n=\left[x(x^2-1)^n\right]^1_{-1}-2n\int^1_{-1}(x^2-1)^{n-1}x^2dx$$
$$=-2n\int^1_{-1}(x^2-1)^{n-1}x^2dx = -2n\int^1_{-1}(x^2-1)^{n-1}(x^2-1+1)dx$$
$$=-2n\int^1_{-1}(x^2-1)^{n}dx-2n\int^1_{-1}(x^2-1)^{n-1}dx$$
$$
\begin{array}{l l l}
(2n-1)I_n & = -2nI_{n-1} & \Rightarrow I_n=\frac{-2n}{2n+1}I_{n-1}\\
& & \Rightarrow I_n=\frac{(-2)^nn!.I_0}{(2n+1)(2n-1)\ldots3}=\frac{(-1)^n.2^{n+1}n!}{(2n+1)!}2^nn!\\
\end{array}
$$
$$||P_n||^2=\frac{(2n)!(-1)^n}{2^n(n!)^2 2^n}(-1)^n\frac{2^{2n+1}(n!)^2}{(2n+1)}=\frac{2}{2n+1}$$
$$\Rightarrow||P_n||=\sqrt{\frac{2}{2n+1}}$$
\section{Méthode des moindres carrés}
Soit $E$ espace vectoriel sur $\mathbb{R}$.
$$(f,g)\in E\times E\longrightarrow<f,g>\in\mathbb{R}$$
$$||f||=\sqrt{<f,f>}$$
Soit $F\subset E$ (sous-espace vectoriel) de dimension finie.
\paragraph{Théorème} Une condition nécessaire et suffisante pour que
$\phi^*\in F$ soit une meilleure approximation de
$f\in E$ et que $<f.\phi^*,\phi>=0\quad\forall\phi\in F$
\paragraph{Démonstration}
\subparagraph{Condition nécessaire}
Soit $\phi^*\in F$ la meilleure approximation de $f\in E$, supposons
$\exists\phi_1\in F$ tel que $<f-\phi^*, \phi_1>=\alpha\neq 0$.
Soit $\phi_2=\phi^*+\beta.\phi_1$ avec $\beta=\frac{\alpha}{||\phi_1||^2}$
$$
\begin{array}{l l}
||f-\phi_2||^2 & =<f-\phi_2, f-\phi_2>\\
& =<f-\phi^*-\beta.\phi_1,f-\phi^*-\beta.\phi_1>\\
& =||f-\phi^*||^2 - 2\beta<f-\phi^*,\phi_1>+\beta^2||\phi_1||^2\\
& =||f-\phi^*||^2 - 2\beta\alpha + \beta^2||\phi_1||^2\\
&=||f-\phi^*||^2-2\frac{\alpha^2}{||\phi_1||}+\frac{\alpha^2}{||\phi_1||^2}\\
& =||f-\phi^*||^2-\frac{\alpha^2}{||\phi_1||^2}\\
& =||f-\phi^*||^2-\frac{\alpha^2}{||\phi_1||^2}\\
& \Rightarrow||f-\phi_2||<||f-\phi^*|| \text{ce qui est absurde car }\phi^*
\text{ est déjà la meilleure approximation de } f\\
& \Rightarrow <f-\phi^*, \phi>=0\forall\phi\in F\\
\end{array}
$$
\subparagraph{Condition suffisante}
Supposons que $<f-\phi^*,\phi>=0\quad\forall\phi\in F$.
Soit $\phi_1\in F$ tel que $<f-\phi_1,\phi>=0\quad\forall\phi\in F$.
$$
\begin{array}{l l}
||f-\phi||^2 & =<f-\phi, f-\phi>\\
& = <(f-\phi_1)-(\phi-\phi_1), (f-\phi_1)-(\phi-\phi_1)>\\
& =||f-\phi_1||^2-2<f-\phi_1, \phi-\phi_1>+||\phi-\phi_1||^2\\
& =||f-\phi_1||^2+||\phi-\phi_1||^2\qquad\forall\phi\in F\\
& \Rightarrow ||f-\phi_1||\le||f-\phi||\quad\forall\phi\in F\\
& \Rightarrow ||f-\phi_1||=\min||f-\phi||\Longrightarrow\phi_1=\phi^*\\
\end{array}
$$
\subparagraph{Remarque} Cette condition montre que l'élément $\phi^*$
représente la projection orthogonale de $f$ sur $F$.\\
$\phi^*$ est unique
\subsubsection{Construction de $\phi^*$}
Soit ${\varphi_1,\varphi_2,\ldots,\varphi_n}$ une base de $F$.
$$\varphi^*=\sum^{n}_{k=1}a^*_k.\varphi_k$$
La condition d'orthogonalisation $<f-\varphi^*,\varphi_j>=0\quad\forall
j=1\ldots
n$\\
$$\left<f-\sum^n_{k=1}a^*_k.\varphi_k,\varphi_j\right>=0\quad\forall j=1\ldots
n$$
$$<f,\varphi_j>-\sum^n_{k=1}a^*_{k=1}<\varphi_k,\varphi_j>=0\quad\forall
j=1\ldots n$$
\[ (S)
\begin{cases}
\sum^n_{k=1}<\varphi_k,\varphi_j>a^*_k=<f,\varphi_j>\\
\forall j=1\ldots n
\end{cases}
\]
C'est un système linéaire à $n$ équations et $n$ inconnues.
\paragraph{Remarque} Si la base ${\varphi_1,\varphi_2,\ldots,\varphi_n}$ est
orthonormée, la matrice du système sera diagonale.\\
La matrice du système $(S)$ est la matrice de \emph{Gram}~:
$$G_{kj}=<\varphi_k,\varphi_j>\forall k=1\ldots n, j=1\ldots n$$
\begin{enumerate}[(a)]
\item \textbf{Cas continu}
\end{enumerate}
Soit $\omega$ une fonction poids, position telle que $\int^b_af(x)\omega(x)dx$
existe $\forall f\in E=\mathcal{C}([a,b])$.
$<f,g>=\int^b_af(x)g(x)\omega(x)dx$ produit scalaire sur $E$.
$F=\epsilon$ sous-espace vectoriel de dimension $n$.
$$(S)\Leftrightarrow
\begin{cases}
\sum^n_{k=1}a^*_k\int_a^b\varphi_k(x)\omega(x)dx=\int_a^bf(x)\varphi_j(x)dx\\
\forall j=1\ldots n\\
\end{cases}
$$
$$\text{La matrice de Gram~: }
G_{kj}=\int^b_a\varphi_k(x).\varphi_j(x)\omega(x)dx$$
\begin{enumerate}[(b)]
\item \textbf{Cas discret}
\end{enumerate}
Le produit scalaire discret~: $<f,g>=\sum^N_{i=0}f(x_i)g(x_i)\omega(x_i)$.
$f$ est donnée aux points $x_i(i=0\ldots N)$
$$||f||=\sqrt{\sum^N_{i=0}f(x_i)\omega(x_i)}$$
$$(S)\Leftrightarrow
\left\{
\begin{array}{l}
\sum^n_{k=1}a_k^*
\sum^N_{i=0}\varphi_k(x_i).\varphi_j(x_i)\omega(x_i)=
\sum^N_{i=0}f(x_i)\varphi_j(x_i)\omega(x_i)\\
\forall j=1\ldots n \text{ La matrice } G_{kj}=
\sum^N_{i=0}\varphi_k(x_i).\varphi_j(x_i)\omega(x_i)
\end{array}\right.
$$
\section{Interpolation}
Soit $f(x)$ une fonction continue sur $[a,b]$.
$f(x)$ est connue en $(n+1)$ points $x_i\in[a,b] (i=1\ldots n+1)$.
Chercher une fonction $\varphi$ d'un type choisi à l'avance qui interpole
$f(x)$ sur $[a,b]$, c'est déterminer $\varphi$ tel que
$\varphi(x_i)\quad\forall i=1\ldots n+1$.
En général, on cherche $\varphi$ dans l'espace des polynômes.
\subsection{Polynôme d'interpolation de Lagrange}
Soit $P_n(x)=\sum_{i=1}^{n+1}L_i(x)f(x_i)$ où les fonctions $L_i$ sont des
polynômes de degré au plus $n$, telles que $L_i(x_j)=\delta_{ij}$.
$$L_i(x_j)=0\Rightarrow
L_i(x)=C(x-x_1)(x-x_2)\ldots(x-x_{i-1})(x-x_{i+1})\ldots(x-x_{n+1})
\qquad\forall j\neq i$$
$$L_i(x_i)=1\Rightarrow
C=\left[(x_i-x_1)\ldots(x-x_{i-1})(x-x_{i+1})\ldots(x-x_{n+1})\right]$$
$$L_i(x)=\prod^{n+1}_{j=1~j/neq i}\frac{x-x_j}{x_i-x_j}\text{ La base de
Lagrange}$$
$$P_n(x)=\sum^{n+1}_{i=1}L_i(x)f(x_i)=\sum^{n+1}_{i=1}\prod^{n+1}_{j=1~j\neq
i}\frac{x-x_j}{x_i-x_j}f(x_i)\text{ Le polynôme de Lagrange}$$
$$P_n(x_k)=\sum^{n+1}_{i=1}L_i(x_k)f(x_i)$$
$$P_n(x_k)=f(x_k)\qquad\forall k=1\ldots n+1$$
\paragraph{Exemple} Soit $f$ continue telle que~:
\begin{tabular}{r|cccc}
$x_i$ & $0$ & $1$ & $3$ & $4$ \\ \hline
$f(x_i)$ & $1$ & $3$ & $2$ & $5$
\end{tabular}
Construire le polynôme d'interpolation $P_z(x)$ de $f(x)$.
$$P_z(x)=\frac{(x-1)(x-3)(x-4)}{(-1)(-3)(-4)}.1+
\frac{x(x-3)(x-4)}{1(1-3)(1-4)}.3+
\frac{x(x-1)(x-4)}{3(3-1)(3-4)}.2+
\frac{x(x-1)(x-3)}{4(4-1)(4-3)}.5$$
$$P_z(x)=\frac{x^3}{2}-\frac{14}{6}x^2+\frac{13}{3}x+1$$
Pour vérifier que l'on a pas fait d'erreur de calcul, on véfifie que
$P_z(x_i)=f(x_i)$
\paragraph{Remarque} L'erreur d'interpolation $\varepsilon(x)=f(x)-P_n(x)$.
Si $f\in\mathcal{C}^{n+1}[a,b]$ ($f$ est dérivable $n+1$ fois avec ses dérivées
continues).
$$\exists\eta_x\in[a,b]/\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i)
\frac{f^{(n+1)}(\eta_x)}{(n+1)!}$$
\subsection{Polynôme d'interpolation de Newton}
\paragraph{Différence divisées} Soit $f$ une fonction donnée en $n+1$ points
$x_1,x_2,\ldots,x_{n+1}~(x_i\neq x_j~i\neq j)$.
On appelle différence divisée d'ordre $0,1,2,\ldots,n$ de $f$ les expressions
suivantes~:
\begin{figure}[h!]
\centering
\begin{tabular}{c|c|c}
\textbf{Ordre} & \textbf{Notation} & \textbf{Définition} \\ \hline
$0$ & $f[x_i]$ & $f(x_i)$ \\
$1$ & $f[x_i,x_j]$ & $\frac{f[x_i]-f[x_j]}{x_i-x_j}~i\neq j$ \\
$2$ & $f[x_i,x_j,x_k]$ & $\frac{f[x_i,x_j]-f[x_j,x_k]}{x_i-x_k}~i\neq j\neq
k$ \\
\vdots&\vdots&\vdots\\
$n$ & $f[x_1,\ldots,x_{n+1}]$ &
$\frac{f[x_1,\ldots,x_n]-f[x_2,\ldots,x_{n+1}]}{x_1-x_{n+1}}$\\
\end{tabular}
\end{figure}
\paragraph{Polynôme de Newton}
$$f[x,x_1]=\frac{f(x)-f(x_1)}{x-x_1}\Rightarrow f(x)=f(x_1)+(x-x_1).f[x,x_1]$$
$$f[x,x_1,x_2]=\frac{f[x,x_1]-f[x_1,x_2]}{x-x_2}
\Rightarrow f[x,x_1]=f[x_1,x_2]+(x-x_2).f[x,x_1,x_2]$$
$$f(x)=f(x_1)+(x-x_1).f[x_1,x_2]+(x-x_1)(x-x_2).f[x,x_1,x_2]$$
$$P_1(x)=f(x_1)+(x-x_1).f[x_1,x_2]$$
$$P_1(x_1)=f(x_1)$$
$$P_1(x_2)=f(x_1)+(x_2-x_1).\frac{f(x_1)-f(x_2)}{x_1-x_2}=f(x_1)-f(x_1)+f(x_2)
=f(x_2)$$
Donc $P_1(x)$ interpole la fonction $f$ aux points $x_1$ et $x_2$.
En réitérant le procédé, on obtient~:
$$f(x)=f(x_1)+(x-x_1).f[x_1,x_2]+(x-x_1)(x-x_2)f[x_1,x_2,x_3]+
\ldots+(x-x_1)\ldots(x-x_n).f[x_1,\ldots,x_{n+1}]$$
$$+\prod^{n+1}_{i=1}(x-x_i).f[x,x_1,\ldots,x_{n+1}]\qquad\text{l'erreur}$$
$P_n(x)$ est le polynôme d'interpolation de Newton de $f(x)$ aux $(n+1)$ points
$x_i~(i=1\ldots n+1)$.
$$\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i).f[x,x_1,\ldots,x_{n+1}]$$
\paragraph{Algorithme de Newton}
$$P_0(x)=f(x_1)$$
Pour $m=0,\ldots,n-1$~:
$$P_{m+1}(x)=P_m(x)+(x-x_1)\ldots(x-x_{m-1}).f[x_1,\ldots,x_{m+1}]$$
\paragraph{Exercice 3} Sur $[-1,1]$ on considère la fonction $f(x)=X^3-X^2$
\begin{enumerate}
\item Décomposer $f(x)$ dans la base de Chebyshev.
\item En déduire $P^*_2(x)$ polynôme de meilleur approximation de degré 2 de
$f(x)$.\\
Donner l'erreur d'approximation $||f-P^*||$
$$||f||=max|f(x)|\qquad -1\leq x\leq 1$$
\end{enumerate}
\[
\begin{array}{l l}
f(x)= & a_0.T_0(x)+a_1.T_1(x)+a_2.T_2(x)+a_3.T_3(x)$$\\
\begin{cases}
T_0(x)=1\\
T_1(x)=x\\
T_2(x)=2x^2-1\\
T_3(x)=4x^3-3x
\end{cases}
& a_0 + a_1x + a_2(2x^2-1) + a_3 (4x^3 - 3x)\\
& a_0 + a_1x + 2a_2x^2 - a_2 + 4a_3 + 4a_3x^3 - 3a_3x\\
& a_0 - a_2 + (a_1 - 3a_3) x + 2a_2x^2 + 4a_3 + 4a_3x^3\\
\end{array}
\]
\[
\Rightarrow
\begin{cases}
a_0 - a_2 = 0\\
a_1 - 3a_3 = 0\\
2a_1 = -1\\
4a_3=1
\end{cases}
\Rightarrow
\begin{cases}
a_0=-\frac{1}{2}\\
a_2=-\frac{1}{2}\text{ et }a_1=\frac{3}{4}\\
a_4=\frac{1}{4}
\end{cases}
\]
Donc
$f(x)=-\frac{1}{2}T_0(x)+\frac{3}{4}T_5(x)-\frac{1}{2}T_2(x)+\frac{1}{4}T_3(x)$
$$\epsilon=f(x)-P_2(x)=\frac{1}{4}=T_3(x)$$
$$M=||\epsilon||=\max|\epsilon(x)|=\frac{1}{4}$$
\[
\begin{cases}
T_3(x)=\cos(3\theta)\\
\theta=\arccos(x)
\end{cases}
\]
\subparagraph{Théorème} Si la fonction erreur $\epsilon(x)$ atteint la veuleur
extrême alternée $M$ et $-M$ en au moins $(n+2)$ points, alors
$P_n(x)=P^*_n(x)$.
$$\epsilon(x)=\frac{1}{4}T_3(x)=
\frac{1}{4}\cos(3\theta)\qquad\theta=\arccos(x)$$
Les $x_k=\cos\frac{k\pi}{n}\quad n=3$.
\[
\begin{array}{l l l}
k=0 & x_0=1 & \varepsilon(x_0)=\frac{1}{4}=M\\
k=1 & x_1=\cos\frac{\pi}{3} & \varepsilon(x_1)=-\frac{1}{4}\\
k=2 & x_2=\cos\frac{2\pi}{3} & \varepsilon(x_2)=\frac{1}{4}\\
k=3 & x_3=\cos\pi & \varepsilon(x)=-\frac{1}{4}
\end{array}
\Rightarrow
\begin{cases}
x_0=1\\
x_1=\cos\frac{\pi}{3}=\frac{1}{2}\\
x_2=\cos\frac{2\pi}{3}=-\frac{1}{2}\\
x_3=\cos\pi=-1
\end{cases}
\Rightarrow
P_2(x)=P_2^*(x)
\]
Donc~:
\[
\begin{array}{l l}
P_2^*(x)= & -\frac{1}{2}T_0(x)+\frac{3}{4}T_1(x)-\frac{1}{2}T_2(x)\\
& = -4+\frac{3}{4}x-\frac{1}{4}(2x^3-1)\\
& = -\frac{1}{2}+\frac{3}{4}X - x^2+\frac{1}{2}\\
& = \frac{3}{4}x = \frac{3}{4}x-x^2
\end{array}
\]
\paragraph{Exercice 4} Soit $f(x)$ une fonction continue donnée aux points
$x_i(i=1,2,3,4)$.
$f(0)=-5, f(1)=17, f(2)=115, f(4)=143$
En utilisant le polynôme d'interpolation de Lagrange, interpoler $f(2)$.
$$f(0)=-5, f(1)=17, f(2)=115. f(4)=143$$
$$P_n(x)=\sum_{i=1}^{n+1}f(x_i)$$
$$L_i(x)=\prod^{n+1}_{j=1}\left(\frac{x-x_i}{x_i-x_j}\right)$$
Interpolons $f(2)$~:
$$L_1(2)=\frac{(2-1)(2-3)(2-4)}{(-1)(-3)(-4)}=\frac{-2}{12}=\frac{-1}{6}$$
$$L_2(2)=\frac{(2-0)(2-3)(2-4)}{1(-2)(-3)}=\frac{4}{6}=\frac{2}{3}$$
$$L_3(2)=\frac{2(2-1)(2-4)}{3(3-1)(3-4)}=\frac{-4}{-6}=\frac{2}{3}$$
$$L_4(2)=\frac{2(2-1)(2-3)}{4(3)(1)}=\frac{-2}{12}=\frac{-1}{6}$$
La valeur interpolée est~: $f(2)\simeq P_3(2)=-\frac{1}{6}(-5)+\frac{2}{3}(17)
+\frac{2}{3}(115)-\frac{1}{6}(143)\simeq 65$
\paragraph{Exercice 5} Soit $f\in C^{n+1}[a,b]$, $P_n(x)$ son polynôme
d'interpolation de $f(x)$ aux points $x_i\in[a,b]$ $(i=1\ldots n+1)$
$$\varepsilon(x)=f(x)-P_n(x)\quad\text{erreur d'interpolation}$$
Montrer qu'il existe $\eta_x\in[a,b]$ tel que $\varepsilon(x)=
\prod^{n+1}_{i=1}(x-x_i)\frac{f(\eta_x)}{(n+1)!}$
\subparagraph{Rappel} Théorème de Rolle
$f$ continue, dérivable sur $[a,b]$. Si $f(a)=f(b)$ alors $\exists C\in]a,b]$
tel que $f'(c)=0$.
$$\varepsilon(x_i)=0\text{ car }P_n(x_i)=f(x_i)$$
$$\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i)A_x\qquad x.f(x_i)\quad x\neq
x_i\quad A_x\text{ quantité inconnue}$$
Soit la fonction
$\varphi(y)=f(y)-P_n(y)-\prod^{n+1}_{i=1}(y-x_i)A_x\quad\forall y\in[a,b]$
\[
\begin{cases}
\varphi(x_i)=0\qquad\forall i=1\ldots n+1\\
\varphi(x)=0
\end{cases}
\]
$\varphi$ admet $(n+2)$ racines. $\varphi\in C^{n+1}$ car $f\in C^{n+1}$.
On applique le théorème de Rolle $\varphi'$ admet au moins $(n+1)$ racines.
On applique le théorème de Rolle $\varphi''$ admet au moins $n$ racines.
On applique le théorème de Rolle $\varphi^(3)$ admet au moins $n-1$ racines.
\hspace{6cm}\vdots
On applique le théorème de Rolle $\varphi^(p)$ admet au moins $(n+1)-p$
racines.
Si $p=n+1$ $\Rightarrow\varphi^{(n+1)}$ admet au moins 1 racine
$\eta_x\quad\varphi^{(n+1)}(\eta_x)=0$
or~:
$$\varphi^{(n+1)}(y)=f^{(n+1)}(y)-0-(n+1)! A_x$$
$$\varphi^{(n+1)}(\eta_x)=0\Rightarrow f^{(n+1)}(\eta_x)-(n+1)!
A_x=0\Rightarrow A_x=\frac{f^{(n+1)}(\eta_x)}{(n+1)!}$$
Donc~:
$$\varepsilon(x)=\prod^{n+1}_{i=1}(x-x_i)\frac{f^{(n+1)(\eta_x)}}{(n+1)!}$$
$$f\left[x_1, \ldots, x_{n+1}\right]=\frac{f\left[x_1,\ldots,
x_n\right]-f\left[x_2,\ldots, x_{n+1}\right]}{x_1 - x_{n+1}}$$
\section{Dérivation numérique}
Lorsqu'une fonction $f(x)$ dont on veut calculer les dérivées siccessives
$f'(x)$, $f''(x),\ldots$ est données par les valeurs $f(x_i)$, on procède de la
manière suivante~:
\begin{enumerate}[(i)]
\item $f(x)\simeq g(x)\qquad\text{(polynôme d'interpolation)}$.
\item $f^(k)(x)\simeq g^{(k)}\simeq g^{(k)}(x)$
\end{enumerate}
\subsection{Dérivée d'un polynôme par division synthétique}
$$f(x)\simeq P_n(x)=\sum^{n}_{j=0}a_j.x^j$$
Soit à calculer~:
$$f^{(k)}(x=t)\qquad\text{dérivée d'ordre }k$$
$$f^{(k)}\simeq P^{(k)}_n(x)=\sum^{n}_{j=k}j(j-1)\ldots(j-k+1)a_j.x^{j-k}$$
Il suffit alors de calculer $P_n^{(k)}(x=t)$.
$$P_n(x) | x-t\qquad\text{(division par )x-t}$$
$$P_n(x)=(x-t)Q_{n-1}(x)+R_n\quad Q_{n-1}(x)=b_{n-1}X^{n+1}+\ldots+b+0$$
\[
\begin{cases}
b_{n-1}=a_n\\
b_{j-1}=t.b_j+a_j\quad j=n-1,\ldots, 1
\end{cases}
\]
\paragraph{Exemple} $$P_4(x)=2x^4-5x^3+x^2-7x+6\qquad t=2$$
\begin{figure}[h]
\centering
\begin{tabular}{c|cccccc}
$j$ & 4 & 3 & 2 & 1 & 0 &\\\hline
$P_4 a_j$ & 2 & -5 & 1 & -7 & 6 &\\
$Q_3 b_j$ & & 2 & -1 & -1 & -9 & -12\\
\end{tabular}
\end{figure}
On peut poursuivre le processus~:
\begin{figure}[h]
\centering
\begin{tabular}{c|cccccc}
$j$ & 4 & 3 & 2 & 1 & 0 & Reste\\\hline
$P_4\quad a_j$ & 2 & -5 & 1 & -7 & 6 &\\
$Q_3\quad b_j$ & & 2 & -1 & -1 & -9 & $-12 = R_4$\\
$Q_2\quad c_j$ & & & 2 & 3 & 5 & $1 = R_3$\\
$Q_1\quad d_j$ & & & & 2 & 7 & $19 = R_2$\\
$Q_0\quad e_j$ & & & & & 2 & $11 = R_1$\\
\end{tabular}
\end{figure}
$$R_0=a_n=2=Q_0$$
\[
\left.
\begin{array}{l}
P_4(x)=(x-2).Q_3(x)-12\\
Q_3(x)=(x-2).Q_2(x)+1\\
Q_2(x)=(x-2).Q_1(x)+19\\
Q_1(x)=(x-2).Q_0(x)+11\\
\end{array}
\right\}
P_4(x)=-12+(x-2)+19(x-2)^2+11(x-2)+2(x-2)^4
\]
Ainsi les $R_k$ sont les coefficients du développement de $P_n(x)$ en puissance
de $(x-t)\quad(t=2)$.
D'une manière générale~:
$$P_n(x)=\sum^n_{l=0}R_e(x-t)^{n-l}$$
Em dérivant $k$ fois~:
$$P_n^{(k)}(x)=\sum^{n-k}_{l=0}(n-l)\ldots(n-l-k+1)R_e(x-t)^{n-l-k}$$
$$x=t\Rightarrow P_n^{(k)}(t)=k!R_{n-k}$$
$$f^{(k)}(t)\simeq k!R_{n-k}$$
\paragraph{Exercice 6} $f(x)$ continue, donnée aux points~: $f(-2)=69$,
$f(2)=17$, $f(3)=24$, $f(5)=-22$
\begin{enumerate}
\item Construire le tableau des différences divisées.
\item En déduire le polynôme d'interpolation de Newton.
\item En utilisant l'algorithme de division synthétique, interpoler $f(4)$ et
donner les approximations des dérivées $f'(4)$, $f''(4)$, $f'''(4)$.
\end{enumerate}
\begin{figure}[h]
\centering
\begin{tabular}{c|cccc}
$x_i$ & 0 & 1 & 2 & 3 \\\hline
$-2$ & \textbf{69} & \textbf{-13} & & \\
$2$ & 17 & & \textbf{4} & \textbf{-2}\\
$3$ & 24 & 7 & -10 & \\
$5$ & -22 & -23 & & \\
\end{tabular}
\end{figure}
Pour calculer les machins de ce tableau~:
$$f[x_i;x_j]=\frac{f[x_i]-f[x_j]}{x_j-x_i}=\frac{f(x_i)-f(x_j)}{x_i-x_j}$$
$$f[-2,2,3]=\frac{f[2,3]-f[-2,2]}{5}$$
\subparagraph{2. Le polynôme d'interpolation de Newton}
$$P_3(x)=f[-2]+(x+2)f[-2,2]+(x+2)(x-2)f[-2,2,3]+(x+2)(x-2)(x-3)f[-2,2,3,5]$$
On remplace ensuite les coefficients~:
$$P_3(x)=69-13(x+2)+4(x+2)(x-2)-2(x+2)(x-2)(x-3)$$
On développe tout pour avoir le polynôme dans sa forme canonique (utile pour la
question suivante)~:
$$P_3(x)=-2x^3+10x^2-5x+3$$
On peut vérifier que ce polynôme interpole bien les points donnés de $f$.
\subparagraph{3. Algorithme de division synthétique}
Pour $Q_1$,0~: 4 (coeff) * -2 (valeur précédente sur la ligne) + 2 (valeur au dessus) = -6
\begin{figure}[h]
\centering
\begin{tabular}{c|ccccc}
$j$ & 3 & 2 & 1 & 0 & Reste\\\hline
$P_3\quad a_j$ & -2 & 10 & -5 & 3 & \\
$Q_2\quad b_j$ & & -2 & 2 & 3 & $15 = R_3$\\
$Q_1\quad c_j$ & & & -2 & -6 & $-21 = R_2$\\
$Q_0\quad d_j$ & & & & -2 & $-14 = R_1$\\
\end{tabular}
\end{figure}
$$P_3(x)=15-21(x-4)-14(x-4)^2-2(x-4)^3$$
$$f(4)\simeq P_3(4)=15$$
$$f^{(k)}(t)\simeq k!_{n-k}$$
$$f'(4)\simeq 1!R_2=-21$$
$$f''(4)\simeq 2!R_1=-28$$
$$f'''(4)\simeq 3!R_0=-12$$
\paragraph{Exercice 7} Soit $f(x)$ continue, donnée aux points $f(-2)=-32$,
$f(-1)=26$, $f(0)=30$, $f(1)=28$
\begin{enumerate}
\item Construire le tableau des différences divisées.
\item En déduire le polynôme d'interpolation de Newton.
\item En utilisant l'algorithme de division synthétique, interpoler $f(2)$ et
donner les approximations des dérivées $f'(2)$, $f''(2)$, $f'''(2)$.
\end{enumerate}
\begin{figure}[h]
\centering
\begin{tabular}{c|cccc}
$x_i$ & 0 & 1 & 2 & 3 \\\hline
$-2$ & \textbf{-32} & \textbf{58} & & \\
$-1$ & 26 & & \textbf{27} & \textbf{8}\\
$0$ & 30 & 4 & -3 & \\
$1$ & 28 & -2 & & \\
\end{tabular}
\end{figure}
\subparagraph{2. Le polynôme d'interpolation de Newton}
$$P_3(x)=f[-2]+(x+2)f[-2,-1]+(x+2)(x+1)f[-2,-1,0]+(x+2)(x+1)(x)f[-2,-1,0]$$
On remplace ensuite les coefficients~:
$$P_3(x)=-32-58(x+2)-27(x+2)(x+1)-8(x+2)(x+1)(x)$$
On développe tout pour avoir le polynôme dans sa forme canonique (utile pour la
question suivante)~:
$$P_3(x)=8x^3-3x^2-7x+30$$
On peut vérifier que ce polynôme interpole bien les points donnés de $f$.
\begin{figure}[h]
\centering
\begin{tabular}{c|ccccc}
$j$ & 3 & 2 & 1 & 0 & Reste\\\hline
$P_3\quad a_j$ & 8 & -3 & -7 & 30 & \\
$Q_2\quad b_j$ & & 8 & 13 & 19 & $68 = R_3$\\
$Q_1\quad c_j$ & & & 8 & 29 & $77 = R_2$\\
$Q_0\quad d_j$ & & & & 8 & $45 = R_1$\\
\end{tabular}
\end{figure}
$$P_3(x)=68+77(x-2)+45(x-2)^2+8(x-2)^3$$
$$f(2)\simeq P_3(2)=68$$
$$f^{(k)}(t)\simeq k!_{n-k}$$
$$f'(2)\simeq 1!R_2=77$$
$$f''(2)\simeq 2!R_1=90$$
$$f'''(2)\simeq 3!R_0=48$$
\section{Intégration numérique}
On se propose d'étudier quelques méthodes numériques permettant d'approcher
$\int^b_af(x)dx$. De telles méthodes s'imposent en particulier lorsque la
primitive $F(x)$ de $f(x)$ n'est pas connue, ou dans le cas où $f(x)$ n'est
donnée que par points.
Par exemple pour~: $\int^b_a e^{-x^2}dx\simeq\sum^n_{i=0}\omega_i f(x_i)$
\subsection{Méthode générale}
$$I=\int^b_a f(x)p(x)dx\quad p(x):\text{fonction poids, }>0$$
L'idée est d'utiliser les valeurs de $f$ aux points $x_i\in[a,b]\quad i=0\ldots
n$.
$$\int^b_a f(x)p(x)dx=\sum^a_{i=0}\omega_i.f(x_i)+E\quad E\text{ l'erreur}$$
Les coefficients $\omega_i$ sont déterminés de telle sorte que $E$ soit nulle
lorsque $f(x)$ appartient à une certaine classe de fonctions (les polynômes de
degré $\le N$).
$$f(x)=\phi(x)+E(x)$$
$$\phi(x_i)=f(x_i)\quad i=0\ldots n$$
$$\int^b_a f(x)p(x)dx=\int^b_a\phi(x)p(x)dx+\int^b_a E(x)p(x)dx$$
$$\phi(x)=\sum^n_{j=0}L_j(x)f(x_j)\quad\text{Lagrange}$$
$$\int^b_a f(x)p(x)dx=\int^b_a\left.\sum^n_{j=0}L_j(x)f(x_j)p(x)dx\right.+
\int^b_a E(x)p(x)dx$$
$$=\sum^n_{j=0}\left(\int^b_a L_j(x)p(x)dx\right)f(x_j)+\int^b_a E(x)p(x)dx$$
$$\int^b_a f(x)p(x)dx=\sum^n_{j=0}\omega_jf(x_j)+E$$
$$\text{avec }\omega_j=\int^b_a L_j(x_j)p(x_j)dx\text{ et
}E=\int^b_aE(x)p(x)dx$$
\subsection{Quelques exemples de méthodes composées}
$$[\alpha,\beta]\qquad I=\int^\beta_\alpha f(x)dx$$
La méthode consiste à décomposer $[\alpha,\beta]$ en $k$ intervalles
$[\alpha_i,\alpha_{i+1}]\quad i=0,1,\ldots k$ et ensuite à approcher chaque
$\int^{\alpha_{i+1}}_{\alpha_i}f(x)dx$ en remplaçant $f(x)$ par son polynôme
d'interpolation.
\paragraph{Exemple 1} $t_i\in[\alpha_i,\alpha_{i+1}]$
$$f(x)\simeq P_0(x)=f(t_i)\quad\forall x\in\left[\alpha_i,\alpha_{i+1}\right]$$
$$\int^{\alpha_{i+1}}_{\alpha_i}f(x)dx\simeq(\alpha_{i+1}-\alpha_i)f(t_i)$$
$$\int^\beta_\alpha
f(x)dx\simeq\sum^{k-1}_{i=0}\left(\alpha_{i+1}-\alpha_i\right)f(t_i)\quad\text{Somme
de Riemann}$$
\paragraph{Exemple 2} Sur $[\alpha_i, \alpha_{i+1}]$ on interpole $f(x)$ par
$P_1(x)$ polynôme de degré 1 qui interpole $f(x)$ aux points $\alpha_i$ et
$\alpha{i+1}.$
$$\int^{\alpha_{i+1}}_{\alpha}f(x)dx\simeq
\int^{\alpha_{i+1}}_{\alpha}P_1(x)dx
=\int^{\alpha_{i+1}}_{\alpha}\left[\left(
\frac{x-\alpha_{i+1}}{\alpha_i-\alpha_{i+1}}\right)f(\alpha_i)+
\frac{x-\alpha_{i+1}}{\alpha_i-\alpha_{i+1}}f(\alpha_{i+1})\right]$$
$$\int^{\alpha_{i+1}}_{\alpha}f(x)dx\simeq
\frac{f(\alpha_i)}{\alpha_i-\alpha_{i+1}}\left[
\frac{\left(x-\alpha_{i+1}\right)^2}{2}\right]^{\alpha_{i+1}}_{\alpha_i}
+\frac{f(\alpha_{i+1})}{\alpha_{i+1}-\alpha_i}$$
$$\int^{\alpha_{i+1}}_{\alpha}f(x)dx\simeq
\frac{(\alpha_{i+1})-\alpha_i}{2}\left(
f(\alpha_i)+f(\alpha_{i+1})\right)$$
$$\int^\beta_\alpha f(x)dx=
\sum^{k-1}_{i=0}\int^{\alpha_{i+1}}_{\alpha_i}f(x)dx\simeq
\sum^{k-1}_{i=0}\frac{(\alpha_{i+1}-\alpha_i)}{2}\left(
f(\alpha_i)+f(\alpha_{i+1})\right)$$
$$\int^\beta_\alpha f(x)dx\simeq\sum^{k-1}_{i=0}
\frac{\alpha_{i+1}-\alpha_i}{2}(f(\alpha_i)+f(\alpha_{i+1}))$$
\paragraph{Définition} Soit la méthode d'intrégration $\int^\beta_\alpha
f(x)p(x)dx\simeq\sum^k_{i=0}$.
Nous dirons que la méthode d'intrégration est d'ordre N si elle est exacte pout
tout polynôme de degré $\lq N$, c'est-à-dire~: $E(f)=\int^\beta_\alpha
f(x)p(x)dx-\sum^k_{i=0}\alpha_i f(x_i)=0\quad\forall f\text{ un polynôme }d\lq
N$.
Soit $U_+=\max(u,0)$.
Pour $t$ fixé, $K_N(t)=E(x\mapsto (x-t)^N_t)\quad N\text{~: ordre de la
méthode}$ s'appelle le noyau de Péano de la méthode d'intégration. avec la
convention $(x-t)^0_t=1\quad x\ge t\qquad = 0\quad x<t$.
\paragraph{Théorème} de Péano\\
On suppose que la méthode d'intégration d'intégration est d'ordre $N\ge 0$ et
que $f\in\mathcal{C}^{N+1}[a,b]$ alors~:
$$E(f)=\frac{1}{N!}\int^b_aK_N(t)f^{(N+1)}(t)dt$$
\subparagraph{Conséquence} $$|E(f)|\le\frac{1}{N!}M_{N+1}\int^b_aK_N(t)
f^{(N+1)}(t)dt$$
\subparagraph{Corollaire} Si de plus $K_N(t)$ garde un signe constant sur
$[a,b]$ alors $\exists\eta\in[a,b]$
$$E(f)=\frac{f^{(N+1)}(\eta)}{(N+1)!}E(x\mapsto x^{(N+1)})$$
\paragraph{Démonstration du corollaire}
\subparagraph{Rappel} La deuxieme formule de la moyenne.
$f(x)$, $g(x)$ continue sur $[a,b]$. On suppose que $g(x)$ garde un signe
constant sur $[a,b]$ alors $\exists\eta\in[a,b]$ tel que $\int^b_af(x)g(x)dx=
f(\eta)\int^b_a g(x)dx$
\subparagraph{1\iere{} formule}
$$\exists c\in[a,b]/\int^b_af(x)dx=(b-a)f(c)$$
$$E(f)=\frac{1}{N!}\int^b_aK_N(t)f(t)dt$$
D'après la deuxième formule de la moyenne~:
$$\exists\eta\in[a,b]/E(f)=\frac{f^{(N+1)}(\eta)}{N!}
\int^b_aK_N(t)dt\quad E(x\mapsto X^{N+1})$$
$$=\frac{(N+1)!}{N!}\int^b_a
K_N(t)dt=\int^b_a K_N(t)dt=\frac{E(x\mapsto X^{N+1})}{N+1}$$
$$E(t)=\frac{f^{(N+1)}(\eta)}{N!}\int^b_aK_N(t)dt\quad\forall
f\in\mathcal{C}^{N+1}$$
$$\Rightarrow E(t)=\frac{f^{(N+1)}(\eta)}{N!}\frac{E(x\mapsto X^{N+1})}{N+1}=
\frac{f^{(N+1)}(\eta)}{(N+1)!}E(x\mapsto X^{N+1})$$
\paragraph{Exercice 8} Soit $f(x)$ continue donnée aux points~: $f(0)=1$,
$f(2)=5$, $f(3)=10$, $f(4)=15$.
Interpoler $f(1)$ par le polynôme d'interpolation de Lagrange.
$$P_3(x)=\sum^3_{i=0}L_i(x)f(x_i)=\sum^3_{i=0}\prod^3_{j\neq i\quad j=0}
\frac{(x-x_j)}{(x_i-x_j)}f(x_i)$$
$$L_0(1)=\frac{(1-2)(1-3)(1-4)}{(-2)(-3)(-4)}=\frac{6}{14}=\frac{1}{4}$$
$$L_1(1)=\frac{(1-0)(1-3)(1-4)}{(2)(2-3)(2-4)}=\frac{6}{4}=\frac{3}{2}$$
$$L_2(1)=\frac{1(-1)(-3)}{3(1)(-1)}=-1$$
$$L_3(1)=\frac{(1)(-1)(-2)}{(4)(2)(1)}=\frac{1}{4}$$
Donc~: $f(1)\simeq P_3(1)=\frac{1}{4}(1)+\frac{3}{2}(5)-1\times
10+\frac{1}{4}\times 15=\frac{3}{2}$
\paragraph{Exercice 9} On considère les méthode d'intégration~:
\begin{equation}
\int^k_0 f(x)dx\simeq h.f(\frac{h}{2})
\label{eq:f1}
\end{equation}
\begin{equation}
\int^h_0 f(x)dx\simeq\frac{h.\left(f(i)+f(h)\right)}{2}
\label{eq:f2}
\end{equation}
\begin{enumerate}
\item Déterminer l'ordre de chaque méthode.
\item Déterminer le noyau de Péano.
\item Étudier l'erreur d'intégration pour chaque méthode.
\end{enumerate}
\subparagraph{L'ordre de la méthode (\ref{eq:f1})}
$$f(x)=1\qquad \int^h_0f(x)dx=\int^h_0dx=h$$
$$h.f(\frac{h}{2})=h$$
$$\Rightarrow E(x\mapsto 1)=0$$
$$f(x)=x\qquad\int^h_0f(x)dx=\int^h_0xdx=\left[\frac{x^2}{2}\right]^h_0=
\frac{h^2}{2}$$
$$h(\frac{h}{2})=\frac{h^2}{2}$$
$$\Rightarrow E(x\mapsto x)=0$$
$$f(x)=x^2\qquad\int^h_0x^2dx=\left[\frac{x^3}{3}\right]^h_0=\frac{h^3}{3}$$
$$h.f(\frac{h}{12})=h.\frac{h^2}{3}-\frac{h^3}{4}=\frac{h^3}{12}\neq 0$$
Donc, la première méthode est d'ordre 1 (exacte pour le polynôme d'ordre $\le
1$).
\subparagraph{L'ordre de la méthode (\ref{eq:f2})}
$$f(x)=1\qquad\int^h_01dx=h$$
$$h(\frac{f(0)+f(h)}{2})=\frac{2h}{2}=h$$
$$\Rightarrow E(x\mapsto 1)=0$$
$$f(x)=x\qquad\int^h_0xdx=\frac{h^2}{2}$$
$$h(\frac{f(0)+f(h)}{2})=\frac{h^2}{2}=h$$
$$\Rightarrow E(x\mapsto x)=0$$
$$f(x)=x^2\qquad\int^h_0x^2dx=\left[\frac{h^3}{3}\right]^h_0=\frac{h^3}{3}$$
$$h(\frac{f(0)+f(h)}{2})^2=\frac{h^3}{2}=h$$
$$\Rightarrow E(x\mapsto x^2)=\frac{h^3}{3}-\frac{h^3}{2}=\frac{-h^3}{6}\neq0$$
$$\Rightarrow N=1$$
\subparagraph{Noyau de Péano}
$$K_1(t)=E(x\mapsto (x-t)_+)$$
$$\forall t\in[a,h]\quad
K_1(t)=\int^h_0(x-t)_+dx-h\left(\frac{h}{2}-t\right)_+$$
$$=\int^h_t(x-t)dx-h\left(\frac{h}{2}-t\right)_+$$
$$K_1(t)=\left[\frac{(x-t)^2}{2}\right]-h\left(\frac{h}{2}-t\right)_+$$
$$=\frac{(h-t)^2}{2}-h(\frac{h}{2}-t)_+$$
1\ier cas~: si $\frac{h}{2}<t\leq h$
$$K_1(t)=\frac{(h-t)^2}{2}$$
2\ieme cas~: $0\leq t\leq\frac{h}{2}$
$$K_1(t)=\frac{(h-t)^2}{2}-h\left(\frac{h}{2}-t\right)$$
$$K_1(t)=\frac{h^2-2ht+t^2}{2}-\frac{h^2}{2}+ht$$
$$K_1(t)=\frac{t^2}{2}$$
On trouve que $K_1(t)\leq0\forall t\in[a,h]$.
D'après le corollaire de Péano~:
$$\exists\eta\in[a,h]/E(f)=\frac{f^{''}(\eta)}{2!}
\frac{h^3}{12}=\frac{h}{24}f^{''}(\eta)$$
$$|E(f)|\leq c\frac{h^3}{24}\quad c=\max|f(x)|$$
\subparagraph{Péano de la méthode (\ref{eq:f2})}
$$K_1(t)=t\left(x\mapsto (x-t)_+\right)$$
$$=\int^h_0(x-t)_+dx-\frac{h}{2}\left((-f)+(h-t)_+\right)$$
$$K_1(t)=\int^h_t(x-t)dx-\frac{h}{2}(h-t)\quad\text{car }0\leq t\leq h$$
$$(-t)_+=0\quad\text{car }0\leq t\leq h$$
$$K_1(t)=\left[\frac{(x-t)^2}{2}\right]^h_t-\frac{h}{2}(h-t)$$
$$=\frac{(h-t)^2}{2}-\frac{h}{2}(h-t)=\frac{h^2-2ht-t^2}{2}-\frac{h^2}{2}+
\frac{ht}{2}=-ht+\frac{t^2}{2}+\frac{ht}{2}=
-\frac{ht}{2}+\frac{t}{2}=\frac{t}{2}(t-h)\leq 0\quad\text{car }0\leq t\leq h$$
D'après le corollaire de Péano~:
$$\exists\eta\in[a,h]/E(f)=\frac{f^{''}(\eta)}{2!}E(x\mapsto
x^2)=-\frac{h^3}{12}f(\eta)$$
$$|E(f)|\leq c\frac{h^3}{12}\quad c=\max|f^{''}(x)|$$
\paragraph{Exercice 10}
$$\int^1_0f(x)dx\simeq\frac{1}{4}\left(f(c)+3f(\frac{2}{3})\right)$$
\begin{enumerate}
\item Ordre
\item Noyau de Péano
\item Erreir d'intégration
\end{enumerate}