Vérifiez si la définition d’une application linéaire est vérifiée, et si vous n’y parvenez pas, prouvez à l’aide d’un contre-exemple qu’il ne s’agit pas d’une application linéaire.
$f$ est une application linéaire. Prenons $u=(x,y)$ et $v=(x’,y’)$ dans $\mathbb R^2$, et $\lambda\in\mathbb R$. Alors :
\begin{eqnarray*}
f(u+v)&=&\big( (x+x’)+(y+y’),(x+x’)-2(y+y’),0)\\
&=&\big(x+y,x-2y,0)+(x’+y’,x’-2y’,0)\\
&=&f(u)+f(v).
\end{eqnarray*}
De même,
\begin{eqnarray*}
f(\lambda u)&=&(\lambda x+\lambda y,\lambda x-2\lambda y,0)\\
&=&\lambda(x+y,x-2y,0)\\
&=&\lambda f(u).
\end{eqnarray*}
$f$ n’est pas une application linéaire car $f\big((0,0)\big)\neq (0,0,0)$.
$f$ n’est pas une application linéaire. En effet,
$$f\big((1,0)\big)=1,\ f\big((-1,0)\big)=1\textrm{ et }f\big((0,0)\big)=0\neq f\big((1,0)\big)+f\big((-1,0)\big).$$
Vérifiez si la définition d’une application linéaire est vérifiée, et si vous n’y parvenez pas, prouvez à l’aide d’un contre-exemple qu’il ne s’agit pas d’une application linéaire.
$f$ est une application linéaire. En effet, si $P,Q\in\mathbb R[X]$ et $\lambda\in\mathbb R$, alors utilisant notamment
$$(P+Q)'(1)=P'(1)+Q'(1)\textrm{ et }(\lambda P)'(1)=\lambda P'(1),$$
on déduit facilement que
$$f(P+Q)=f(P)+f(Q)$$
et que
$$f(\lambda P)=\lambda f(P).$$
Dans ce cas aussi, $f$ est une application linéaire. En effet, en utilisant la distributivité du produit sur la somme, si $P,Q\in\mathbb R[X]$ et
si $\lambda\in\mathbb R$, alors alors
$$f(P+Q)=A(P+Q)=AP+AQ=f(P)+f(Q)$$
et
$$f(\lambda P)=A(\lambda P)=\lambda (AP)=\lambda f(P).$$
Dans ce troisième cas, $f$ n’est pas une application linéaire. En effet, pour $P=X$ et $Q=X$, on a
$$f(P+Q)=(2X)^2=4X^2$$
alors que
$$f(P)+f(Q)=X^2+X^2=2X^2.$$
Ainsi, $f(P+Q)\neq f(P)+f(Q)$, et $f$ n’est pas une application linéaire.
Soit $E$ l’espace vectoriel $\mathcal C(\mathbb R,\mathbb R)$ l’espace vectoriel des fonctions continues sur $\mathbb R$. Dire si les applications suivantes sont des applications linéaires :
Non! Considérons les fonctions $f$ et $g$ définies par $f(x)=x$ et $g(x)=x$.
Alors pour tout $x\in\mathbb R$, $(f+g)(x)=2x$ de sorte que $\phi_1(f+g)(x)=4x^2$, alors que $\phi_1(f)(x)+\phi_1(g)(x)=x^2+x^2=2x^2$. On a donc
$\phi_1(f+g)\neq \phi_1(f)+\phi_1(g)$ et donc $\phi_1$ n’est pas une application linéaire.
Oui! Soit $f,g$ dans $E$ et $\lambda\in\mathbb R$. Alors pour tout $x\in\mathbb R$,
$$\phi_2(f+g)(x)=(f+g)(x^2)=f(x^2)+g(x^2)=\phi_2(f)(x)+\phi_2(g)(x)$$
et
$$\phi_2(\lambda f)(x)=(\lambda f)(x^2)=\lambda f(x^2)=\lambda\phi_2(f)(x).$$
Remarquons que la place du carré (sur la variable ici) diffère de la place du carré dans la première question (sur la fonction).
Oui! Ceci découle de la linéarité de l’intégrale. Soit $f,g$ dans $E$ et $\lambda\in\mathbb R$. Alors pour tout $x\in\mathbb R$,
$$\phi_3(f+g)(x)=\int_0^x (f+g)(t)dt=\int_0^x f(t)dt+\int_0^x g(t)dt=\phi_3(f)(x)+\phi_3(g)(x)$$
et
$$\phi_3(\lambda f)(x)=\int_0^x(\lambda f)(t)dt=\lambda\int_0^x f(t)dt=\lambda\phi_3(f)(x).$$
Soit $f:\mathbb R^2\to\mathbb R^3$ l’application linéaire définie par
$$f(x,y)=(x+y,x-y,x+y).$$
Déterminer le noyau de $f$, son image. $f$ est-elle injective? surjective?
Commençons par déterminer le noyau de $f$. $(x,y)\in\ker f$ si et seulement si $f(x,y)=(0,0,0)$ si et seulement si
$$\left\{
\begin{array}{rcl}
x+y&=&0\\
x-y&=&0\\
x+y&=&0\\
\end{array}\right.
\iff
\left\{
\begin{array}{rcl}
x+y&=&0\\
2x&=&0\\
\end{array}\right.$$
On en déduit que $\ker(f)=\{(0,0)\}$, et en particulier que $f$ est injective.
Déterminons maintenant l’image de $f$. Un vecteur $(u,v,w)$ est dans l’image de $f$ si et seulement si
\begin{eqnarray*}
\exists (x,y)\in\mathbb R^2,\ (u,v,w)=f(x,y)&\iff&
\exists (x,y)\in\mathbb R^2,\ \left\{
\begin{array}{rcl}
u&=&x+y\\
v&=&x-y\\
w&=&x+y
\end{array}\right. \\
&\iff&
\exists (x,y)\in\mathbb R^2,\ \left\{
\begin{array}{rcl}
u&=&x+y\\
u+v&=&2x\\
w-u&=&0
\end{array}\right. \\
&\iff&\exists (x,y)\in\mathbb R^2,\ \left\{
\begin{array}{rcl}
\frac{u-v}2&=&y\\
\frac{u+v}2&=&x\\
w-u&=&0
\end{array}\right. \\
\end{eqnarray*}
On en déduit que $\textrm{Im}(f)=\{(u,v,w)\in\mathbb R^3;\ u-w=0\}.$
En particulier, $(1,1,0)$ n’est pas dans $\textrm{Im}(f)$, et donc $f$ n’est pas surjective.
Utilisant la définition de $f$, on a :
\begin{eqnarray*}
f(e_1)&=&(1,-1,0,1)\\
f(e_2)&=&(0,1,1,1)\\
f(e_3)&=&(1,0,1,2)\\
\end{eqnarray*}
On sait que la famille $(f(e_1),f(e_2),f(e_3))$ est une famille
génératrice de $\textrm{Im}(f)$. Or, $f(e_3)=f(e_1)+f(e_2)$
et donc $f(e_3)$ est combinaison linéaire de $(f(e_1),f(e_2))$.
Ainsi, la famille $(f(e_1),f(e_2))$ est déjà génératrice
de $\textrm{Im}(f)$. De plus, elle est libre car les deux vecteurs
sont non-nuls et ne sont pas proportionnels. On en déduit que
$(f(e_1),f(e_2))$ est une base de $\textrm{Im}(f)$.
On a :
$$(x,y,z)\in\ker(f)\iff
\left\{
\begin{array}{rcl}
x+z&=&0\\
-x+y&=&0\\
y+z&=&0\\
x+y+2z&=&0\\
\end{array}\right.
\iff\left\{
\begin{array}{rcl}
x+z&=&0\\
y+z&=&0\\
y+z&=&0\\
y+z&=&0\\
\end{array}\right.$$
$$\iff
\left\{
\begin{array}{rcl}
x&=&-z\\
y&=&-z\\
z&=&z
\end{array}\right.
$$
On en déduit que le vecteur $(-1,-1,1)$ engendre $\ker(f)$. Comme il est non-nul,
c’est une base de $\ker(f)$. En particulier, on trouve que $\ker(f)$ est
de dimension 1, ce que l’on peut aussi obtenir en utilisant le théorème du rang.
$f$ n’est pas injective, car son noyau n’est pas réduit à $\{0\}$.
$f$ n’est pas surjective, car son image n’est pas $\mathbb R^4$ tout entier.
En effet, la dimension de $\textrm{Im}(f)$ est 2, et non 4.
Soit $(x,y,z)\in\mathbb R^3$. On a $(x,y,z)\in\ker(f)$ si et seulement si
\[
\left\{
\begin{array}{ccccccc}
-3x & – & y & + & z & = & 0 \\
8x & + & 3y & – & 2z & = & 0 \\
-4x & – & y & + & 2z & = & 0
\end{array}
\right.\quad\text{ou encore}\quad
\left\{
\begin{array}{ccccccc}
z & – & y & – & 3x & = & 0 \\
-2 z & + & 3y & + & 8x & = & 0 \\
2z & – & y & – & 4x & = & 0
\end{array}
\right.
\]
puis, par ajout (resp. retrait) du double de la première ligne à la seconde (resp. troisième),
\[
\left\{
\begin{array}{ccccccc}
z & – & y & – & 3x & = & 0 \\
& & y & + & 2x & = & 0 \\
& & y & + & 2x & = & 0 \\
\end{array}
\right.\quad\text{et enfin}\quad
\left\{
\begin{array}{ccccccc}
z & & & – & x & = & 0 \\
& & y & + & 2x & = & 0 \\
\end{array}
\right..
\]
Ainsi, $(x,y,z)\in\ker(f)$ si et seulement si $(x,y,z)$ est solution de ce dernier système, c’est-à-dire
\[
(x,y,z) = (x, -2x, x) = x(1,-2,1).
\]
Une base du noyau de $f$ est donc la famille $((1,-2,1))$, à un seul élément. D’où il vient $\dim(\ker(f)) = 1$.
Le noyau n’est pas réduit à $\{0\}$ donc $f$ n’est pas injective.
D’après le théorème du rang, on a
\[
\textrm{rg}(f) = 3 – \dim(\ker(f)) = 3 – 1 = 2.
\]
L’application $f$ n’est pas surjective : son image, qui est de dimension $2$, est strictement incluse dans l’espace d’arrivée $\mathbb R^3$ qui est de dimension $3$.
Déterminons à présent l’image de $f$. On a
\begin{align*}
\textrm{Im}(f) & = \left\{x(-3,8,-4) + y(-1,3,-1) + z(1,-2,2)\text{ avec }x,y,z\in\mathbb R\right\} \\
& = \vect(u_1,u_2,u_3),
\end{align*}
où l’on a posé $u_1 = (-3,8,-4)$, $u_2 = (-1,3,-1)$ et $u_3= (1,-2,2)$. D’après la question précédente, l’application $f$ est de rang $2$. Par ailleurs, la famille $(u_1,u_2)$ est clairement libre : c’est donc une base de $\textrm{Im}(f)$.
Soit $E=\mathbb R^3$. On note ${\cal B}=\{e_1,e_2,e_3\}$ la base canonique de $E$ et $u$ l’endomorphisme de $\mathbb R^3$ défini par la donnée des images des vecteurs de la base :
$$u(e_1) = -2e_1 +2e_3 \; , u(e_2)=3e_2 \; , u(e_3)=-4e_1 + 4e_3.$$
Déterminer une base de $\ker~u$.
$u$ est-il injectif? peut-il être surjectif? Pourquoi?
Déterminer une base de $\textrm{Im}~u$. Quel est le rang de u ?
On commence par calculer $u(x,y,z)$. On a
$$u(x,y,z)=u(xe_1+ye_2+ze_3)=xu(e_1)+yu(e_2)+zu(e_3)$$
soit
$$u(x,y,z)=(-2x-4z,3y,2x+4z).$$
On a donc
$$(x,y,z)\in\ker(u)\iff\left\{
\begin{array}{rcl}
-2x-4z&=&0\\
3y&=&0\\
2x+4z&=&0\\
\end{array}
\right.
\iff
\left\{
\begin{array}{rcl}
x&=&-2z\\
y&=&0\\
z&=&z
\end{array}\right.$$
On a donc $\ker(u)=\textrm{vect}(-2,0,1)$ et le vecteur $(-2,0,1)$ est une base de $\ker(u)$.
$\ker(u)$ n’est pas réduit à $\{0\}$, et donc l’endomorphisme $u$ n’est pas injectif.
Comme $u$ est un endomorphisme de l’espace vectoriel de dimension finie $\mathbb R^3$,
il n’est pas non plus surjectif, car on a alors
$$u\textrm{ injectif}\iff u\textrm{ surjectif}\iff u\textrm{ bijectif}.$$
On sait, d’après le théorème du rang, que $\textrm{Im}(u)$ est de dimension 2.
On sait aussi que $\big(u(e_1),u(e_2),u(e_3)\big)$ est une famille
génératrice de $\textrm{Im}u$. Il suffit donc d’en extraire une famille libre à deux éléments.
Mais on vérifie immédiatement que $\big(u(e_1),u(e_2)\big)$ est une telle famille.
C’est donc une base de $\textrm{Im}(u)$ qui est de rang 2.
Il suffit de montrer que la réunion d’une base de $\ker(u)$ et d’une base de
$\textrm{Im}(u)$ est une base de $\mathbb R^3$. Autrement dit, avec les calculs réalisés précédemment,
il suffit de voir que la famille $\big((-2,0,1),(-2,0,2),(0,3,0)\big)$ est une famille libre.
C’est très facile et laissé au lecteur…
On considère dans $\mathbb R^2$ les trois vecteurs $u=(1,1)$, $v=(2,-1)$ et $w=(1,4)$.
Démontrer que $(u,v)$ est une base de $\mathbb R^2$.
Pour quelle(s) valeur(s) du réel $a$ existe-t-il une application linéaire $f:\mathbb R^2\to \mathbb R^2$
telle que $f(u)=(2,1)$, $f(v)=(1,-1)$ et $f(w)=(5,a)$?
$(u,v)$ sont deux vecteurs non-nuls de $\mathbb R^2$, non colinéaires. Ils forment une famille libre de $\mathbb R^2$
de deux vecteurs. Or, $\mathbb R^2$ est de dimension 2. $(u,v)$ est donc une base de $\mathbb R^2$.
Exprimons $w$ dans la base $(u,v)$. On a $w=3u-v$. Pour que $f$ soit linéaire, on doit avoir
$$f(w)=3f(u)-f(v)$$
soit
$$(5,a)=3(2,1)-(1,-1)=(5,4).$$
Pour que $f$ soit linéaire, il est donc nécessaire que $a=4$. Réciproquement, on définit ainsi bien une application linéaire, en définissant
l’image d’une base.
Soit $E=\mathbb R^4$ et $F=\mathbb R^2$. On considère
$H=\{(x,y,z,t)\in\mathbb R^4;\ x=y=z=t\}$. Existe-t-il des applications linéaires de $E$ dans $F$
dont le noyau est $H$?
On a $H=\textrm{vect}\big((1,1,1,1)\big)$. $H$ est donc un espace vectoriel de dimension 1.
Si $H$ était le noyau d’une application linéaire $f$ de $E$ dans $F$, alors par le théorème du rang
on aurait
$$4=\dim(E)=\dim(H)+\dim(\textrm{Im}(f))=1+\dim(\textrm{Im}(f)).$$
Ainsi, on aurait $\dim(\textrm{Im}(f))=3$. Mais $\textrm{Im}(f)$ est un sous-espace vectoriel de
$\mathbb R^2$, sa dimension est au plus 2. On a une contradiction. Donc $H$ n’est pas le noyau d’un élément de $\mathcal L(E,F)$.
Soit $E$ le sous-espace vectoriel de $\mathbb R^3$ engendré par les vecteurs
$u=(1,0,0)$ et $v=(1,1,1)$. Trouver un endomorphisme $f$ de $\mathbb R^3$ dont le noyau est $E$.
Première méthode : Une application linéaire de $\mathbb R^3$ dans lui-même est définie par
$$f(x,y,z)=(a_1x+b_1y+c_1z,a_2x+b_2y+c_2z,a_3x+b_3y+c_3 z)$$
où les $a_i,b_i,c_i$ sont des réels. On va déterminer quelle(s) valeur(s)
leur donner pour que $f(u)=0$ et $f(v)=0$. On a
$$f(u)=0\iff(a_1,a_2,a_3)=(0,0,0)$$
et
$$f(v)=0\iff (a_1+b_1+c_1,a_2+b_2+c_2,a_3+b_3+c_3 )=(0,0,0).$$
On obtient $a_1=a_2=a_3=0$ et $b_1=-c_1$, $b_2=-c_2$, $b_3=-c_3$. Ainsi, l’application $f$
suivante convient
$$(x,y,z)\mapsto(y-z,y-z,y-z).$$
Puisque $u,v\in\ker(f)$, le sous-espace vectoriel $E$ engendré par $(u,v)$ est contenu dans $\ker(f)$.
De plus, $f$ n’étant pas identiquement nulle, son noyau est de dimension au plus 2.
On en déduit que $\ker(f)$ est de dimension exactement 2, et que $\ker(f)=E$.
Deuxième méthode : Une application linéaire de $\mathbb R^3$ dans lui-même est complètement définie
par l’image d’une base. Complétons d’abord $(u,v)$ en une base (c’est possible, car c’est une famille
libre). Posons $w=(0,0,1)$. Alors on vérifie facilement que la famille $(u,v,w)$ est
une famille libre de $\mathbb R^3$ à trois éléments, donc une base de $\mathbb R^3$. On définit $f$
par
$$f(u)=(0,0,0),\ f(v)=(0,0,0),\ f(w)=(1,0,0).$$
Ceci définit parfaitement $f$ et, comme dans la première méthode, on prouve que le noyau de $f$
est exactement $E$.
Un endomorphisme est uniquement défini par l’image d’une base. Il suffit donc
de calculer quelles doivent être les valeurs de $f(e_1)$, $f(e_2)$, $f(e_3)$, $f(e_4)$.
On sait déjà que :
$f(e_1)=e_1-e_2+e_3$.
$f(3e_4)=e_2-2f(e_1)$, soit $f(e_4)=\frac{1}{3}(-2e_1+3e_2-2e_3)$.
Reste à définir $f(e_2)$ et $f(e_3)$. Pour cela, on va chercher
une base de $F=\{(x,y,z,t)\in\mathbb R^4,\ x+2y+z=0\textrm{ et }x+3y-t=0\}.$
On a aisément :
$$(x,y,z,t)\in F\iff \left\{
\begin{array}{rcl}
x&=&x\\
y&=&y\\
z&=&-x-2y\\
t&=&x+3y
\end{array}\right.$$
On en déduit que $\{(1,0,-1,1),(0,1,-2,3)\}$ est une base de $F$.
Puisqu’on veut que $F=\ker(f)$, on doit donc avoir
$$f(e_1)-f(e_3)+f(e_4)=0\implies f(e_3)=\frac{1}{3}e_1+\frac{1}{3}e_3$$
et
$$f(e_2-2e_3+3e_4)=0\implies f(e_2)=2f(e_3)-3f(e_4).$$
Donc l’endomorphisme $f$, s’il existe, est unique. Réciproquement, soit $f$ l’endomorphisme
défini par les formules précédentes. Alors le premier point est vérifié, et
puisque l’image d’une base de $F$ est envoyée par $f$ sur $0$,
on sait que $F\subset\ker(f)$. Pour démontrer l’égalité,
il suffit, puisque $\dim(F)=2$, de prouver que $\dim(\ker(f))\leq 2$.
Par le théorème du rang, il suffit de prouver que $\dim(\textrm{Im}(f))\geq 2$.
Mais $f(e_1)$ et $f(e_4)$ sont deux vecteurs indépendants de $\textrm{Im}(f)$.
Et donc $\dim(\textrm{Im}(f))\geq 2$, ce qui prouve le résultat. On peut remarquer qu’on a en réalité $\dim(\ker(f))=\dim(\textrm{Im}(f))=2.$
Dans $\mathbb R^2$, considérons les sous-espaces vectoriels $D_1=\{(x,y)\in\mathbb R^2;\ y=x\}$ et $D_2=\{(x,y)\in\mathbb R^2;\ y=0\}.$ Démontrer que $D_1\oplus D_2=\mathbb R^2$. Considérons $s$ la symétrie par rapport à $D_1$ parallèlement à $D_2$ et $p$ la projection sur $D_1$ parallèlement à $D_2$. Dessiner les sous-espaces vectoriels $D_1,D_2$ ainsi que l’image par $p$ et $s$ des vecteurs suivants : $\vec u=(1,0)$, $\vec v=(1,1)$, $\vec w=(2,1)$. Vérifier vos résultats par le calcul.
Dans $\mathbb R^3$, considérons les sous-espaces vectoriels $D =\{(x,y,z)\in\mathbb R^3;\ y=x, z=0\}$ et $P=\{(x,y,z)\in\mathbb R^3;\ x=0\}$. Démontrer que $D\oplus P=\mathbb R^3$. Considérons $s$ la symétrie par rapport à $P$ parallèlement à $D$ et $p$ la projection sur $P$ parallèlement à $D$. Dessiner les sous-espaces vectoriels $D, P$ ainsi que l’image par $p$ et $s$ des vecteurs suivants : $\vec u=(1,0,0)$ ,$\vec v=(1,0,1)$, $\vec w=(2,1,0)$. Vérifier vos résultats par le calcul.
Pour démontrer les sommes directes, on pourra utiliser la dimension.
Pour les calculs effectifs, on pourra s’aider des dessins pour vérifier les décompositions de $\vec u$ en somme d’un vecteur de $D_1$ et de $D_2$ (et de même pour les 6 vecteurs demandés), et utiliser la définition des symétries et projecteurs.
$D_1$ et $D_2$ sont deux droites vectorielles; elles sont donc de dimension 1. De plus, on a clairement $D_1\cap D_2=\{(0,0)\}$ donc $D_1$ et $D_2$ sont supplémentaires. De $\dim(D_1\oplus D_2)=\dim(D_1)+\dim(D_2)$, on tire que $D_1\oplus D_2=\mathbb R^2$. Le dessin que l’on obtient est le suivant :
On remarque que $\vec u$ est un vecteur de $D_2$. Son image par $p$ est donc le vecteur nul, et son image par $s$ et son opposé. $\vec v$ est un vecteur de $D_1$. Il est invariant par $p$ comme par $s$. Finalement, pour construire l’image de $\vec w$ par $p$, on considère la parallèle à $D_2$ passant par $\vec w$ : elle coupe $D_1$ en $\vec v$. On a ainsi $p(\vec w)=\vec v$. Pour construire l’image de $\vec w$ par $s$, on utilise que, notant $\vec{w_1}=\vec w-\vec v$, $s(\vec w)=\vec v-\vec{w_1}$.
Par le calcul on a
$\vec u=\vec 0+\vec u$ avec $\vec u\in D_2$, et donc $p(\vec u)=\vec 0$, $s(\vec u)=\vec 0-\vec u=-\vec u$.
$\vec v=\vec v+\vec 0$ avec $\vec v\in D_1$, et donc $p(\vec v)=s(\vec v)=\vec v$.
$\vec w=\vec v+\vec u$, avec $\vec v\in D_1$ et $\vec u\in D_2$, et donc $p(\vec w)=\vec v$, $s(\vec w)=\vec v-\vec u=(0,1)$.
$P$ est un plan vectoriel (une base est donnée par les vecteurs $(0,1,0)$ et $(0,0,1)$). Il est donc de dimension 2. $D$, comme intersection de deux plans vectoriels non confondus, est une droite vectorielle dont une base est donnée par $(1,1,0)$. Elle est donc de dimension 1. Comme dans la question précédente, on vérifie que $D\cap P=\{(0,0,0)$ (c’est immédiat), et donc que $D$ et $P$ sont en somme directe. De $\dim(D\oplus P)=\dim(D)+\dim(P)=3=\dim(\mathbb R^3)$, on déduit que $D$ et $P$ sont supplémentaires : $D\oplus P=\mathbb R^3$.
Pour construire les images des vecteurs $\vec u$, $\vec v$ et $\vec w$, on procède comme dans le plan, mais il faut avoir une bonne vue dans l’espace!
Pour plus de lisibilité, on va réaliser 3 dessins différents. Pour chacun de ces dessins, l’axe $(Ox)$ est en rouge, l’axe $(Oy)$ est en vert et l’axe $(Oz)$ est en bleu. La droite $D$ est elle aussi représentée en bleu foncé, et le plan $P$ est en bleu ciel.
On a $\vec u=(1,0,0)$. Posons $\vec u_1=(0,-1,0)$ et $\vec u_2=(1,1,0)$. Alors $\vec u_1\in P$, $\vec u_2\in D$ et $\vec u=\vec u_1+\vec u_2$. On a donc
$p(\vec u)=\vec u_1$ et $s(\vec u)=\vec u_1-\vec u_2=(-1,-2,0)$.
On a $\vec v=(1,0,1)$. Posons $\vec v_1=(0,-1,1)$ et $\vec v_2=(1,1,0)$. Alors $\vec v_1\in P$, $\vec v_2\in D$ et $\vec v=\vec v_1+\vec v_2$. On a donc
$p(\vec v)=\vec v_1$ et $s(\vec v)=\vec v_1-\vec v_2=(-1,-2,1)$.
On a $\vec w=(2,1,0)$. Posons $\vec w_1=(0,-1,0)$ et $\vec w_2=(2,2,0)$. Alors $\vec w_1\in P$, $\vec w_2\in D$ et $\vec w=\vec w_1+\vec w_2$. On a donc
$p(\vec w)=\vec w_1$ et $s(\vec w)=\vec w_1-\vec w_2=(-2,-3,0)$.
Soit $f$ l’endomorphisme de $\mathbb R^3$ tel que $f(x,y,z)=(-3x+2y-4z,2x+2z,4x-2y+5z)$. Montrer que $f$ est la projection sur un plan $P$ parallèlement à une droite $D$. Donner une équation cartésienne du plan $P$ et un vecteur directeur de $D$.
Notons $A$ la matrice de $f$ dans la base canonique. Alors
$$A=\left(\begin{array}{ccc}
-3&2&-4\\
2&0&2\\
4&-2&5
\end{array}\right).$$
Alors on vérifie facilement que $A^2=A$, c’est-à-dire que $f\circ f=f$ : $f$ est donc une projection. Pour déterminer ses éléments caractéristiques, on commence par calculer $\ker(f)$ :
\begin{align*}
(x,y,z)\in \ker(f)&\iff
\left\{
\begin{array}{rcl}
-3x+2y-4z&=&0\\
2x+2z&=&0\\
4x-2y+5z&=&0
\end{array}\right. \\
&\iff
\left\{
\begin{array}{rcl}
x+z&=&0\\
-3x+2y-4z&=&0\\
4x-2y+5z&=&0
\end{array}\right. \\
&\iff
\left\{
\begin{array}{rcl}
x+z&=&0\\
2y-z&=&0\\
-2y+z&=&0
\end{array}\right. \\
&\iff
\left\{
\begin{array}{rcl}
x&=&-2y\\
y&=&y\\
z&=&2y
\end{array}
\right.
\end{align*}
On a donc $\ker(f)=\textrm{vect}(u)$ avec $u=(-2,1,2)$. Par le théorème du rang, on sait que $\textrm{Im}(f)$ est de dimension 2.
Soit $v_1=f(e_1)=(-3,2,4)$ et $v_2=f(e_2)=(2,0,-2)$. Alors $(v_1,v_2)$ est une famille libre contenue dans $\textrm{Im}(f)$ qui est de dimension $2$, donc c’est une base de $\textrm{Im}(f)$. On en déduit que
\begin{align*}
(x,y,z)\in\textrm{Im}(f)&\iff \exists(\lambda,\mu)\in\mathbb R^2,\
\left\{\begin{array}{rcl}
x&=&-3\lambda+2\mu\\
y&=&2\lambda\\
z&=&4\lambda-2\mu
\end{array}\right. \\
&\iff \exists(\lambda,\mu)\in\mathbb R^2,\
\left\{\begin{array}{rcl}
\mu&=&\frac x2+\frac{3y}4\\
\lambda&=&\frac y2\\
z&=&2y-x-\frac{3y}2
\end{array}\right. \\
&\iff 2x-y+2z=0.
\end{align*}
$f$ est donc la projection sur le plan $P=\textrm{Im}(f)$ d’équation $2x-y+2z=0$ parallèlement à la droite $D$ de vecteur directeur $u=(-2,1,2)$.
On considère l’application linéaire $f:\mathbb R^3\to\mathbb R^3$ définie par $f(x,y,z)=(2x-2z,y,x-z)$. $f$ est-elle une symétrie? une projection? Déterminer une base de ses éléments caractéristiques.
On vérifie facilement que
$$f\circ f(x,y,z)=(2(2x-2z)-2(x-z),y,2x-2z-x+z)=(2x-2z,y,x-z)=f(x,y,z).$$
On a donc $f\circ f=f$ et $f$ est une projection, sur $\textrm{Im}(f)$ et parallèlement à $\ker(f)$. Déterminons une base de $\ker(f)$. On a
$$f(x,y,z)=0\iff \left\{
\begin{array}{rcl}
2x-2z&=&0\\
y&=&0\\
x-z&=&0
\end{array}\right. \iff
\left\{
\begin{array}{rcl}
x&=&z\\
y&=&0\\
z&=&z
\end{array}\right.$$
Une base de $\ker(f)$ est donc donnée par le vecteur $u=(1,0,1)$.
Déterminons ensuite une base de $\textrm{Im}(f)$. On sait que $(f(e_1),f(e_2),f(e_3))$ est une famille génératrice de $\textrm{Im}(f)$. Ce n’est pas une base, puisque $f(e_3)=(-2,0,-1)=-f(e_1)$. Posons ensuite $v=(2,0,1)=f(e_1)$ et $w=(0,1,0)=f(e_2)$. Alors $(v,w)$ est une famille génératrice de $\textrm{Im}(f)$ et c’est aussi une famille libre : $(v,w)$ est une base de $\textrm{Im}(f)$.
Soit $F$ et $G$ les deux sous-espaces vectoriels de $\mathbb R^3$ définis par
\begin{eqnarray*}
F&=\{(x,y,z)\in\mathbb R^3:\ x+y+2z=0\}\\
G&=\{(x,y,z)\in\mathbb R^3:\ x=-y=-z\}.
\end{eqnarray*}
Démontrer que $F\oplus G=\mathbb R^3$.
Donner l’expression analytique de la projection $p$ sur $F$ parallèlement à $G$ (c’est-à-dire donner une formule explicite $p(x,y,z)=(\dots)$).
Donner l’expression analytique de la symétrie $s$ par rapport à $F$ parallèlement à $G$.
On commence par remarquer que $F\cap G=\{0\}$. En effet, si $(x,y,z)\in F\cap G$, on a $x+y+2z=0$, d’où, en utilisant $x=-z$ et $y=z$, $2z=0$, soit $z=0$, et finalement $x=y=z=0$. D’autre part, calculons la dimension de $F$ et la dimension de $G$. On a
$$(x,y,z)\in F\iff
\left\{\begin{array}{rclll}
x&=&-y&-2z\\
y&=&y\\
z&=&&z
\end{array}\right.$$
de sorte que $(u_1,u_2)$ est une base de $F$, avec $u_1=(-1,1,0)$ et $u_2=(-2,0,1)$. Ainsi $\dim(F)=2$. De même, on a
$$(x,y,z)\in G\iff
\left\{\begin{array}{rcl}
x&=&-y\\
y&=&y\\
z&=&y
\end{array}
\right.$$
de sorte que
$u_3=(-1,1,1)$ est une base de $G$, et que $\dim(G)=1$. On déduit de la formule de Grassmann que
$$\dim(F+G)=\dim(F)+\dim(G)=3$$
et donc que $F+G=\mathbb R^3$.
Soit $u=(x,y,z)\in\mathbb R^3$. On va le décomposer sous la forme $u=u_F+u_G$, où $u_F\in F$ et $u_G\in G$. Pour cela, on écrit $u_F=(x_1,y_1,z_1)$ et $u_G=(-\lambda,\lambda,\lambda)$ avec $\lambda\in\mathbb R$. On a donc $(x_1,y_1,z_1)=(x+\lambda,y-\lambda,z-\lambda)$ et puisque $(x_1,y_1,z_1)\in F$, on sait que
$$x_1+y_1+2z_1=0\iff x+y+2z-2\lambda=0\iff \lambda=\frac{x+y+2z}{2}.$$
Ainsi, on a
$$u_F=\left(\frac{3x+y+2z}2,\frac{-x+y-2z}2,\frac{-x-y}{2}\right)$$
et
$$u_G=\left(-\frac{x+y+2z}{2},\frac{x+y+2z}{2},\frac{x+y+2z}{2}\right).$$
Ainsi, $$p(x,y,z)=u_F=\left(\frac{3x+y+2z}2,\frac{-x+y-2z}2,\frac{-x-y}{2}\right).$$
L’essentiel du raisonnement a été fait. On a
$$s(x,y,z)=u_F-u_G=(2x+y+2z,-x-2z,-x-y-z).$$
Soit $f:\mathbb R^3\to\mathbb R^3$ l’application linéaire donnée par $f(x,y,z)=(-x-2y,-2x-y,2x+2y+z)$. Démontrer que $f$ est une affinité dont on précisera les éléments caractéristiques.
On commence par chercher pour quelles valeurs de $\alpha$ l’équation $f(x,y,z)=\alpha(x,y,z)$ admet des solutions non nulles.
On a
\begin{eqnarray*}
f(x,y,z)=\alpha(x,y,z)&\iff&
\left\{\begin{array}{rcl}
-x-2y&=&\alpha x\\
-2x-y&=&\alpha y\\
2x+2y+z&=&\alpha z
\end{array}\right.\\
&\iff&
\left\{
\begin{array}{rcl}
(-1-\alpha)x-2y&=&0\\
-2x+(-1-\alpha)y&=&0\\
2x+2y+(1-\alpha)z&=&0
\end{array}
\right.
\end{eqnarray*}
Si $\alpha=1$, alors on obtient une seule équation qui est $x+y=0$.
On a donc $\ker(f-Id)=\{(x,y,z)\in\mathbb R^3;\ x+y=0\}$ qui est un espace vectoriel de dimension 2 donc une base est donnée par $(u,v)$ avec $u=(1,-1,0)$ et $v=(0,0,1)$.
Supposons maintenant que $\alpha\neq 1$; alors les deux premières équations vont donner $x=y=0$ sauf si les deux équations sont proportionnelles, c’est-à-dire sauf si $(-1-\alpha)^2-4=0$. Cette équation donne $\alpha=1$ (cas déjà traité) et $\alpha=-3$. Donc si $\alpha=-3$, le système devient
$$\left\{
\begin{array}{rcl}
x-y&=&0\\
x-y&=&0\\
x+y+2z&=&0
\end{array}
\right.
\iff
\left\{
\begin{array}{rcl}
x&=&y\\
y&=&y\\
z&=&-y
\end{array}\right.
.$$
Une base de $\ker(f+3Id)$ est donc donnée par $w=(1,1,-1)$.
Posons $F=\ker(f-Id)$ et $G=\ker (f+3Id)$, alors $F$ et $G$ sont supplémentaires (car $(u,v,w)$ est une base de $\mathbb R^3$), la restriction de $f$ à $F$ est l’identité, et la restriction de $f$ à $G$ est une homothétie de rapport $-3$. Finalement, $f$ est une affinité sur $\ker(f-Id)$, de rapport $-3$, et parallèlement à $\ker(f+3Id)$.
Bien sûr, si on connait des éléments de réduction des endomorphismes, on peut utiliser le polynôme caractéristique pour faciliter la recherche des valeurs propres….
Soit $A\in\mathbb R[X]$ non nul, et $\phi:\mathbb R[X]\to\mathbb R[X]$ l’application qui à un polynôme $P$ associe son reste dans la division euclidienne par $A$. Démontrer que $\phi$ est un projecteur et préciser ses éléments caractéristiques.
Remarquons d’abord que $\phi$ est linéaire. En effet, si $P_1,\ P_2\in\mathbb R[X]$, alors $\phi(P_1)$ (resp. $\phi(P_2)$) est l’unique polynôme de degré inférieur (strict) au degré de $A$ et tel que
$$P_1=AQ_1+\phi(P_1),\ P_2=AQ_2+\phi(P_2),$$
avec $Q_1,Q_2\in\mathbb R[X]$. On a alors
$$P_1+P_2=A(Q_1+Q_2)+\big(\phi(P_1)+\phi(P_2))$$
avec $\deg\big(\phi(P_1)+\phi(P_2)\big)<\deg(A)$, ce qui prouve que $\phi(P_1+P_2)=\phi(P_1)+\phi(P_2)$. De la même façon on démontre que $\phi(\lambda P)=\lambda \phi(P)$.
Remarquons que $\phi\circ\phi(P)=\phi(P)$ pour tout $P\in\mathbb R[X]$. En effet,
$$\phi(P)=A\times 0+\phi(P)$$
avec $\deg(\phi(P))<\deg(A)$. Ainsi, $\phi$ est bien une projection. Reste à calculer son noyau et son image. On a $\phi(P)=0$ si et seulement si $P$ est un multiple de $A$, et donc
$$\ker(\phi)=\{QA:\ Q\in\mathbb R[X]\}.$$
Enfin, si $d=\deg(A)$, on a $\textrm{Im}(\phi)\subset \mathbb R_{d-1}[X]$. Réciproquement, si $P\in\mathbb R_{d-1}[X]$, alors
$$P=0\times A+\phi(P)$$
est la division euclidienne de $P$ par $A$
et donc $P=\phi(P)\in \textrm{Im}(\phi)$. Si $A$ est un polynôme constant, il faut interpréter $\mathbb R_{d-1}[X]$ comme $\{0\}$.
Soit $E=\mathcal C^{\infty}(\mathbb R)$ et $\phi\in\mathcal L(E)$ définie par $\phi(f)=f’$. Quel est le noyau de $\phi$? Quelle est son image? $\phi$ est-elle injective? surjective?
Une fonction $f:\mathbb R\to\mathbb R$ a sa dérivée nulle si et seulement si elle est constante. Le noyau de $\phi$ est donc l’ensemble des fonctions constantes. En particulier, $\phi$ n’est pas injective. D’autre part, si $g$ est une fonction de classe $\mathcal C^\infty$ sur $\mathbb R$, alors elle admet une primitive $f$ qui est donc elle aussi de classe $\mathcal C^\infty$, c’est-à-dire élément de $E$. On a alors $\phi(f)=g$, ce qui signifie que $\textrm{Im}(\phi)=E$. $\phi$ est surjective. Cet exercice illustre le fait que $\mathcal C^\infty(\mathbb R)$ n’est pas de dimension finie, puisque $\phi$ est surjective mais n’est pas injective.
Soit $E$ l’espace vectoriel des fonctions continues de $\mathbb R$ dans $\mathbb R$ et $u$ l’endomorphisme de $E$ qui à tout $f$ de $E$ associe $u(f):x\mapsto xf(x)$. L’application $u$ est-elle injective? surjective?
Soit $f\in E$. Alors $u(f)=0$ si et seulement si, pour tout $x\in\mathbb R$, $xf(x)=0$. Ceci entraîne que pour tout $x$ différent de $0$, $f(x)=0$. Comme $f$ est continue en $0$, on en déduit que $f=0$. On a donc $\ker(u)=\{0\}$ et $u$ est injective.
D’autre part, soit $g\in E$ telle que $g(x)=1$ pour tout $x\in\mathbb R$. Alors $g$ n’est pas un certain $u(f)$. En effet, si c’était le cas, on aurait $xf(x)=g(x)=1$ pour tout $x\in\mathbb R$, en particulier, en $x=0$, $0=1$. Donc $u$ n’est pas surjective.
Ceci illustre que $E$ n’est pas de dimension finie, puisque $u$ est injective, mais n’est pas surjective.
Soit $E$ l’espace vectoriel des applications de $\mathbb R$ dans $\mathbb R$. On note $L:E\to E$ l’application qui à $f\in E$ associe $L(f)$ définie par $L(f):x\mapsto f(x)−f(−x)$.
Le noyau de $L$ est l’ensemble des fonctions $f$ qui vérifient, pour tout $x\in \mathbb R$, $f(-x)=f(x)$ : c’est donc l’ensemble des fonctions paires. On va prouver que l’image de $L$ est l’ensemble des fonctions impaires. D’une part, soit $g$ dans l’image de $L$, autrement dit il existe $f\in E$ tel que, pour
tout $x\in\mathbb R$, $g(x)=f(x)-f(-x)$. Alors
$$g(-x)=f(-x)-f(-(-x))=-(f(x)-f(-x))=-g(x)$$
et donc $g$ est impaire. Réciproquement, soit $g$ une fonction impaire, et posons $f=g/2$. Alors, pour tout $x\in \mathbb R$,
$$f(x)-f(-x)=\frac{g(x)}2-\frac{g(-x)}{2}=\frac{g(x)}2+\frac{g(x)}2=g(x).$$
Ainsi, $g=L(f)$, et on a prouvé l’inclusion réciproque.
L’application linéaire $L$ n’est pas injective car son noyau n’est pas réduit à $\{0\}$, elle n’est pas non plus surjective car son image n’est pas $E$ tout entier (il existe des fonctions qui ne sont pas impaires).
Prendre un polynôme $P$ et l’écrire $P(X)=\sum_{k=0}^n a_k X^k$. Calculer $P-XP’$ en fonction des coefficients
$a_k$. En déduire le noyau. Pour le calcul de l’image, prendre un polynôme $Q=\sum_k b_k X^k$ et écrire qu’il est égal
à $P-XP’$. Quelle condition sur $b_k$ apparait? Montrer qu’elle est aussi suffisante.
Soient $P,Q\in\mathbb R[X]$ et $\lambda\in\mathbb R$. Alors
\begin{eqnarray*}
f(\lambda P+Q)&=&(\lambda P+Q)-X(\lambda P+Q)’\\
&=&\lambda P+Q-X(\lambda P’+Q’)\\
&=&\lambda (P-XP’)+Q-XQ’=\lambda f(P)+ f(Q).
\end{eqnarray*}
Ainsi, $f$ est bien une application linéaire. De plus $P$ est dans $\ker(f)$ si et seulement si
$P-XP’=0$. Ecrivons $P(X)=\sum_{k=0}^n a_k X^k$. Alors on a :
$$P-XP’=\sum_{k=1}^n (a_k-k a_{k})X^k +a_0.$$
On en déduit que la suite $(a_k)$ vérifie
$a_0=0$ et $a_k(1-k)=0$ pour $k$ allant de $1$ à $n$. Ainsi, $a_k=0$
pour $k\neq 1$, la valeur de $a_1$ étant quelconque. On
en déduit que $\ker(f)=\textrm{vect}(X)$.
D’autre part, soit $Q\in\mathbb R[X]$. Si $Q=\sum_{k=0}^m b_k X^k$ est élément de $\textrm{Im}(f)$,
il existe $P=\sum_{k=0}^n a_k X^k$ tel que $Q=P-XP’$ soit, d’après le calcul précédent, pour $k=0,\dots,n$,
$$b_k=a_k(1-k).$$
On en déduit $b_1=0$ et donc $Q\in F=\textrm{vect}(X^k;\ k\neq 1)$. Réciproquement, soit $Q=\sum_{k=0,\ k\neq 1}^mb_kX^k$ un élément de
$F$, c’est-à-dire un polynôme sans terme en $X$. Alors, si on pose $a_k=(1-k)^{-1}b_k$, $k\neq 1$, et $a_1=0$,
le calcul précédent montre que $P-XP’=Q$ et donc $Q\in\textrm{Im}(f)$. Ainsi, $\textrm{Im}(f)=F$.
On peut remarquer que dans cet exemple, l’image et le noyau de $f$ sont supplémentaires.
Soit $E=\mathbb C[X]$, $p$ un entier naturel et $f$ l’application de $E$ dans $E$ définie par
$f(P)=(1-pX)P+X^2P’$. $f$ est-elle injective? surjective?
$f$ étant linéaire, il suffit de calculer son noyau et son image. On peut notamment
prouver que $\textrm{Im}(f)$ ne contient pas de polynôme de degré $p+1$.
Il est facile de vérifier que $f$ est linéaire. Pour savoir si elle est injective,
on calcule son noyau. Soit $P=\sum_{i=0}^n a_iX^i$ un polynôme.
Alors
$$f(P)=\sum_{i=0}^n a_iX^i-p\sum_{i=0}^n a_i X^{i+1}+\sum_{i=1}^n i a_i X^{i+1}$$
soit, après un changement d’indice
$$f(P)=a_0 +\sum_{i=1}^n (a_i-(p+1-i)a_{i-1})X^i +(n-p)a_n X^{n+1}.$$
Si $f(P)=0$, on obtient donc $a_0=0$ et $a_i=(p+1-i)a_{i-1}$ pour $1\leq i\leq n$
ce qui entraine $a_i=0$ pour tout $i=0,\dots,n$. Ainsi, $P=0$,
le noyau de $f$ est réduit à $\{0\}$ et $f$ est injective.
D’autre part, si $P$ est un polynôme de degré $n$, alors le
calcul précédent montre que
pour $n=p$, le degré de $f(P)$ est inférieur ou égal à $n$, et
donc différent de $p+1$;
pour $n\neq p$, alors $f(P)$ est de degré $n+1\neq p+1$.
Ainsi, $\textrm{Im}(f)$ ne contient pas de polynômes de degré $p+1$. Donc $f$ n’est pas
surjective.
Soit $E=\mathbb R_3[X]$ l’espace vectoriel des polynômes à coefficients réels de degré inférieur ou égal à 3.
On définit $u$ l’application de $E$ dans lui-même par
$$u(P)=P+(1-X)P’.$$
Montrer que $u$ est un endomorphisme de $E$.
Déterminer une base de $\textrm{Im}(u)$.
Déterminer une base de $\ker(u)$.
Montrer que $\ker(u)$ et $\textrm{Im}(u)$ sont deux sous-espaces
vectoriels supplémentaires de $E$.
Remarquons d’abord que si $P\in E$, $u(P)$ est bien un polynôme
de degré inférieur ou égal à 3, et donc $u$ envoie bien $E$ dans $E$. Pour montrer
qu’il s’agit d’un endomorphisme, on doit prouver que $u$ est linéaire.
Mais, si $P,Q\in E$ et $\lambda\in\mathbb R$, on a :
\begin{eqnarray*}
u(P+\lambda Q)&=&(P+\lambda Q)+(1-X)(P+\lambda Q)’\\
&=&P+\lambda Q+(1-X)(P’+\lambda Q’)\\
&=&P+(1-X)P’+\lambda(Q+(1-X)Q’)\\
&=&u(P)+\lambda u(Q).
\end{eqnarray*}
$u$ est donc bien linéaire.
Puisque $(1,X,X^2,X^3)$ est une base de $E$, on sait que
$u(1),u(X),u(X^2),u(X^3)$ est une famille génératrice de $\textrm{Im}(u)$. On va pouvoir en extraire une base.
On a :
$$u(1)=1,\ u(X)=1,\ u(X^2)=-X^2+2X,\ u(X^3)=-2X^3+3X^2.$$
On en déduit que $(u(1),u(X^2),u(X^3))$ est une famille libre
(ce sont des polynômes de degrés différents) et que $u(X)$ s’écrit comme combinaison
linéaire de ceux-ci (on a même $u(X)=u(1)$). Ainsi, ceci prouve que
$(u(1),u(X^2),u(X^3))$ est une base de $\textrm{Im}(u)$.
Ecrivons $P(X)=aX^3+bX^2+cX+d$, et calculons $u(P)$ :
$$u(P)=-2aX^3+(3a-b)X^2+2bX+c+d.$$
Ainsi, on obtient
$$u(P)=0\iff \left\{
\begin{array}{rcl}
-2a&=&0\\
3a-b&=&0\\
2b&=&0\\
c+d&=&0
\end{array}\right.
\iff \left\{
\begin{array}{rcl}
a&=&0\\
b&=&0\\
c&=&c\\
d&=&-c
\end{array}\right.$$
Ainsi, $P\in\ker(u)\iff \exists c\in\mathbb R,\ P=c(X-1)$. Une base de $\ker(u)$ est donné
par le polynôme $X-1$.
La réunion des bases de $\textrm{Im}(u)$ et $\ker(u)$ trouvées précédemment est
$(1,-X^2+2X,-2X^3+3X^2,X-1)$. Ces polynômes sont tous de degrés différents. Ils forment
une base de $E$. Ceci prouve que $\textrm{Im}(u)$ et $\ker(u)$ sont supplémentaires.
Remarquons d’abord que $\phi$ est bien un endomorphisme de $\mathbb R_n[X]$. Puisque $\mathbb R_n[X]$ est de dimension finie, il suffit de démontrer que $\phi$ est injective. Mais puisque $\deg(P(X)+P(X+1))=\deg(P(X))$, le noyau de $\phi$ est clairement réduit à $\{0\}$. Donc $\phi$ est injective, ce qui prouve que $\phi$ est un automorphisme de $\mathbb R_n[X]$.
Bien entendu, $\phi$, même considérée en tant qu’endomorphisme de $\mathbb R[X]$, reste injective. Reste à montrer qu’elle est surjective. Comme $\mathbb R[X]$ est de dimension infinie, on ne peut plus utiliser le théorème du rang. Cependant, soit $Q\in\mathbb R[X]$. Alors il existe $n\geq 0$ tel que $Q\in\mathbb R_n[X]$. Puisque $\phi$ est un automorphisme de $\mathbb R_n[X]$, il existe $P\in\mathbb R_n[X]$ tel que $Q=\phi(P)$. Donc $\phi$ est surjective (même considérée comme un endomorphisme de $\mathbb R[X]$)!
Pour $0\leq k\leq n$, on note $B_k(X)=X^k(1-X)^{n-k}$. Démontrer que la famille $(B_0,\dots,B_n)$ forme une base de $\mathbb R_n[X]$.
On définit $\phi$ sur $\mathbb R_n[X]$ par $\phi(P)=\sum_{k=0}^n \binom nk P\left(\frac kn\right) B_k$. Démontrer que $\phi$ est un automorphisme de $\mathbb R_n[X]$.
Le terme de plus bas degré de chaque $B_k$ est $X^k$. Dans une relation de liaison $\lambda_0 B_0+\cdots+\lambda_n B_n=0$, commencer par prouver que $\lambda_0=0$.
Remarquons d’abord que la famille $(B_0,\dots,B_n)$ est une famille de $n+1$ vecteurs dans un espace de dimension $n+1$. Elle forme donc une base de $\mathbb R_n[X]$ si et seulement si elle est libre. D’autre part, le point clé est que le terme de plus bas degré de $B_k$ est $X^k$ (il n’y a pas de termes en $X^{k-1}$, etc…).
Procédons par l’absurde et supposons que la famille $(B_0,\dots,B_n)$ est liée. Soit $\lambda_0,\dots,\lambda_n$ des réels, non tous nuls, tels que $\lambda_0 B_0+\cdots+\lambda_n B_n=0$. Soit $k$ le plus petit entier tel que $\lambda_k\neq 0$. Alors, le terme de degré $k$ de $\lambda_0 B_0+\cdots+\lambda_n B_n$ est $\lambda_k X^k$. Il doit être nul, et donc $\lambda_k$ doit être égal à 0, ce qui est une contradiction.
Donc la famille $(B_0,\dots,B_n)$ est libre : c’est une base de $\mathbb R_n[X]$.
Puisque $\mathbb R_n[X]$ est de dimension finie, et que $\phi$ est clairement un endomorphisme de $\mathbb R_n[X]$, il suffit de démontrer que $\phi$ est injective. Soit $P\in\ker(\phi)$. Alors on a
$$\sum_{k=0}^n \binom nk P\left(\frac kn\right) B_k=0.$$
Puisque $(B_0,\dots,B_n)$ est une base de $\mathbb R_n[X]$, on a donc
$P\left(\frac kn\right)=0$ pour tout $k=0,\dots,n$. Autrement dit, $P$ admet $n+1$ racines distinctes. Puisque $P$ est un élément de $\mathbb R_n[X]$, on en déduit que $P=0$ et donc que $\phi$ est injective. Remarquons ici qu’on aurait pu remplacer $(B_0,\dots,B_n)$ par n’importe quelle autre base de $\mathbb R_n[X]$.
On pourra étudier quel est le degré de $(X+1)^k-X^k$. Ensuite, il est facile de démontrer que $\textrm{Im}(\phi)\subset \mathbb R_{n-1}[X]$. Démontrer l’inclusion réciproque à l’aide du théorème du rang.
Le degré de $(X+1)^k-X^k$ est égal à $k-1$, sauf si $k=0$ car dans ce cas on a affaire au polynôme nul. En particulier, si $P$ est de degré $d$, $P(X)=a_dX^d+\dots+a_0$, alors
$$\phi(P)=a_d\big((X+1)^d-X^d)+\dots+a_1$$
est de degré $d-1$, sauf si $d=0$ où on a le polynôme nul. On en déduit que le noyau de $\phi$ est l’ensemble des polynômes constants.
D’autre part, l’image de $\phi$ est clairement contenue dans $\mathbb R_{n-1}[X]$. Or, ce dernier espace est de dimension $n$, et par le théorème du rang,
$$\dim\big(\textrm{Im}(\phi)\big)=n+1-\dim\big(\ker(\phi)\big)=n.$$
Ainsi, on a $\textrm{Im}(\phi)\subset \mathbb R_{n-1}[X]$ et $\dim\big(\textrm{Im}(\phi)\big)=\dim(\mathbb R_{n-1}[X]).$ Ces deux sous-espaces vectoriels sont donc égaux. Remarquons que ce serait beaucoup plus difficile à démontrer sans le théorème du rang.
$f$ est clairement une application linéaire. Puisque $\deg(P(X+1)+P(X-1)-2P(X))\leq \deg(P(X))$, elle est bien à
image dans $E$.
On a
$$f(X^p)=\sum_{k=0}^p \binom{p}{k}\big(1+(-1)^k\big)X^{p-k}-2X^p.$$
Le coefficient devant $X^p$ est nul (il vaut 1+1-2), celui devant $X^{p-1}$ aussi, et celui devant $X^{p-2}$ vaut
$p(p-1)$.
Ainsi, si $p\geq 2$, le degré de $f(X^p)$ est $p-2$. Sinon, $f(X^p)$ est le polynôme nul.
On en déduit, par linéarité, que
$f(P)$ est de degré $\deg(P)-2$ si $\deg(P)\ge 2$, et est le polynôme nul sinon. Ainsi, $\ker(f)=\mathbb R_1[X]$.
Par le théorème du rang, $\dim(\textrm{Im}(f))=n+1-2=n-1$. De plus, on a vu que $\textrm{Im}(f)\subset \mathbb R_{n-2}[X]$. C’est donc que $\textrm{Im}(f)=\mathbb R_{n-2}[X]$.
Soit $G=\{P\in\mathbb R_{n}[X];\ P(0)=P'(0)=0\}$. Alors $G$ est un sous-espace vectoriel de $\mathbb R_n[X]$. On
vérifie facilement que, pour $P(X)=a_nX^n+\dots+a_0$, $P\in G\iff a_0=a_1=0$, et donc une base de $G$ est
$(X^2,X^3,\dots,X^n)$. Ainsi, $G$ est de dimension $n-1$. Notons $g:G\to \textrm{Im}(f),\ P\mapsto f(P)$.
$g$ est injective, car $G\cap\ker(f)=\{0\}$. De plus, $\dim(G)=\dim(\textrm{Im}(f))$. Ainsi, $g$ est une bijection de
$G$ sur $\textrm{Im}(f)$. Ceci prouve le résultat.
Traduire cet exercice par le fait qu’une application linéaire doit être un isomorphisme. Utiliser les outils d’algèbre linéaire pour prouver que c’est un isomorphisme.
Considérons $E=\mathbb R_n[X]$ et $\phi\in\mathcal L(E)$ définie par $\phi(Q)=\sum_{k=0}^n Q^{(k)}$ (il est facile de vérifier que $\phi$ est linéaire). Le but de l’exercice est de démontrer que $\phi$ est bjective. Etant une application linéaire entre deux espaces de même dimension finie, il suffit de prouver que $\phi$ est injective, ou encore que son noyau est réduit au polynôme nul. Mais si $Q$ n’est pas le polynôme nul, il est clair que $\phi(Q)$ a même degré que $Q$, et le même coefficient dominant. On en déduit que $\phi(Q)=0\implies Q=0$. $\phi$ est bijective.
Soit $E=\mathbb R_n[X]$ et soient $A,B$ deux polynômes de degré $n+1$. On définit l’application $\phi:E\to E$ qui à un polynôme $P$ associe le reste de $AP$ dans la division euclidienne par $B$.
Démontrer que $\phi$ est linéaire;
Démontrer que $\phi$ est bijective si et seulement si $A$ et $B$ sont premiers entre eux.
Pour démontrer que $A$ et $B$ sont premiers entre eux, utiliser le théorème de Bézout. Pour la réciproque, il suffit de démontrer que $\phi$ est injective.
Soient $P_1,P_2$ dans $\mathbb R_n[X]$ et soit $\lambda\in\mathbb R$. Alors,
$$AP_1=BQ_1+\phi(P_1),\ AP_2=BQ_2+\phi(P_2)$$
ce qui donne
$$A(P_1+\lambda P_2)=B(Q_1+\lambda Q_2)+\big(\phi(P_1)+\lambda \phi(P_2)\big).$$
Mais $\phi(P_1)+\lambda \phi(P_2)$ est de degré inférieur ou égal à $n$, et donc c’est le reste de la division euclidienne de $A(P_1+\lambda P_2)$ par $B$. Autrement dit,
$$\phi(P_1)+\lambda \phi(P_2)=\phi(P_1+\lambda P_2)$$
et $\phi$ est linéaire.
Supposons $\phi$ bijective. Alors $\phi$ est surjective, et il existe $P\in\mathbb R_n[X]$ tel que $\phi(P)=1$. Ainsi, on obtient deux polynômes $P$ et $Q$ tels que
$$AP-BQ=1.$$
D’après le théorème de Bézout, on en déduit que $A$ et $B$ sont premiers entre eux.
Réciproquement, puisque $\phi$ est un endomorphisme d’un espace de dimension finie, il suffit de prouver que $\phi$ est injective sous l’hypothèse que $A$ et $B$ sont premiers entre eux. Mais si
$\phi(P)=0$, il existe un polynôme $Q$ tel que
$$AP=BQ.$$
Par le théorème de Gauss, puisque $A\wedge B=1$, $B|P$. Mais comme le degré de $B$ est $n+1$ et que $P$ est de degré inférieur ou égal à $n$, $P=0$. Donc $\phi$ est injective, d’où bijective.
Le but de cet exercice est l’étude de l’application $\Delta$ définie sur $\mtr[X]$ par $(\Delta P)(X)=P(X+1)-P(X)$.
Question préliminaire : Soit $(P_n)$ une famille de $\mtr[X]$ telle que pour chaque $n$, $\deg(P_n)=n$. Prouver
que $(P_n)$ est une base de $\mtr[X]$.
Montrer que $\Delta$ est une application linéaire. Calculer son noyau et son image.
Montrer qu’il existe une unique famille $(H_n)_{n\in\mtn}$ de $\mtr[X]$ vérifiant, pour tout $n\geq 1$, $\Delta(H_n)=H_{n-1}$, $H_n(0)=0$ et telle que $H_0=1$. Montrer que $(H_n)$ est une base de $\mtr[X]$.
Soit $P\in\mtr_p[X]$. Montrer que $P$ peut s’écrire
$$P=\sum_{n=0}^p (\Delta^nP)(0)H_n.$$
Montrer que l’on a $(\Delta^n P)(0)=\sum_{k=0}^n (-1)^{n-k}\binom nk P(k)$.
Montrer que pour tout $n\geq 1$, $H_n=\frac{X(X-1)\dots (X-n+1)}{n!}$.
En déduire que, pour tout polynôme $P$ de degré $p$, les assertions suivantes sont équivalentes :
$P$ prend des valeurs entières sur $\mtz$.
$P$ prend des valeurs entières sur $\{0,\dots,p\}$.
Les coordonnées de $P$ dans la base $(H_n)$ sont des entiers.
$P$ prend des valeurs entières sur $p+1$ entiers consécutifs.
Montrer d’abord que c’est une famille libre. Pour prouver que c’est une famille génératrice, il faut prouver
que tout polynôme de degré $p$ est combinaison linéaire de $P_0,\dots,P_p$. Simplifier le problème en prouvant
que $(P_0,\dots,P_p)$ est une base de $\mtr_p[X]$, en utilisant un résultat spécifique à la dimension finie.
La linéarité ne pose pas de problèmes. Montrer que le noyau est l’ensemble des polynômes constants, en calculant
par exemple le coefficient dominant de $\Delta P$,
puis que l’image est $\mtr[X]$ tout entier, en construisant une famille de polynômes à degré étagés dans l’image.
En posant $E=\{P\in\mtr[X];\ P(0)=0\}$, montrer que $E$ est un supplémentaire de $\ker(\Delta)$.
L’existence et l’unicité viennent alors du résultat de la question précédente (on pourra procéder par
récurrence). Quel est le degré de $H_n$?
Utiliser d’abord le fait que $(H_n)$ est une base. Calculer ensuite $\Delta^nP$.
Calculer par récurrence, ou par la formule du binôme, $(\Delta^nP)(X)$, puis évaluer en 0.
Vérifier que la famille donnée satisfait aux conditions qui définissent de façon unique la suite $(H_n)$.
Prouver d’abord l’équivalence des 3 premiers points. Pour montrer l’équivalence avec le 4ième, utiliser un changement de variables
pour ramener $iv.$ à $ii.$ pour un autre polynôme!
Pour montrer que la famille est libre, il suffit de prouver que toute sous-famille finie est libre ou encore que,
pour tout $p$, la famille $(P_0,\dots,P_p)$ est libre. Imaginons que l’on ait une relation de liaison $\alpha_0 P_0+\dots
+\alpha_p P_p=0$, où l’un au moins des $\alpha_i$ est non nul. Soit $q$ le plus grand des $i$ pour lequel $\alpha_i\neq 0$.
Alors, le polynôme $\alpha_0P_0+\dots+\alpha_qP_q$ est de degré $q$, et en même temps il est nul : c’est bien sûr une contradiction.
La famille $(P_n)$ est donc libre. D’autre part, fixons un $p\geq 0$ et $Q$ un polynôme de degré $p$. Puisque
$(P_0,\dots,P_p)$ est une famille libre de $\mtr_p[X]$ qui est de dimension $p+1$, elle en est une base. Ainsi,
$Q$ peut s’écrire $\alpha_0P_0+\dots+\alpha_pP_p$, ce qui prouve que la famille $(P_n)$ est génératrice :
c’est donc une base de $\mtr[X]$.
La linéarité ne pose pas de problèmes. D’autre part, si le terme dominant de $P$ est $\alpha_n X^n$, le terme
dominant de $\Delta(P)$ est $\alpha_n\times n X^{n-1}$. Ainsi, $\Delta P=0$ si et seulement $P\in\mtr_0[X]$ (ie si
$P$ est un polynôme constant). D’autre part, posons pour $n\geq 0$ $P_n=\Delta(X^{n+1})$. La famille $(P_n)$ est une famille de
polynômes à degrés étagés. En outre, cette famille est contenue dans $\imv(\Delta)$. On a donc, d’après le résultat
de la question préliminaire, $\mtr[X]=\vect(P_n;\ n\geq 0)\subset\imv(\Delta)$. Ceci prouve que $\Delta$ est surjective.
On note $E=\{P\in \mtr[X];\ P(0)=0\}$. $E$ est un supplémentaire de $\mtr_0[X]$ dans $\mtr[X]$. Ainsi, $\Delta$
induit un isomorphisme de $E$ sur $\mtr[X]$. On montre alors l’existence et l’unicité de $H_n$ par récurrence sur $n$,
le cas $n=0$ étant donné par l’énoncé. Supposons $(H_0,\dots,H_{n-1})$ uniquement construits. Alors, la remarque précédente
fait qu’il existe un unique $H_n$ de $E$ tel que $\Delta(H_n)=H_{n-1}$. On montre alors facilement par récurrence
que pour chaque $n$, $\deg(H_n)=n$ (cela vient du fait que $\deg(\Delta(P))=\deg(P)-1$ si $P$ n’est pas un polynôme constant.
D’après le résultat de la question préliminaire, $(H_n)$ forme une base de $\mtr[X]$.
Puisque $(H_n)$ est une base de $\mtr[X]$, il existe
des réels $\alpha_0,\dots,\alpha_p$ tels que $P=\alpha_0 H_0+\dots+\alpha_p H_p$. Calculons $\Delta^n(P)$, sachant
que $\Delta^n(H_k)=H_{k-n}$ si $n\leq k$, $\Delta^n(H_k)=0$ sinon. On obtient donc :
$$\Delta^n P=\alpha_n H_0+\dots+\alpha_p H_{p-n}.$$
On évalue ensuite ce polynôme en $0$, en utilisant le fait que $H_k(0)=0$ si $k\neq 0$, mais vaut $1$ si $k=0$. On obtient
donc :
$$\Delta^n P(0)=\alpha_n.$$
On va montrer que
$$(\Delta^nP)(X)=\sum_{k=0}^n (-1)^{n-k} \binom nk P(X+k),$$
l’évaluation en $0$ faisant le reste.
Notons $T(P)(X)=P(X+1)$; clairement, $T^k(P)(X)=P(X+k)$. Remarquons que $\Delta=T-I$. Puisque $T$ et $I$ commutent,
il est légitime d’appliquer la formule du binôme, et on a :
$$\Delta^n=\sum_{k=0}^n (-1)^{n-k} \binom nk T^k.$$
Il suffit d’évaluer ceci en $P$ pour obtenir le résultat annoncé.
Posons $Q_n=\frac{X(X-1)\dots (X-n+1)}{n!}$ pour $n\geq 1$, avec $Q_0=1$. On remarque que pour tout $n\geq 1$, $Q_n(0)=0$, et un calcul quasi-immédiat
montre que $\Delta Q_n=Q_{n-1}$. Ainsi, la famille $(Q_n)$ satisfait les conditions uniques qui définissent la famille $(H_n)$.
C’est donc que $Q_n=H_n$ pour tout $n\geq 0$.
Il est d’abord clair que $i.\implies ii.$. Que $ii.$ entraîne $iii.$ résulte du calcul de $\Delta^n P(0)$ et de la
décomposition de $P$ dans la base $H_n$. Remarquons d’autre part que si $a$ est dans $\{0,\dots,n-1\}$, $H_n(a)=0$, et si
$a\geq n$, $H_n(a)=\binom an\in\mtn$. Si $a<0$, $a$ s’écrit $-b$ avec $b>0$, et on a $H_n(a)=(-1)^n \binom{b+n-1}n$. La décomposition de $P$ dans la base $H_n$ fait alors
que $P(a)\in\mtz$ pour tout $a\in\mtz$, et on a prouvé l’équivalence des 3 premiers points.
Démontrons enfin que la dernière proposition est équivalente aux trois premières. Il est clair que $i.\implies iv.$ Réciproquement,
si $P$ prend des valeurs entières sur $\{a,\dots,a+p\}$, alors $Q(X)=P(X+a)$ prend des valeurs entières
sur $\{0,\dots,p\}$, et par l’équivalence des 3 premiers points, $Q$ prend des valeurs entières sur $\mtz$ tout entier. Il en est de même pour $P$.