Logarithme et racine carrée d’une matrice réelle
Un petit exercice concernant l’exponentielle matricielle, posé sur le blog de Pierre Lecomte, donne l’occasion de vous proposer l’exercice suivant.
Soit A une matrice réelle inversible de taille n. On pose
\(\sqrt{A}=\{ B\in M_n(\mathbb{R})\;\mid\; B^2=A\}\) et
\(\log(A)=\{ B\in M_n(\mathbb{R})\;\mid\; \exp(B)=A\}.\)
Montrer que l’ensemble \(\sqrt{A}\) est vide si et seulement si \(\log(A)\) l’est.
déjà s’il existe \(B\in \log(A)\) alors \(\exp(B/2)\in \sqrt{A}\) . Je ne vois pas encore l’argument pour la réciproque …
Ce que je n’ai pas précisé au dessus c’est que comme
\( \exp(M)=\sum_{k\geq 0} {M^k\over k!}\)
l’exponentielle de B est automatiquement définie (la série converge) et est à coefficients réels. Pour la réciproque le fait que A soit inversible implique que B l’est aussi (det(B)=det(A)/2) donc elle possède un logarithme C et on a
\(\exp(2C)=\exp(C)^2=B^2=A\)
mais C peut avoir ses coefficients complexes ! Tout le problème est de justifier que C est à coefficients réels ….
Philippe, je ne comprends pas ton second message. En particulier, je ne vois pas pourquoi det(B)=det(A)/2 ni pourquoi "elle" possède un logarithme C.
pour det(B)=det(A)/2 c’est normal de ne pas comprendre car j’ai écrit n’importe quoi 🙂 Mais bon si det(A)=/=0 on a bien det(B)=/=0 puisque det(B)^2=det(A)=/=0.
Ensuite pour une matrice qui a ses valeurs propres non nulles on peut toujours trouver C un logarithme matriciel \(\exp(C)=A\) . Dans le cas où A est diagonalisable on le comprend facilement en écrivant* que
\(A=P^{-1}diag(\lambda_1,\dots,\lambda_n)P
\Rightarrow
C=P^{-1}diag(\ln(\lambda_j))P\)
à condition de prendre une détermination du logarithme qui est définie sur chaque \(\lambda_j\in{\mathbb C}\) (c’est possible ils forment un ensemble discret, il faut choisir une demi-droite interdite partant de 0 et ne passant par aucun de ces points). Ce résultat s’étend aux matrices non diagonalisables par densité. Le problème c’est ici pourquoi C est à coefficients réels …?
* je note \(diag(a_1,\dots,a_n)=\begin{pmatrix}a_1&0&0\\0&\ddots&0\\0&0&a_n\end{pmatrix}\)
Merci pour vos commentaires ! Philippe, concernant ta précaution sur la détermination du logarithme complexe, tu es trop prudent à mon avis car elle n’est pas nécessaire; en fait, les différentes déterminations se distinguent seulement de multiples de 2ipi et ces différences disparaissent une fois élévées à l’expontielle.
Maintenant je vais vous donner une indication. Il peut être utile de prouver d’abord que pour toute matrice carrée complexe M il existe un polynôme complexe P tel que exp(M) = P(M) et que pour toute matrice complexe inversible A il existe un polynôme complexe Q tel que A = exp(Q(A)).
Et la décomposition de Dunford peut servir 😉
L’existence de P tel que exp(M)=P(M) est à peu près évidente. Qu’on soit sur les réels ou les complexes d’ailleurs. En effet, M annule un polynome, par exemple son polynôme caractéristique. Disons que
\(M^p=a_0+a_1M+\cdots+a_pM^{p-1}\)
On cherche alors des fonctions \(u_k(t)\) telles que
\((*) \exp(tM)=\sum_{k=0}^{p-1}u_k(t)M^k\)
En exprimant le fait que exp(tM) est l’unique solution de l’équation différentielle X’=MX, X(0)=I (la matrice identité), on voit que les u sont les solutions d’un système d’équations différentielles linaires à coefficients constants qui les déterminent univoquement. En évaluant (*) en t=1, on obtient le polynôme cherché.
Je dois encore réfléchir pour Q.
P.S. Je voulais poster ce message hier mais un problème technique est survenu (serveur temporairement indisponible).
Merci pour cette preuve de l’existence de P, passant par les équations différentielles. Voici ma preuve, un peu différente. L’espace vectoriel des matrices étant de dimension finie, le sous-espace F des expressions polynomiales en la matrice M est un fermé; par conséquent la série exponentielle de M, qui est convergente, a pour limite une matrice dans F.
C’est très joli et moins sophistiqué que ma preuve! Bravo!
En fait, toute série de puissance d’une matrice est un polynôme en cette matrice, pour une raison semblable à celle que j’ai donnée plus haut pour l’exponentielle. Du fait que la matrice annule un certain polynôme, ces puissances sont des polynômes en cette matrice et on obtient facilement une équation de récurrence linéaire (qui remplace l’équation différentielle que j’ai utilisée pour l’exponentielle) donnant les coefficients de ces polynômes. Pour trouver Q, ne pourrait-on pas utiliser le développement de Taylor de ln(1-x) en série de puissances pour calculer une sorte de logarithme de A? Je crois que oui, mais il faut que je vérifie encore les détails. Cela dit, je n’ai pas encore compris en quoi la suggestion du message 5 aide. Mais je n’y ai pas réfléchi.
PS Je trouve le problème original amusant : pour les nombres réels non nuls (les matrices non singulières de taille 1) cela dit, ce qu’on sait bien, qu’un nombre x admet une racine carrée (réelle) si, et seulement si, il admet un logarithme, les deux signifiant qu’il est positif.
Je viens de poster la solution ici dans un billet séparé.