Matrice : Introduction générale
Matrice/Introduction générale

Une page de Wikiversité.

 

Introduction générale
Nuvola apps edu mathematics-p.svg
Chapitre 1
Leçon : Matrice
Retour au Sommaire
Chap. suiv. : Définition (12)

Les matrices sont des objets mathématiques que l'on rencontre très couramment en mathématiques, que ce soit en algèbre linéaire ou en géométrie. Leurs intérêts sont notamment les nombreuses interprétations qu'on peut leur donner, outre le nombre de problèmes qu'elles permettent de résoudre. Cette introduction générale traite des quelques questions « non mathématiques » au sujet des matrices.

Ceux qui souhaitent passer directement à la définition et entrer dans le vif du sujet peuvent sauter ce chapitre introductif.

[modifier] Un peu d'histoire

Une matrice de nombres (notation américaine).

Si les matrices sous leur formalisme actuel datent du début du XXe siècle, avec notamment l'appui de Heisenberg, l'intérêt pour les « chiffres placés sur une grille » est très ancien. En effet, le problème des « carrés magiques » intriguait déjà les mathématiciens chinois en 650 av. J.-C. et les systèmes d'équations linéaires furent complètement résolues avec les matrices trois siècles plus tard ! La méthode de Cramer (1750) en est l'équivalent moderne.

Le regain formidable d'intérêt pour ces objets au cours du XIXe siècle a motivé des mathématiciens de renom comme Leibniz, Cramer (méthode de Cramer), Gauss (pivot de Gauss), Jordan (réduction de Jordan), Sylvester (inventeur du terme « matrice », matrice de Sylvester), Cayley, Hamilton (mécanique hamiltonienne), Grassmann (formule de Grassmann), Frobenius (théorie des matrices positives), von Neumann...

 

En 1925, Heisenberg utilise la théorie des matrices pour formuler la mécanique quantique, ancrant définitivement dans l'esprit des mathématicien l'intérêt indéniable de ces objets, et convaincant les physiciens de l'efficacité de son utilisation. Dans les années qui suivent, de nombreux résultats furent découverts, en cryptographie, en calcul, en théorie des graphes, en optique...

Les décompositions de matrices restent des objets de recherche actuels, puisque de tels opérations permettent de séparer le bruit d'une image (décomposition en valeurs singulières), de repérer les caractéristiques d'un code génétique (analyse en composantes principales), d'étudier automatiquement des données statistiques (analyse en composantes indépendantes), le langage humaine (analyse sémantique latente)...

La généralisation de la théorie des matrices, appelée théorie des « tenseurs », est au cœur de la formulation actuelle de la théorie de la relativité générale. Ces objets et leurs extensions sont donc inévitables en physique classique (mécanique hamiltonienne), quantique et relativiste !

[modifier] Interprétations

Les matrices permettent une myriade d'interprétations...

Ce qui fait la force des matrices, c'est qu'elles sont plus que de simples tableaux de chiffres. Non pas que, nous le verrons, il puisse s'agir d'autres choses que des chiffres, mais elles constituent de véritables objets à part entière. On peut les interpréter de différentes manières, selon le contexte — et certains résultats apparaissent « à l'œil ».

On peut en effet voir les matrices comme des transformations (transformations linéaires) : rotations, déformations... ou bien comme des opérateurs (opérateurs linéaires), comme des données statistiques corrélées... Il en va de même pour leurs opérations : le produit matriciel, l'inversion... tout cela peut être compris différemment selon le contexte.

Il y a de nombreux liens entre les matrices et d'autres domaines des mathématiques, les propriétés des premières pouvant être vues comme d'autres résultats dans les seconds.

La théorie des matrices actuelle étend ses résultats à la théorie des graphes, à l'algèbre, à la combinatoire et aux statistiques, soit autant de visions possibles.

 

Matrice : Définition
Matrice/Définition

Une page de Wikiversité.

 

Définition
Nuvola apps edu mathematics-p.svg
Chapitre 2
Leçon : Matrice
Chap. préc. : Introduction générale
Chap. suiv. : Addition et soustraction (12)

Ce chapitre introduit la notion de matrice, et d'ensemble de matrice. Nous précisons les notations usuelles et définissons les termes.

Sommaire

[masquer]

[modifier] Notations générales

Notations générales

Soit left( a_1, a_2, a_3, ldots, a_n right) une famille d'objets. On utilisera la notation a_{i in left[![1, n ]!right]}, pour désigner cette famille, n étant un entier positif non-nul.

De manière similaire, si left( a_{(1,1)}, ldots, a_{(n,1)}, a_{(1,2)}, ldots, a_{(n,2)}, ldots, a_{(n,m)} right) est une famille d'objets, on utilisera la notation :

a_{(i,j) in left[![1, n ]!right] times left[![1, m ]!right]},

pour la désigner, m et n étant deux nombres entiers positifs et non-nuls.

On notera par :

R et mathbb C

respectivement le corps des nombres réels celui des nombres complexes. La notation scriptstyle mathbb K désignera indépendamment l'un ou l'autre des deux corps précédents.

On notera en caractères gras les matrices et les vecteurs : mathbf M

Les lettres désignant des nombres seront en minuscules italiques : m,

Le produit sera noté par un point (cdot ,) pour ne pas le confondre avec le produit cartésien (times,).

[modifier] Définition

Définitions

Une matrice est la donnée une famille a_{i,j in left[[1, n ]right] times left[[1, m ]right]},, dont les éléments appartiennent à un anneau commutatif (c'est-à-dire, pour résumer, qu'on sait les additionner et les multiplier entre eux).

Les nombres m et n sont appelés dimensions de la matrice. On dit qu'une matrice est de taille m × n (lire « m fois n »). Les éléments a_{i,j}, sont appelés coefficients de la matrice.

Tout de suite, introduisons la notation usuelle des matrices :

 

 

Notation des matrices et définitions

Une matrice mathbf A = a_{i,j in left[[1, n ]right] times left[[1, m ]right]}, est notée de la manière suivante :

 

mathbf A = begin{pmatrix}
                a_{1,1} & a_{1,2} & a_{1,3} & cdots & a_{1,m}
                a_{2,1} & a_{2,2} & a_{2,3} & cdots & a_{2,m}
                vdots & vdots & ddots &  & vdots
                vdots & vdots &   & ddots & vdots
                a_{n,1} & a_{n, 2} & a_{n, 3} & cdots & a_{n,m}
                end{pmatrix}


Les i « grandissent » de haut en bas, les j grandissent de gauche à droite. On appelle hauteur de la matrice le nombre n, et largeur de la matrice le nombre m.

 

Nuvola apps important.svg Il est très important d'avoir bien compris cet ordre, qui n'est pas totalement arbitraire. Inverser i et j a des conséquences sur la matrice.


Quelques cas particuliers qui nous intéressent :

  • une matrice de hauteur n = 1 est appelée vecteur, ou plus spécifiquement vecteur ligne ;
  • une matrice de largeur m = 1 est appelée vecteur colonne ;
  • une matrice telle que n = m est appelée matrice carrée ;

L’ensemble des matrices de dimensions données forme une algèbre associative et est noté mathfrak M_{n,m}left(A right), ou A est l'ensemble d'où sont issus les coefficients. Puisque nous serons amenés à traiter le cas important des matrices carrées sur le corps des réels ou des complexes, on note l'ensemble de ces matrices :

mathfrak M_nleft( mathbb K right)

On note qu'une matrice B appartient à un tel ensemble de la manière suivante :

mathbf B in mathfrak M_n left( mathbb K right)

[modifier] Remarques

Lorsqu'on est amené à « lire » une matrice, on énonce ses coefficients de haut en bas, de gauche à droite, c'est-à-dire en respectant l'ordre de la famille : i, puis j.

Il existe une notation alternative des matrices, privilégiée dans la littérature anglo-saxonne mais que nous n'emploierons pas dans le cadre de cette leçon :

mathbf A = begin{bmatrix}
    a_{1,1} & a_{1,2} & a_{1,3} & cdots & a_{1,m}
    a_{2,1} & a_{2,2} & a_{2,3} & cdots & a_{2,m}
    vdots & vdots & ddots &  & vdots
    vdots & vdots &   & ddots & vdots
    a_{n,1} & a_{n, 2} & a_{n, 3} & cdots & a_{n,m}
    end{bmatrix}

Cette notation est parfois utile quand on doit exprimer des grandes expressions où il devient maladroit d'écrire les parenthèses.

[modifier] Exemples

Exemples de matrices

Les objets suivants sont des matrices :

begin{pmatrix} 1 & 2  3 & 4  5 & 6  7 & 8 end{pmatrix}
begin{pmatrix} 1 & 2 & 3 & 4  5 & 6 & 7 & 8 end{pmatrix}
begin{pmatrix} 1  2  3 end{pmatrix}
begin{pmatrix} cos & x  & 1 sin & x^2 & 2  tan & x^3 & 3end{pmatrix}


 

Matrice : Addition et soustraction
Matrice/Addition et soustraction

Une page de Wikiversité.

 

Addition et soustraction
Nuvola apps edu mathematics-p.svg
Chapitre 2
Leçon : Matrice
Chap. préc. : Définition
Chap. suiv. : Produit matriciel (12)

Tout comme on peut additionner des nombres ou des vecteurs, il est possible d'effectuer l'addition de deux matrices. Il s'agit d'une opération élémentaire et assez intuitive.

Sommaire

[masquer]

[modifier] Additionner et soustraire

[modifier] Somme de deux matrices

Somme de deux matrices

Soit A et B deux matrices de même taille sur le même anneau. Alors il est possible de les additionner. Leur somme est une matrice A+B de même taille que A et B :

mathbf A = begin{pmatrix}
                a_{1,1} & a_{1,2} & cdots & a_{1,m}
                a_{2,1} & a_{2,2} & cdots & a_{2,m}
                vdots & vdots & ddots & vdots
                a_{n,1} & a_{n, 2} & cdots & a_{n,m}
                end{pmatrix}
mathbf B = begin{pmatrix}
                b_{1,1} & b_{1,2} & cdots & b_{1,m}
                b_{2,1} & b_{2,2} & cdots & b_{2,m}
                vdots & vdots & ddots & vdots
                b_{n,1} & b_{n, 2} & cdots & b_{n,m}
                end{pmatrix}
mathbf A + mathbf B = begin{pmatrix}
                a_{1,1}+b_{1,1} & a_{1,2}+b_{1,2} & cdots & a_{1,m}+b_{1,m}
                a_{2,1}+b_{2,1} & a_{2,2}+b_{2,2} & cdots & a_{2,m}+b_{2,m}
                vdots & vdots & ddots & vdots
                a_{n,1}+b_{n,1} & a_{n, 2}+b_{n, 2} & cdots & a_{n,m}+b_{n,m}
                end{pmatrix}
Nuvola apps important.svg Mieux vaut le rappeler trop que trop peu : l'addition n'est possible que pour des matrices de même taille.

 

 

 

Remarque

De manière évidente, si A, B et C sont trois matrices de même taille, alors :

mathbf A + left( mathbf B + mathbf C right) = left( mathbf A + mathbf B right) + mathbf C

On parle d’associativité pour l'addition.

[modifier] Différence de deux matrices

Différence de deux matrices

De manière similaire, on peut soustraire deux matrices A et B lorsqu'elle sont de même taille :

mathbf A - mathbf B = begin{pmatrix}
                a_{1,1}-b_{1,1} & a_{1,2}-b_{1,2} & cdots & a_{1,m}-b_{1,m}
                a_{2,1}-b_{2,1} & a_{2,2}-b_{2,2} & cdots & a_{2,m}-b_{2,m}
                vdots & vdots & ddots & vdots
                a_{n,1}-b_{n,1} & a_{n, 2}-b_{n, 2} & cdots & a_{n,m}-b_{n,m}
                end{pmatrix}

[modifier] La matrice nulle

Matrice nulle

Il existe une matrice telle que l'on peut l'ajouter ou la soustraire à toute autre matrice A sans changer cette dernière. Elle est appelée matrice nulle et notée 0 ou mathbf 0_{mathfrak M_{n,m} left(A right)}. De manière évidente :

mathbf 0_{mathfrak M_{n,m} left(A right)} = begin{pmatrix}
                0 & 0 & cdots & 0
                0 & 0 & cdots & 0
                vdots & vdots & ddots & vdots
                0 & 0 & cdots & 0
                end{pmatrix}

avec « 0 » l'élément neutre pour l'addition dans l'anneau A — si A = R ou A = mathbb C c'est simplement le zéro habituel.

 

 

 

Structure de mathfrak M_{n,m} left(A right)

L'ensemble mathfrak M_{n,m} left(A right), muni de l'addition (loi de composition interne associative), de la soustraction et de la matrice nulle (élément neutre) possède une structure de groupe.

[modifier] Exemples

Exemples

Un exemple d'addition de deux matrices :

    begin{pmatrix} 1 & 3  1 & 0  1 & 2 end{pmatrix} + begin{pmatrix} 0 & 0  7 & 5  2 & 1 end{pmatrix} = begin{pmatrix} 1+0 & 3+0  1+7 & 0+5  1+2 & 2+1 end{pmatrix} = begin{pmatrix} 1 & 3  8 & 5  3 & 3 end{pmatrix}

Un exemple de soustraction de deux matrices :

    begin{pmatrix} 1 & 3  1 & 0  1 & 2 end{pmatrix} - begin{pmatrix} 0 & 0  7 & 5  2 & 1 end{pmatrix} = begin{pmatrix} 1-0 & 3-0  1-7 & 0-5  1-2 & 2-1 end{pmatrix} = begin{pmatrix} 1 & 3  -6 & -5  -1 & 1 end{pmatrix}

[modifier] Remarques

On retrouve l'addition des vecteurs.
  • Il existe une autre « somme » envisageable pour les matrices, appelée « somme directe ». Elle a un sens dans la théorie des espaces vectoriels, et nous ne l'aborderons pas ici.
  • Si les matrices considérées n'ont qu'une seule ligne et une seule colonne (ce sont des nombres), on retrouve ce que l'on sait des nombres concernant leur addition, leur soustraction et le zéro.
  • Si les matrices considérées n'ont qu'une colonne (ce sont des vecteurs), on retrouve ce que l'on sait des vecteurs concernant l'addition, la soustraction et le vecteur nul.

Les matrices peuvent donc être vues comme une « généralisation » des vecteurs.

 

Matrice : Produit matriciel
Matrice/Produit matriciel

Une page de Wikiversité.

 

Produit matriciel
Nuvola apps edu mathematics-p.svg
Chapitre 4
Leçon : Matrice
Chap. préc. : Addition et soustraction
Chap. suiv. : Déterminant (12)

Nous allons introduire dans ce chapitre la notion de produit matriciel. Cette notion n'est malheureusement ni intuitive ni immédiate : il faudra prendre soin de bien la maîtriser.

Sommaire

[masquer]

[modifier] Multiplication par un scalaire

Avant de se lancer dans les choses difficiles, rappelons qu'il est toujours possible de multiplier une matrice A par un nombre réel ou complexe x. De manière évidente :

mathbf A cdot x = x cdot mathbf A

est la matrice dont les coefficients sont de A multipliés par x.

 

 

Exemple : multiplication par un scalaire

3 cdot begin{pmatrix} 0 &1 & 2 & 3 4 & 5 & 6 & 7 end{pmatrix} = begin{pmatrix} 0 & 3 & 6 & 9 12 & 15 & 18 & 21 end{pmatrix}

[modifier] Produit de matrices

Définition formelle

Soient mathbf A = a_{i,j in left[[1, m]right] times left[[1, n]right]} in mathfrak M_{m,n} et mathbf B = b_{i,j in left[[1, n]right] times left[[1, p]right]} in mathfrak M_{n,p} deux matrices. On définit le produit de A par B comme la matrice m × p suivante :

mathbf A cdot mathbf B = left( sum_{k=1}^{n} a_{i,k} cdot b_{k,j} right)_{i,j in left[[1, m]right] times left[[1, p]right]} = begin{pmatrix}
                sum_{k=1}^{n} a_{1,k}b_{k,1} & sum_{k=1}^{n} a_{1,k}b_{k,2} & cdots & sum_{k=1}^{n} a_{1,k}b_{k,p}
                sum_{k=1}^{n} a_{2,k}b_{k,1} & sum_{k=1}^{n} a_{2,k}b_{k,2} & cdots & sum_{k=1}^{n} a_{2,k}b_{k,p}
                vdots & vdots & ddots &  vdots
                sum_{k=1}^{n} a_{m,k}b_{k,1} & sum_{k=1}^{n} a_{m,k}b_{k,2} & cdots & sum_{k=1}^{n} a_{m,k}b_{k,p} end{pmatrix}

 

 

Quand est-ce que 2 matrices peuvent être mises en produit ?

Le produit matriciel de 2 matrices A et B n'est réalisable que si A a le même nombre de colonne que B a de lignes.
Dans ce cas, le produit matriciel sera A.B

 

 

Définition « plus claire »

Matrix multiplication diagram.svg

Évidemment, la formule du produit matriciel est généralement inutilisable en exercice, même si elle peut être utile pour les démonstrations. Tentons de la clarifier. Pour calculer le premier coefficient de la première ligne :

  • on prend la première ligne de A, L₁ ;
  • on prend la première colonne de B, C₁ ;
    • on multiplie le premier coefficient de L₁ par le premier coefficient de C₁
    • on multiplie le deuxième coefficient de L₁ par le deuxième coefficient de C₁
    • ...
    • on multiplie le n-ième coefficient de L₁ par le n-ième coefficient de C₁
  • on ajoute ces résultats : c'est le premier coefficient de A · B.

Pour calculer les autres coefficients, on procède de même avec les autres colonnes de B (on aura ainsi tous les coefficients de la première ligne de A · B), puis avec la seconde ligne de A etc.

Il est coutume de poser un produit matriciel comme sur le dessin ci-contre : la première à gauche, la seconde au dessus. Le résultat est la matrice au centre.

 

 

Remarque

Nuvola apps important.svg Attention à l'ordre des matrices !

Comme on peut le voir, l'ordre des matrices dans le produit a une importance : en effet, le produit n'est défini que si le nombre de colonnes de la première égale le nombre de lignes de la seconde. Dans notre exemple, A · B existe, mais B · A n'existe pas... Dans le cas général, on a même mathbf A cdot mathbf B neq mathbf B cdot mathbf A...

[modifier] Exemples

Cette notion mérite bien quelques exemples qui permettront aussi d'y voir plus clair. Le lecteur est invité à les reproduire pour vérifier qu'il a bien compris le produit matriciel, à titre d'exercice.

 

 

Produit matriciel (détaillé)

begin{pmatrix} 1 & 2  3 & 4end{pmatrix} cdot begin{pmatrix} 1 & 2  2 & 2end{pmatrix} = begin{pmatrix} 1 cdot 1 + 2 cdot 2 & 1 cdot 2 + 2 cdot 2  3 cdot 1 + 4 cdot 2 & 3 cdot 2+4 cdot 2 end{pmatrix} =
                begin{pmatrix} 5 & 6  11 & 14 end{pmatrix}

 

 

Produit matriciel (détaillé)

begin{pmatrix} 1 & 2  3 & 4  5 & 6  7 & 8 end{pmatrix} cdot begin{pmatrix} 1 & 2 & 3  4 & 5 & 6end{pmatrix} = begin{pmatrix}
                1 cdot 1 + 2 cdot 4 & 1 cdot 2 + 2 cdot 5 & 1 cdot 3 + 2 cdot 6
                3 cdot 1 + 4 cdot 4 & 3 cdot 2 + 4 cdot 5 & 3 cdot 3 + 4 cdot 6
                5 cdot 1 + 6 cdot 4 & 5 cdot 2 + 6 cdot 5 & 5 cdot 3 + 6 cdot 6
                7 cdot 1 + 8 cdot 4 & 7 cdot 2 + 8 cdot 5 & 7 cdot 3 + 8 cdot 6 end{pmatrix} = begin{pmatrix}
                9 & 12 & 15
                19 & 26 & 33
                29 & 40 & 51
                39 & 54 & 69end{pmatrix}
Nuvola apps important.svg Attention ! On ne peut pas échanger l'ordre des deux matrices !

 

 

Plus simple produit vectoriel

Le produit suivant donne :

begin{pmatrix} 1 & 2  3 & 4end{pmatrix} cdot begin{pmatrix} 1 & 2  2 & 2end{pmatrix} =
                begin{pmatrix} 5 & 6  11 & 14 end{pmatrix}

Alors que :

begin{pmatrix} 1 & 2  2 & 2end{pmatrix} cdot begin{pmatrix} 1 & 2  3 & 4end{pmatrix}  =
                begin{pmatrix} 7 & 10  8 & 12 end{pmatrix}
Nuvola apps edu mathematics-p.svg Voir les exercices sur : Produit matriciel.

[modifier] Matrice identité

Pour les matrices carrées, il existe une matrice qui, multipliée à toute autre, ne la modifie pas.

 

 

Matrice identité

On appelle matrice identité l'unique matrice In de mathfrak M_n left( mathbb K right) telle que :

forall mathbf A in mathfrak M_n left( mathbb K right), quad mathbf A cdot mathbf I_n = mathbf I_n cdot mathbf A = mathbf A

On montre facilement qu'elle s'écrit :

mathbf I_n = begin{pmatrix} 1 & 0 & cdots & 0  0 & 1 & cdots & 0  vdots &  & ddots &  vdots  0 & 0 & cdots & 1 end{pmatrix}

 

 

Exemple : matrice I₂

La matrice I₂ s'écrit :

mathbf I_2 = begin{pmatrix} 1 & 0  0 & 1end{pmatrix}

[modifier] Remarques

Il existe d'autres « produits » de matrices, comme le produit de Hadamard ou le produit de Kronecker. Nous ne les aborderons pas dans le cadre de cette leçon. Le produit tensoriel, en revanche, sera l'objet d'un chapitre.

Le produit d'un vecteur ligne par un vecteur colonne est un nombre. Ce nombre est le produit scalaire des deux vecteurs.

L'efficacité algorithmique du produit matriciel est toujours l'objet de recherches actuelles. L'algorithme manuel présenté dans ce chapitre possède une complexité en O(n³). L'algorithme de Coppersmith-Winograd (1990) possède une complexité en O(n2,376), mais n'est réellement efficace que pour de très grosses matrices.

 

Matrice : Déterminant
Matrice/Déterminant

Une page de Wikiversité.

 

Déterminant
Nuvola apps edu mathematics-p.svg
Chapitre 5
Leçon : Matrice
Chap. préc. : Produit matriciel
Chap. suiv. : Trace

Soit une matrice A=(aij) carrée d’ordre n à coefficients réels. Les vecteurs colonnes de la matrice peuvent être identifiés à des éléments de l'espace vectoriel mathbb{R}^n. Ce dernier est muni d'une base canonique.

Il est alors possible de définir le déterminant de la matrice A comme le déterminant du système de ses vecteurs colonnes relativement à la base canonique. Il est noté det(A) puisqu'il n'y a pas d'ambiguïté sur la base de référence.

Par définition même, le déterminant dépend de façon linéaire de chaque colonne, et est nul lorsque deux colonnes sont égales. Le déterminant de la matrice identité vaut un. Enfin il vérifie la formule de Leibniz

det(A)=sum_{sigma in mathfrak{S}_n}
    varepsilon(sigma) prod_{i=1}^n a_{ sigma(i),i}

Ce déterminant se note fréquemment avec des barres verticales :

det begin{bmatrix} m_{1;1} & cdots & m_{1;n}  vdots & ddots & vdots  m_{n;1} & cdots & m_{n;n} end{bmatrix} = begin{vmatrix} m_{1;1} & cdots & m_{1;n}  vdots & ddots & vdots  m_{n;1} & cdots & m_{n;n} end{vmatrix}

La présentation matricielle apporte une propriété essentielle : une matrice a même déterminant que sa transposée.

det A = det left({}^t{A}right),

Ce qui signifie que le déterminant de A se voit aussi comme le déterminant du système des vecteurs lignes, relativement à la base canonique.


 

Matrice : Trace
Matrice/Trace

Une page de Wikiversité.

 

Trace
Nuvola apps edu mathematics-p.svg
Chapitre 6
Leçon : Matrice
Chap. préc. : Déterminant
Chap. suiv. : Inverse (12)

Dans tous le chapitre, on ne traitera que des matrices carrées. Nous allons introduire la trace, qui constitue un outil de base d'étude des matrices.

Sommaire

[masquer]

[modifier] Définition

Trace d'une matrice

Soit A une matrice carrée n × n. La trace de A est la somme des éléments diagonaux de A, elle est notée :

mathrm{tr},mathbf A

Il s'agit d'une forme linéaire sur mathfrak M_nleft(mathbb K right).

 

 

Exemples

Soit la matrice :

mathbf A = begin{pmatrix} 1 & 2 & 3  4 & 5 & 6  7 & 8 & 9end{pmatrix}

Alors sa trace est :

mathrm{tr},mathbf A = 1 + 5 + 9 = 15

La trace de In est n. La trace de la matrice nulle est 0.

Nuvola apps important.svg Il s'agit bien de la diagonale qui va du coin en haut à gauche au coin en bas à droite.

[modifier] Propriétés

Propriétés

Soient A et B deux matrices carrées de même taille, si a est un nombre, alors :

  • mathrm{tr}, left( mathbf A + mathbf B right) = mathrm{tr},mathbf A + mathrm{tr},mathbf B
  • mathrm{tr}, left( a cdot mathbf A right) = a cdot mathrm{tr},mathbf A
  • mathrm{tr}, left(mathbf A cdot mathbf B right) = mathrm{tr}, left(mathbf B cdot mathbf A right)

 

 

Démonstration

Les deux premières propriétés sont immédiates. La dernière n'est pas beaucoup plus subtile :

 mathrm{tr}(mathbf A cdot mathbf B) = sum_{i=1}^n (mathbf A cdot mathbf B)_{ii} = sum_{i=1}^n sum_{j=1}^n a_{ij} cdot b_{ji} = sum_{j=1}^n sum_{i=1}^n b_{ji} cdot a_{ij} = sum_{j=1}^n (mathbf B cdot mathbf A)_{jj} = mathrm{tr}(mathbf B cdot mathbf A)

 

 

La trace est un invariant de similitude

Soit A et B deux matrices carrées, telles qu'il existe une matrice P inversible vérifiant :

mathbf A = mathbf P^{-1} mathbf B mathbf P

c'est-à-dire que A est semblable à B, alors :

mathrm{tr},mathbf A = mathrm{tr},mathbf B

 

 

Démonstration

begin{align}
                mathrm{tr}, mathbf A
                & = mathrm{tr} left( mathbf P^{-1} cdot mathbf B cdot mathbf P right)
                & = mathrm{tr} left( left( mathbf P^{-1} cdot mathbf B right) cdot left(mathbf P right) right)
                & = mathrm{tr} left( left( mathbf P right) cdot left( mathbf P^{-1} cdot mathbf B right) right)
                & = mathrm{tr} left( left( mathbf P cdot mathbf P^{-1} right) cdot mathbf B right)
                & = mathrm{tr},mathbf B
                end{align}

 

 

Propriété

Le fait que la trace soit identique pour deux matrices semblables signifie que la trace d'une matrice est une propriété intrinsèque de la matrice, peu importe la base dans laquelle on l'exprime. Elle est donc l' « empreinte », la « trace » d'une matrice.

Réciproquement, on montre que toute forme linéaire invariante par similitude est proportionnelle à la trace.

[modifier] Produit scalaire

L'utilisation de la trace permet de définir le produit scalaire canonique de mathfrak M_n left( mathbb K right) :

 

 

Produit scalaire canonique des matrices carrées

On définit le produit scalaire canonique et on note scriptstyle langle cdot, cdot rangle l'application bilinéaire :

langle cdot, cdot rangle : left( mathbf A, mathbf B right) mapsto mathrm{tr}, left( ^tmathbf A cdot mathbf Bright)

 

 

Exemple

Soient les matrices :

mathbf A = begin{pmatrix} 1 & 2  3 & 4 end{pmatrix}
mathbf B = begin{pmatrix} 2 & 3  4 & 5 end{pmatrix}

Alors leur produit scalaire vaut :

langle mathbf A, mathbf B rangle = mathrm{tr}, begin{pmatrix} 14 & 18  20 & 26 end{pmatrix} = 14 + 26 = 40

Ce produit scalaire induit une norme (la norme de Frobenius), mais cela fera l'objet d'un autre chapitre.

[modifier] Remarques

Une autre notation pour la trace est Tr.

En théorie des graphes, on peut associer à tout graphe une matrice, dite matrice d'adjacence. Si le graphe ne contient aucun sommet connecté à lui-même, alors la trace de cette matrice est nulle.

 

Matrice : Inverse
Matrice/Inverse

Une page de Wikiversité.

 

Inverse
Nuvola apps edu mathematics-p.svg
Chapitre 7
Leçon : Matrice
Chap. préc. : Trace
Chap. suiv. : Matrices particulières

Sommaire

[masquer]

[modifier] Introduction

Après avoir vu qu'il était possible de multiplier des matrices entre elles, on peut naturellement se demander s'il est possible de « diviser » par des matrices. Une telle chose n'a pas de sens rigoureux mathématiquement, et amène à la notion d'inverse, développée dans ce chapitre.

[modifier] Exemple motivant

Soit une équation simple impliquant des nombres réels :

a cdot x = b

On suppose a et b non-nuls. Alors la solution existe, elle est unique, et il s'agit de :

x = frac{b}{a} = frac{1}{a} cdot b

On cherche à trouver quelque chose d'équivalent pour les matrices, qui permettrait de résoudre les équations matricielles de même type :

mathbf A cdot mathbf X = mathbf B

[modifier] Définition

Inverse d'une matrice

Soit M une matrice carrée de taille n × n. Lorsqu'elle existe, on appelle inverse de M, et on note M⁻¹ l'unique matrice carrée de taille n × n telle que :

mathbf M cdot mathbf M^{-1} = mathbf M^{-1} cdot mathbf M = mathbf I_n


On peut remarquer, d'après les propriétés du déterminant vues dans un précédent chapitre, que :

mathrm{det}, mathbf M^{-1} cdot mathrm{det}, mathbf M= 1

Cette relation ne peut pas être vérifiée si le déterminant de M est nul. Le théorème suivant renforce cette constatation :

 

 

Existence et unicité de l'inverse

Soit une matrice carrée M. Alors M admet un unique inverse si et seulement si :

mathrm{det}, mathbf M neq 0

Alors, on a :

mathrm{det}, mathbf M^{-1} = frac{1}{mathrm{det}, mathbf M} = left(mathrm{det}, mathbf Mright)^{-1}

Une matrice dont le déterminant n'est pas nul est dite matrice inversible.

[modifier] Propriétés de l'inverse

Propriétés de l'inverse d'une matrice

  • L'inverse d'une matrice est une matrice inversible, et :
left(mathbf A^{-1}right)^{-1} = mathbf A
  • L'inverse d'une matrice A multipliée par un scalaire non-nul k donne le produit de l'inverse du scalaire et de la matrice :
left(k cdot mathbf Aright)^{-1} = k^{-1} cdot mathbf A^{-1}
  • La transposée de l'inverse est l'inverse de la transposée, et vice versa :
(^tmathbf A)^{-1} =; ^t( mathbf A^{-1})
  • Le produit de deux matrices inversibles est inversible, et l'inverse du produit est le produit des inverses. Cependant, l'ordre du produit est inversé :
left(mathbf A cdot mathbf Bright)^{-1} = mathbf B^{-1} cdot mathbf A^{-1}
Nuvola apps important.svg Attention ! Cette dernière règle est souvent négligée et source d'erreurs !

[modifier] Ensemble des matrices inversibles

Propriété

Pour toutes matrices inversibles A et B de même taille n × n, on a :

  • mathbf I_n^{-1} = mathbf I_n
  • left( mathbf A^{-1} right)^{-1} = mathbf A
  • left( mathbf A cdot mathbf B right)^{-1} = mathbf B^{-1} cdot mathbf A^{-1}

Cela fait que l'ensemble des matrices inversibles de taille n × n possède une structure de groupe multiplicatif. On l'appelle groupe général linéaire ou groupe linéaire et on le note :

mathrm{GL}_n left( mathbb K right)

Il est à noter que les matrices sont « presque toutes » inversibles (on peut donner un sens rigoureux à cela). Si on prend une matrice « au hasard », la probabilité qu'elle soit non-inversible (c'est-à-dire de déterminant exactement 0) est nulle. En physique notamment, où l'on est parfois amené à inverser des matrices de mesures, on ne se pose même pas la question !

Celà n'est vrai que lorsque l'on travaille dans R (les réels). Lorsque l'on travaille dans des ensembles plus complexes (comme par exemple Z/26Z, très courant en cryptographie), l'inversibilité d'une matrice est loin d'aller de soi.

[modifier] Calcul de l'inverse

Calculer l'inverse d'une matrice est une tâche ardue à la main dès lors qu'on aborde les matrices 3 × 3, et la difficulté croît avec la taille.

[modifier] Cas des matrices 2 × 2

Inverse d'une matrice 2 × 2

Un cas très simple (et à mémoriser) est celui des matrices de taille 2 × 2, dont l'inverse est très facile à calculer. Soit la matrice :

mathbf M = begin{pmatrix} a & b  c & d end{pmatrix} in mathrm{GL}_2 left( mathbb K right)

Alors :

mathbf M^{-1} = frac{1}{mathrm{det}, mathbf M} cdot begin{pmatrix} d & -b  -c & a end{pmatrix}.

 

 

Démonstration

La démonstration est immédiate : il suffit de faire le produit. Comme l'inverse est unique, ce calcul est suffisant.

 

 

Exemple

Soit la matrice A définie par :

mathbf A = begin{pmatrix}1 & 2  3 & 4 end{pmatrix}

Alors :

mathbf A^{-1} = - frac{1}{2} begin{pmatrix}4 & -2  -3 & 1 end{pmatrix} = begin{pmatrix} scriptstyle{-2} & +scriptstyle{1}  +frac32 & -frac12 end{pmatrix}

[modifier] Cas général

Le moyen le plus simple est d'utiliser la méthode dite du pivot de Gauss.

 

 

Exemple

Soit la matrice A définie par :

mathbf A = begin{pmatrix}1 & 2  3 & 4 end{pmatrix}

On met en face la matrice que l'on cherche a inverser et la matrice identité :

on a donc : mathbf A = begin{pmatrix}1 & 2  3 & 4 end{pmatrix} & :mathbf Id = begin{pmatrix}1 & 0  0 & 1 end{pmatrix}

On applique alors le pivot de Gauss en ligne Sur les deux matrices symétriquement jusqu'à obtenir la matrice identité a la place de A et l'on obtient la matrice A-1 a la place de la matrice identité:

 

mathbf A* = begin{pmatrix}1 & 2  0 & -2 end{pmatrix} & : mathbf Id* = begin{pmatrix}1 & 0  -3 & 1 end{pmatrix}
mathbf A* = begin{pmatrix}1 & 0  0 & -2 end{pmatrix} & : mathbf Id* = begin{pmatrix}-2 & 1  -3 & 1 end{pmatrix}
mathbf A*=Id = begin{pmatrix}1 & 0  0 & 1 end{pmatrix} & : mathbf Id*=A^{-1} = begin{pmatrix}-2 & 1  3/2 & -1/2 end{pmatrix}

 

Nuvola apps important.svg Ici les notations A* et Id* ne veulent absolument rien dire elles sont juste ici pour ce souvenir que les matrices que lui sont associées sont issus respectivement de A et Id.

[modifier] Inversion par blocs

[modifier] Interprétations

Dire qu'une matrice A est inversible équivaut à chacune des propositions suivantes :

  • A est équivalente à la matrice unité ;
  • le déterminant de A est non nul : det (A) ≠ 0,
  • le rang de A est égal à n ;
  • les colonnes de A, considérées comme des vecteurs de scriptstyle mathbb{K}^n forment une base de scriptstyle mathbb{K}^n ;

 

 

Aujourd'hui sont déjà 1 visiteurs (2 hits) Ici!
Ce site web a été créé gratuitement avec Ma-page.fr. Tu veux aussi ton propre site web ?
S'inscrire gratuitement