Introduction aux matrices
Nessuna cartaLes matrices sont des tableaux rectangulaires de nombres, utilisés pour représenter des données et résoudre des systèmes d'équations linéaires. Elles offrent une méthode structurée pour manipuler des ensembles de nombres, permettant des opérations telles que l'addition, la soustraction et la multiplication. Les matrices sont fondamentales en algèbre linéaire, avec des applications dans divers domaines tels que l'informatique, l'ingénierie et la physique.
Algèbre Linéaire dans et
L'algèbre linéaire est une branche fondamentale des mathématiques qui étudie les espaces vectoriels, les transformations linéaires (applications linéaires) et les systèmes d'équations linéaires. Elle fournit des outils essentiels pour la modélisation et la résolution de problèmes dans de nombreux domaines scientifiques, notamment en chimie, en physique et en économie. Ce chapitre introduit ces concepts dans les espaces et .
I.1 Calcul Matriciel
Le calcul matriciel est au cœur de l'algèbre linéaire, offrant un moyen structuré de représenter et de manipuler des données et des transformations.
I.1.1 Notion de Matrice
Une matrice est un table au rectangulaire de nombres réels (ou complexes) organisés en lignes et en colonnes. Définition 1: Matrice à lignes et colonnesSoient et deux entiers . Une matrice est un tableau de la forme : où les sont des réels (appelés coefficients).
Convention de notation : Chaque élément est repéré par deux indices :
Le premier indice repère la ligne.
Le second indice repère la colonne.
On dit que la matrice est une matrice . L'ensemble de ces matrices est noté . Pour les matrices carrées , on utilise la notation simplifiée .
Exemples :
est une matrice (matrice ligne ou vecteur ligne).
est une matrice .
est une matrice (matrice colonne ou vecteur colonne).
Si , la matrice est dite carrée d'ordre . Par exemple, est une matrice carrée d'ordre 2.
Tout nombre réel peut être considéré comme une matrice .
La matrice nulle est celle dont tous les coefficients sont nuls. Ex: .
La matrice unité () est une matrice carrée avec des 1 sur sa diagonale principale et des 0 partout ailleurs. Ex: , .
Types de matrices carrées :
Diagonale : pour (éléments non nuls uniquement sur la diagonale). Ex: .
Triangulaire supérieure : pour (éléments nuls en dessous de la diagonale). Ex: .
Triangulaire inférieure : pour (éléments nuls au-dessus de la diagonale).
Triangulaire : Soit triangulaire supérieure, soit triangulaire inférieure. Une matrice diagonale est un cas particulier de matrice triangulaire.
Matrice de permutation :Une matrice de permutation d'ordre est une matrice carrée dont tous les coefficients sont 0, sauf un 1 sur chaque ligne et sur chaque colonne. Elle peut être vue comme une matrice identité dont on a permuté les lignes (ou colonnes). Propriétés :
Multiplier une matrice à gauche par une matrice de permutation échange ses lignes.
Multiplier une matrice à droite par une matrice de permutation échange ses colonnes.
Ceci est fondamental dans la résolution des systèmes d'équations linéaires via l'élimination de Gauss-Jordan. Exemple : La matrice est une matrice de permutation car :
Chaque ligne contient exactement un 1 et le reste est 0.
Chaque colonne contient exactement un 1 et le reste est 0.
Si et : (permutation des colonnes 2 et 3). (permutation des lignes 2 et 3).
I.1.2 Opérations sur les Matrices
Égalité de matrices :Deux matrices et de mêmes dimensions sont égales si et seulement si pour tout et . Exemple : et sont deux matrices distinctes.
Multiplication par un scalaire :Soit une matrice et . La matrice est définie par . Chaque coefficient de est multiplié par . Exemple : .
Addition de matrices :Soient et deux matrices de mêmes dimensions . Leur somme est la matrice . Les matrices doivent avoir les mêmes dimensions pour être additionnées. Exemple : et . Alors .
Produit de matrices :Soient une matrice et une matrice . Le produit est une matrice dont les coefficients sont donnés par le produit scalaire de la -ième ligne de et de la -ième colonne de : Visualisation graphique : Pour calculer , on peut placer à gauche et en haut à droite. Les dimensions de seront . Exemple : Attention : En général, . Le produit matriciel n'est pas commutatif.
Transposée d'une matrice :Soit une matrice . Sa transposée, , est la matrice obtenue en échangeant ses lignes et ses colonnes. Si , alors . Exemple : . Une matrice carrée est dite symétrique si . Ses éléments sont symétriques par rapport à la diagonale principale (). Exemple d'une matrice symétrique : .
Puissance d'une matrice :Soit une matrice carrée . La puissance de , notée , est le produit de par elle-même fois : .
Trace d'une matrice :Soit une matrice carrée d'ordre . La trace de , notée , est la somme de ses coefficients diagonaux : La trace est une forme linéaire et vérifie . Exemple : Pour , .
I.1.3 Propriétés des opérations
Propriétés de l'addition et de la multiplication par un scalaire :Soient trois matrices , deux réels et la matrice nulle .
Associativité de + :
Élément neutre de + :
Symétrique d'un élément pour + :
Commutativité de + :
Distributivité n°1 :
Distributivité n°2 :
Associativité :
Propriétés du produit matriciel (pour matrices carrées d'ordre ) :Soient trois matrices carrées d'ordre , la matrice unité et la matrice nulle.
Associativité de :
Élément neutre de :
Élément absorbant de :
Distributivité n°1 :
Distributivité n°2 :
Important : Le produit matriciel n'est généralement pas commutatif ().
I.1.4 Matrices inversibles
Une matrice carrée d'ordre est dite inversible s'il existe une matrice carrée d'ordre telle que . Cette matrice est l'inverse de et est notée . Propriété : L'inverse d'une matrice, si elle existe, est unique. Démonstration de l'unicité (par l'absurde) :Supposons qu'il existe deux inverses et pour . . Donc , ce qui prouve l'unicité.
I.2 Systèmes d'équations linéaires
Les systèmes d'équations linéaires sont des ensembles d'équations où plusieurs variables sont liées linéairement. Leur résolution est une application majeure de l'algèbre linéaire.
I.2.1 Système linéaire, système homogène et inhomogène
Un système linéaire de équations et inconnues est de la forme : Les sont les coefficients et les constituent le second membre.
Un système est homogène si tous les sont nuls. Il a toujours au moins la solution nulle ().
Un système est inhomogène si au moins un des est non nul.
Exemples :
Système homogène :
Système inhomogène :
Un système d'équations linéaires peut avoir :
Une solution unique.
Une infinité de solutions.
Aucune solution.
I.2.2 Représentation d'un système linéaire à l'aide des matrices
Un système linéaire peut être écrit sous la forme matricielle , où :
est la matrice des coefficients.
est le vecteur colonne des inconnues.
est le vecteur colonne du second membre.
Exemple : Le système a pour représentation matricielle , et , donc .
I.2.3 Matrice augmentée
La matrice augmentée est une représentation compacte d'un système linéaire, où les coefficients et les termes du second membre sont combinés en une seule matrice. Pour un système de équations à inconnues : La ligne verticale sépare la matrice des coefficients du vecteur du second membre. Cette notation simplifie la manipulation des systèmes d'équations, notamment lors de l'application de la méthode d'élimination de Gauss-Jordan. Exemple : Le système a pour matrice augmentée :
I.2.4 Méthode d'élimination de Gauss-Jordan
La méthode de Gauss-Jordan est un algorithme utilisé pour résoudre des systèmes d'équations linéaires en transformant leur matrice augmentée en une matrice échelonnée réduite. Objectif : Introduire des zéros dans la matrice (hors de la diagonale) et obtenir des pivots (1 sur la diagonale). Opérations élémentaires sur les lignes (ou équations) :
Interversion de deux lignes ().
Remplacement d'une ligne par avec (). ..
Remplacement d'une ligne par avec ().
Changement de l'ordre des inconnues (interversion de colonnes, ).
Ces manipulations transforment un système en un système équivalent (mêmes solutions) et visent à obtenir une matrice sous forme échelonnée :
Les lignes non nulles sont au-dessus des lignes nulles.
Le coefficient principal (premier élément non nul) de chaque ligne est strictement à droite de celui de la ligne précédente.
Tous les coefficients sous un coefficient principal sont nuls.
Pour la forme échelonnée réduite :
La matrice est sous forme échelonnée.
Chaque coefficient principal est 1.
Chaque colonne contenant un coefficient principal a tous ses autres éléments nuls.
Les inconnues correspondant aux pivots dans la matrice échelonnée réduite sont appelées variables de base, les autres sont des variables libres. le rang d’une matrice A est le nombre de pivots dans sa forme échelonnée réduite. : Rang (A)= nombre de pivots
Étapes de l'algorithme :
Convertir le système en matrice augmentée.
Placer un coefficient non nul (pivot) en position par permutation de lignes/colonnes si nécessaire.
Éliminer les coefficients sous en remplaçant par .
Répéter les étapes 2 et 3 pour le sous-système restant (en ignorant la première ligne et la première colonne).
Une fois la forme échelonnée obtenue (élimination de Gauss), pour obtenir l'échelonnée réduite (Gauss-Jordan), on travaille de bas en haut pour annuler les éléments au-dessus des pivots et on normalise les pivots à 1.
Exemple de résolution :Système : Matrice augmentée : Solution : . . Cas des solutions multiples ou inexistantes :
Si une ligne entière de zéros apparaît avec un second membre non nul (ex: ), il n'y a aucune solution. Ex: .
Si une ligne entière de zéros apparaît avec un second membre nul (ex: ), il y a une infinité de solutions. Ex: .
I.2.5 Application de la résolution des systèmes linéaires : recherche de l'inverse d'une matrice
La méthode de Gauss-Jordan peut être utilisée pour trouver l'inverse d'une matrice . Condition : Une matrice est inversible si et seulement si le système a une solution unique pour toute . Si est inversible, alors .
Procédure pour calculer avec la matrice augmentée :
Construire la matrice augmentée , où est la matrice identité de même dimension que .
Appliquer l'élimination de Gauss-Jordan pour réduire à la forme échelonnée réduite par lignes.
Si la partie gauche devient , alors la partie droite sera . La forme finale sera .
Si la partie gauche ne peut pas être réduite à (par exemple, si une ligne de zéros apparaît), alors n'est pas inversible.
Exemple : Calcul de l'inverse de . Matrice augmentée : Donc .
I.3 Déterminants
Le déterminant est une valeur scalaire associée à une matrice carrée. Il est crucial pour déterminer l'inversibilité d'une matrice et caractériser l'indépendance linéaire de vecteurs.
I.3.1 Définitions
Déterminant d'ordre 2 :Pour une matrice , le déterminant est . Exemple : Pour , .
Déterminant d'ordre 3 (développement par rapport à une ligne/colonne) :Pour une matrice , le déterminant peut être développé par rapport à la première ligne comme suit : Ceci peut se généraliser par la formule : , où est la matrice obtenue en supprimant la -ième ligne et la -ième colonne de . est appelé le mineur de . Les termes sont appelés cofacteurs. On peut développer le déterminant selon n'importe quelle ligne ou colonne en utilisant la matrice des signes : Exemple : Pour , en développant selon la première ligne : Il est préférable de développer selon la ligne ou la colonne qui contient le plus de zéros.
Propriétés des déterminants :Soient et des matrices carrées.
Bilinéarité (pour l'ordre 2) : Le déterminant est linéaire par rapport à chaque colonne (ou ligne) indépendamment. Ex: .
Si deux colonnes sont égales, le déterminant est nul. Ceci se généralise aux colonnes linéairement dépendantes.
Si on ajoute à une colonne un multiple d'une autre, le déterminant ne change pas. (Permet de créer des zéros). Ex: .
Si on permute deux colonnes (ou deux lignes), le déterminant change de signe.
.
. Les propriétés des colonnes sont donc aussi valables pour les lignes.
Si est triangulaire (supérieure ou inférieure) ou diagonale, est le produit des éléments de sa diagonale. Ex: .
Théorème de Binet : .
I.3.2 Application au calcul de l'inverse d'une matrice
Le déterminant est crucial pour l'inversibilité d'une matrice. Critère d'inversibilité : Une matrice carrée est inversible si et seulement si . Exemple : Pour , . Donc n'est pas inversible.
Déterminant de l'inverse : Si est inversible, alors . Démonstration : .
Formule de l'inverse utilisant la comatrice :Soit une matrice carrée d'ordre n. La comatrice (ou matrice adjointe) de , notée ou , est la matrice dont les coefficients sont les cofacteurs . Si est inversible, alors : où est la transposée de la comatrice. Exemple : Pour . , donc est inversible. Calcul de la comatrice : .
Équivalence fondamentales (matrice carrée nxn) : A est inversible : det(A) =pas 0 / rang(A) = n / A a n pivots / le système AX = 0 admet uniquement la solution X = 0 / Les colonnes de a sont linéairement indépendantes.
I.4 Espaces vectoriels et
La notion d'espace vectoriel est une abstraction des propriétés des vecteurs géométriques, permettant d'étendre ces concepts à d'autres objets mathématiques (fonctions, polynômes, matrices).
I.4.1 Introduction
Un vecteur représente une grandeur ayant une direction, un sens et une longueur (norme). Il est souvent noté ou . Sur les vecteurs, deux opérations sont définies :
L'addition : la "règle du parallélogramme". En coordonnées, .
La multiplication par un scalaire : . Ceci correspond à une homothétie.
Ces opérations possèdent des propriétés fondamentales :
L'addition est commutative : .
L'addition est associative : .
Existence d'un vecteur nul tel que .
La multiplication par un scalaire est associative : .
La multiplication par un scalaire est distributive par rapport à l'addition des vecteurs : .
La multiplication par un scalaire est distributive par rapport à l'addition des scalaires : .
.
Attention : On ne peut pas additionner des vecteurs d'origines différentes sans les ramener à une origine commune (conceptuellement, en considérant leur équipollence).
I.4.2 Structure d'espace vectoriel
Un espace vectoriel sur est un ensemble non vide muni d'une loi de composition interne (addition de vecteurs) et d'une loi de composition externe (multiplication par un scalaire) qui satisfont les huit axiomes listés ci-dessus (l'existence d'un opposé pour l'addition est le point 4). Les éléments de sont les scalaires, et ceux de sont les vecteurs. Exemple : est un espace vectoriel sur avec et l'opposé de est . De même, (et plus généralement ) est un espace vectoriel. L'ensemble des matrices forme également un espace vectoriel.
Sous-espace vectoriel :Soit un espace vectoriel sur et . est un sous-espace vectoriel de si et seulement si :
est non vide.
est stable par addition : .
est stable par multiplication par un scalaire : .
Une condition équivalente aux points 2 et 3 est : . Un sous-espace vectoriel doit toujours contenir le vecteur nul . Si un ensemble ne contient pas , ce n'est pas un sous-espace vectoriel. Exemple : est un sous-espace vectoriel de .
Non vide : car . Le vecteur nul est aussi dans .
Stabilité par addition : Si et , alors et . . On a . Donc .
Stabilité par multiplication scalaire : Si , . Alors . On a . Donc .
Contre-exemple : n'est pas un sous-espace vectoriel car ().
Combinaison linéaire :Un vecteur est une combinaison linéaire des vecteurs s'il peut s'écrire comme : où les sont les coefficients (scalaires) de la combinaison linéaire.
Indépendance linéaire :Les vecteurs sont dits linéairement indépendants (ou forment une famille libre) si la seule combinaison linéaire d'eux qui est égale au vecteur nul est celle dont tous les coefficients sont nuls : Si des vecteurs sont linéairement indépendants, aucun d'entre eux ne peut être exprimé comme combinaison linéaire des autres. Dans le cas contraire, la famille est dite liée (ou linéairement dépendante). Exemple :
Les vecteurs et de sont linéairement indépendants.
Les vecteurs et de ne sont pas linéairement indépendants car avec des coefficients non nuls.
Dimension d'un espace vectoriel :La dimension d'un espace vectoriel est le nombre maximum de vecteurs linéairement indépendants que l'on peut trouver dans . Exemple : La dimension de est 2, et celle de est 3.
I.4.3 Base d'un espace vectoriel
Une base d'un espace vectoriel est un ensemble de vecteurs linéairement indépendants dont le nombre est égal à la dimension de . Propriété fondamentale : Tout vecteur s'exprime de façon unique comme combinaison linéaire des éléments d'une base : Les coefficients sont les composantes (ou coordonnées) du vecteur dans la base . On peut les représenter par un vecteur-colonne : L'ordre des composantes dépend de l'ordre des vecteurs dans la base.
Base canonique :Une base est dite canonique lorsque, pour chaque vecteur , une seule de ses composantes vaut 1 et toutes les autres sont 0. Pour : (souvent notée ). Pour : (souvent notée ). Pour l'espace des matrices, la base canonique est l'ensemble des matrices qui ont un 1 à l'intersection de la -ième ligne et -ième colonne, et 0 partout ailleurs. Les coordonnées d'une matrice dans cette base sont ses coefficients .
Produit scalaire :Soient
Linéarité : linéaire par rapport à chaque argument. Ex: .
Commutativité : .
Orthogonalité : et sont orthogonaux.
Dans les bases canoniques de et : , dans . , dans . Notation matricielle : Si et sont des vecteurs colonnes, alors . Cet ordre est important. Exemple : Pour et , .
Norme d'un vecteur :La norme () est une mesure de la longueur d'un vecteur. Dans un espace euclidien, elle est définie par . Axiomes d'une norme :
Séparation : .
Homogénéité : pour tout scalaire .
Inégalité triangulaire : .
Dans muni d'une base orthonormée, pour : En notation matricielle : . Cette formule n'est valable que dans une base canonique ou orthonormée. Exemple : Pour , .
Vecteur normé (ou unitaire) :Un vecteur est normé si sa norme est égale à 1. Pour tout vecteur non nul , on peut lui associer un vecteur normé de même direction en le divisant par sa norme : . Cette opération est appelée normalisation. Exemple : Pour , . Le vecteur normé est .
Base orthogonale et orthonormée :Deux vecteurs non nuls sont orthogonaux si leur produit scalaire est nul. Une base est orthogonale si tous ses vecteurs sont orthogonaux deux à deux. Une base est dite orthonormée (ou orthonormale) si elle est orthogonale et si tous ses vecteurs sont normés (). Cela signifie , où est le symbole de Kronecker ( si , si ). Exemple : La base canonique de , , est orthonormée. La base est orthogonale dans (), mais pas orthonormée car les vecteurs ne sont pas normés (). Pour la rendre orthonormée, on normalise les vecteurs en divisant par leur norme : .
I.5 Applications linéaires de et
Les applications linéaires sont des fonctions entre espaces vectoriels qui "conservent" la structure d'espace vectoriel (addition et multiplication par un scalaire).
I.5.1 Définitions
Soient et deux espaces vectoriels sur . Une application est une application linéaire si :
Additivité : pour tous .
Homogénéité : pour tout et tout .
Ces deux propriétés peuvent être combinées en une seule : pour tous et tous scalaires . Conséquence immédiate : L'image du vecteur nul de est le vecteur nul de : . Si cette condition n'est pas remplie, l'application n'est pas linéaire. Exemple d'application linéaire : définie par . Exemple de non-application linéaire : définie par n'est pas linéaire car à cause du terme .
Terminologie :
Un endomorphisme est une application linéaire de vers (l'espace de départ et d'arrivée est le même).
Un isomorphisme de
I.5.2 Représentation matricielle d'une application linéaire
Toute application linéaire entre espaces vectoriels de dimension finie peut être représentée par une unique matrice une fois que des bases sont choisies pour et . Soient une base de (dim ) et une base de (dim ). L'application est entièrement déterminée par l'image des vecteurs de base de . Chaque est un vecteur de et peut être décomposé dans la base : La matrice représentative de dans les bases et , notée , est construite en plaçant les coordonnées de (exprimées dans ) en colonne . Si est un endomorphisme et les bases de départ et d'arrivée sont identiques (), on note .
Relation entre coordonnées du vecteur et son image :Si a pour coordonnées dans la base , et si a pour coordonnées dans la base , alors : Ceci se traduit par un système d'équations linéaires : Les systèmes d'équations linéaires étudiés précédemment ne sont donc rien d'autre que l'expression d'une application linéaire. Exemple : Application linéaire où et sont les bases canoniques de et . La matrice de est : .
I.5.3 Composition d'applications linéaires et matrices
Lorsque l'on compose deux applications linéaires, le résultat est aussi une application linéaire. Soient et . Soient une base de , une base de et une base de . Alors la matrice de la composition est le produit des matrices : Si et , alors .
I.5.4 Changement de base
Le changement de base est une opération essentielle pour exprimer les coordonnées d'un vecteur ou la matrice d'une application linéaire dans une nouvelle base. La matrice de passage de la base à la base , notée , est une matrice dont les colonnes sont les composantes des vecteurs de la nouvelle base exprimées dans l'ancienne base . Si sont les coordonnées d'un vecteur dans la base , et ses coordonnées dans la base , alors : L'inverse de la matrice de passage est la matrice de passage de à : . Donc : .
Changement de base pour les matrices d'applications linéaires :Soit un endomorphisme. Soient la matrice de
I.5.5 Exemples d'applications linéaires dans et
Les applications linéaires sont des transformations géométriques qui conservent les droites (elles restent des droites) et l'origine (elle reste fixe). 1. Réflexion :Réflexion par rapport à l'axe des ordonnées dans : . La matrice associée est . Réflexion par rapport à la droite dans : . La matrice associée est .
2. Homothétie :Homothétie de facteur : . La matrice est .
3. Translation :Une translation de vecteur non nul n'est pas une application linéaire car elle ne fixe pas l'origine (). . Si , alors .
4. Rotation :Rotation d'angle autour de l'origine dans (sens anti-horaire) : La matrice associée est .
Exemple détaillé: Transformation d'un carré par une application linéaireSoit et l'application linéaire associée. L'image d'un vecteur est . Le carré de sommets est transformé en un quadrilatère par .
Le carré est transformé en un quadrilatère avec les sommets . L'image d'un cercle (par exemple, inscrit dans le carré) sera une ellipse, pas un cercle, car les applications linéaires ne conservent généralement pas les formes circulaires (sauf rotations ou homothéties).
I.6 Retour sur le déterminant
Le déterminant, déjà introduit pour caractériser l'inversibilité des matrices, possède une interprétation géométrique riche et est lié aux applications multilinéaires alternées.
I.6.1 Définitions
Une application multilinéaire de degré est une fonction qui est linéaire par rapport à chacune de ses variables lorsque les autres sont fixées. Une application multilinéaire est antisymétrique (ou alternée) si elle change de signe lorsqu'on échange deux de ses arguments : Le déterminant de vecteurs de , noté , est l'unique application multilinéaire alternée telle que (où est la base canonique).
I.6.2 Déterminant de vecteurs
Le déterminant mesure le "volume orienté" du parallélépipède formé par les vecteurs colonnes (ou lignes) de la matrice.
En dimension 2 : est l'aire orientée du parallélogramme formé par
En dimension 3 : est le volume orienté du parallélépipède formé par
En dimension : C'est une généralisation du concept de "volume" à dimensions.
Exemple : L'aire du parallélogramme engendré par et est unités d'aire.
I.6.3 Propriétés du Déterminant
Les propriétés précédemment vues pour les déterminants des matrices carrées s'appliquent ici et sont directement liées aux propriétés des fonctions multilinéaires alternées :
Si deux vecteurs colonnes sont identiques, le déterminant est nul.
Si les vecteurs colonnes sont linéairement dépendants, le déterminant est nul. / Pour une matrice carrée A , det (A) =0 , les colonnes de A sont linéairement dépendantes.
Si l'une des colonnes est le vecteur nul, le déterminant est nul.
Interprétation géométrique : Un déterminant nul signifie que les vecteurs colonnes ne "remplissent" pas l'espace de dimension , c'est-à-dire que le volume du parallélépipède qu'ils forment est nul. Ceci correspond à des vecteurs coplanaires (en 3D) ou colinéaires (en 2D). Exemple : car les deux premières colonnes sont proportionnelles. Plus exactement, la troisième colonne est égale à la première, ce qui implique que les colonnes sont linéairement dépendantes et donc le déterminant est nul. De même, car la dernière colonne est nulle. Les vecteurs forment une famille liée si leur déterminant est nul: En utilisant les propriétés des déterminants (ex: et ): Développement par rapport à la première ligne : . Le déterminant est nul, donc les vecteurs sont linéairement dépendants (la famille est liée).




Inizia un quiz
Testa le tue conoscenze con domande interattive