Algèbre Linéaire
Notes de cours EPFL couvrant les systèmes linéaires, l'algèbre matricielle, les déterminants, les espaces vectoriels, les valeurs propres, l'orthogonalité et les transformations affines.
Sources
- Linear Algebra and Its Applications, David C. Lay and Steven R. Lay.
Synthèse des notes du cours d’algèbre linéaire donné à l’EPFL pendant l’automne 2024.
Chap I — Équations linéaires
Systèmes linéaires
- Équation linéaire : , avec et .
- Solution : ensemble de valeurs qui respecte l’égalité après substitution.
- Deux systèmes sont équivalents s’ils ont le même ensemble de solutions.
- Inconsistant = aucune solution.
- Consistant = une ou une infinité de solutions.
- Matrice des coefficients : .
- Matrice augmentée : .
Trois opérations élémentaires sur les rangées :
- Multiplier une rangée par un scalaire non nul.
- Interchanger deux rangées.
- Remplacer une rangée par elle-même plus un multiple d’une autre.
Formes échelonnées
EF (matrice échelonnée) :
- Toutes les rangées nulles sont en dessous des rangées non nulles.
- Chaque pivot est à droite de celui de la rangée précédente.
- Toutes les entrées sous un pivot valent .
REF (matrice échelonnée réduite) :
- Chaque pivot vaut .
- Chaque pivot est la seule entrée non nulle de sa colonne.
Chaque matrice est équivalente à une EF puis à une REF.
- Position pivot = emplacement d’un pivot dans la REF.
- Colonne pivot = colonne contenant une position pivot.
- Pivot = valeur placée à cette position.
Algorithme de réduction
Pour obtenir une EF :
- Prendre comme pivot la colonne non nulle la plus à gauche.
- S’assurer que la position pivot contient une valeur non nulle.
- Utiliser les opérations élémentaires pour annuler les entrées sous le pivot.
- Ignorer la rangée du pivot et recommencer plus bas.
Pour obtenir une REF :
- En partant du pivot le plus à droite, le ramener à puis annuler les termes situés au-dessus.
Lecture des solutions sur une matrice augmentée en REF
- Une rangée de type avec implique aucune solution.
- S’il y a variables libres, il y a une infinité de solutions.
- Sinon, la solution est unique.
Vecteurs et combinaisons linéaires
- correspond géométriquement à la diagonale du parallélogramme.
- Combinaison linéaire : .
- Un vecteur peut s’écrire comme .
- est une combinaison linéaire des colonnes de si et seulement si a une solution.
- est l’ensemble de toutes les combinaisons linéaires de ces vecteurs.
Équation matricielle
- Si est de taille et , alors est défini si le nombre de colonnes de est .
- est une combinaison linéaire des colonnes de avec les composantes de comme coefficients.
Énoncés équivalents pour une matrice de taille :
- Pour tout , l’équation a une solution.
- Chaque est une combinaison linéaire des colonnes de .
- Les colonnes de engendrent .
- possède une position pivot dans chaque rangée de la matrice des coefficients.
Systèmes homogènes
- admet toujours la solution triviale .
- Il existe une solution non triviale si et seulement si le système possède au moins une variable libre.
- Un système homogène passe toujours par l’origine.
Forme paramétrique :
Cas non homogène :
où . L’ensemble des solutions est alors une droite affine parallèle à .
Algorithme pour décrire l’ensemble des solutions
- Réduire la matrice augmentée en REF.
- Repérer les variables libres.
- Écrire une solution typique en fonction de ces variables.
- Réécrire cette solution comme combinaison linéaire de vecteurs paramétriques.
Indépendance linéaire
- Un ensemble est linéairement indépendant si n’admet que la solution triviale.
- Un ensemble est dépendant si l’un des vecteurs est combinaison linéaire des autres.
- S’il y a plus de vecteurs que de composantes, l’ensemble est dépendant.
- Un ensemble contenant est dépendant.
Transformations linéaires
- Une transformation associe à un vecteur de un vecteur de .
- est le domaine de et son codomaine.
est linéaire si :
- pour tous .
- pour tout scalaire .
Conséquences :
- .
- Toute transformation linéaire est représentable par une matrice.
- Il existe une matrice unique telle que pour tout .
Surjectivité :
- Tout vecteur de est l’image d’au moins un vecteur de .
- Les colonnes de engendrent .
Injectivité :
- Tout vecteur de est l’image d’au plus un vecteur de .
- n’admet que la solution triviale.
- Les colonnes de sont linéairement indépendantes.
Transformations géométriques usuelles
Réflexions
- Axe :
- Axe :
- Droite :
- Droite :
- Origine :
Contractions et dilatations
- Horizontale : avec pour une contraction et pour une dilatation.
- Verticale : .
Cisaillements
- Horizontal : , avec vers la gauche et vers la droite.
- Vertical : , avec vers le bas et vers le haut.
Rotation
Chap II — Algèbre matricielle
Notation
- L’entrée d’une matrice s’écrit , avec pour la rangée et pour la colonne.
- Une entrée diagonale vérifie .
- Une matrice diagonale est carrée et toutes les entrées hors diagonale sont nulles.
- La somme de deux matrices n’est définie que si elles ont la même taille.
Somme et multiplication par un scalaire
Soient , , des matrices de même taille et , des scalaires :
Multiplication matricielle
- Si est de taille et de taille , alors est de taille .
- Le produit n’est défini que lorsque les dimensions intérieures coïncident.
Propriétés :
- .
- .
- .
- .
- .
- La multiplication matricielle n’est pas commutative.
Transposée
Si est de taille , alors est de taille et .
Inverse
- Une matrice carrée est invertible s’il existe une matrice telle que .
- Cette matrice est unique et s’écrit .
- Si , alors n’est pas invertible.
Pour une matrice ,
on a :
Si est inversible, alors pour tout :
Propriétés :
- Si et sont inversibles, alors
- Si est inversible, alors l’est aussi et
Matrices élémentaires
- Une matrice élémentaire s’obtient en appliquant une seule opération élémentaire à l’identité.
- Si est inversible, on peut réduire à par multiplication par des matrices élémentaires.
- Les opérations qui transforment en transforment aussi en .
Pour calculer l’inverse :
Théorème de la matrice inversible
Soit une matrice carrée de taille . Les énoncés suivants sont équivalents :
- est inversible.
- .
- possède positions pivots.
- n’a que la solution triviale.
- Les colonnes de sont linéairement indépendantes.
- L’application est injective.
- Pour tout , l’équation admet au moins une solution.
- Les colonnes de engendrent .
- L’application est surjective.
- Il existe une matrice telle que .
- Il existe une matrice telle que .
- est inversible.
- Les colonnes de forment une base de .
- .
- .
- .
- .
- .
Matrices par blocs
- Une matrice peut être partitionnée en sous-matrices.
- Une matrice block-diagonale est inversible si et seulement si chaque bloc diagonal est inversible.
Exemple :
Factorisation LU
Pour une matrice de taille , on cherche :
avec :
- triangulaire inférieure unitaire.
- la forme échelonnée de .
Si peut être réduite sans interchangeage de rangées, alors :
Coordonnées homogènes
- Elles permettent de représenter des transformations affines par des matrices.
- En projection, un objet 3D est envoyé vers un plan 2D.
- Les droites parallèles peuvent sembler converger vers un même point de fuite.
Chap III — Déterminants
Définition
Si désigne la matrice obtenue en supprimant la rangée et la colonne , alors :
- Si est triangulaire, est le produit des termes diagonaux.
Effets des opérations élémentaires
Pour une matrice carrée :
- Un remplacement de rangée ne change pas le déterminant.
- Une multiplication par un scalaire multiplie le déterminant par ce scalaire.
- Un seul interchangeage de deux rangées change le signe du déterminant.
- .
- .
Calcul pratique
Si est réduite à une forme échelonnée sans mise à l’échelle et avec interchangeages, alors :
- est inversible si et seulement si .
Déterminant et volumes
- Pour une matrice ou , la valeur représente l’aire ou le volume du parallélogramme ou parallélépipède formé par ses colonnes.
- Si est la transformation associée à , alors l’aire ou le volume est multiplié par .
Règle de Cramer
Si est la matrice obtenue en remplaçant la colonne de par , alors pour une matrice inversible :
Cofacteur :
Matrice adjointe :
et
Chap IV — Espaces vectoriels
Sous-espaces de
Un sous-espace vérifie :
- Si , alors
- Si et , alors
Espace colonne et espace nul
- Espace colonne : ensemble des vecteurs pour lesquels a une solution.
- Espace nul : ensemble des solutions de .
Pour de taille :
- est un sous-espace de .
- est un sous-espace de .
Repères utiles :
- est décrit implicitement par la condition .
- est décrit explicitement par les colonnes de .
- si et seulement si la transformation associée est injective.
- si et seulement si la transformation associée est surjective.
Base
- Une base d’un sous-espace est un ensemble linéairement indépendant qui engendre .
- Une base de est donnée par les colonnes pivots de .
Coordonnées relatives à une base
Soit une base de . Pour tout :
et
Dimension et rang
- est le nombre de vecteurs dans une base de .
- .
- = nombre de colonnes pivots.
- = nombre de variables libres dans .
Espaces vectoriels généraux
Un espace vectoriel est un ensemble non vide muni d’une addition et d’une multiplication scalaire satisfaisant les axiomes usuels :
- Fermeture pour l’addition
- Commutativité de l’addition
- Associativité de l’addition
- Existence du vecteur nul
- Existence de l’opposé
- Fermeture pour la multiplication scalaire
- Distributivité sur l’addition vectorielle
- Distributivité sur l’addition scalaire
- Compatibilité des produits de scalaires
- Élément neutre scalaire :
Si , alors est un sous-espace de .
Sous-espaces d’un espace vectoriel
Un sous-ensemble de est un sous-espace si :
- , on a
- et , on a
Indépendance linéaire dans
- Un ensemble de vecteurs est linéairement indépendant si aucun vecteur n’est combinaison linéaire des autres.
- Si est une base de , alors tout ensemble contenant plus de vecteurs que est dépendant.
- La matrice de changement de base est construite à partir des vecteurs de base.
Changement de base
Si et sont deux bases de , alors :
et
Noyau et étendue d’une transformation
Pour une transformation linéaire :
- Le noyau est l’ensemble des vecteurs tels que .
- L’étendue est l’ensemble des vecteurs de atteints par .
Chap V — Valeurs propres et vecteurs propres
Définitions
- Un scalaire est une valeur propre de s’il existe un vecteur non nul tel que .
- Un tel vecteur est un vecteur propre associé à .
- L’espace propre associé à est .
Trouver les valeurs propres
Cette équation est l’équation caractéristique de .
- Le polynôme caractéristique est .
- Les valeurs propres sont ses racines.
- La multiplicité algébrique est la multiplicité d’une racine.
- La multiplicité géométrique est .
- On a toujours : multiplicité géométrique multiplicité algébrique.
Propriétés
- Les valeurs propres d’une matrice triangulaire sont ses termes diagonaux.
- est inversible si et seulement si n’est pas valeur propre.
- Les valeurs propres de sont .
- Si est inversible, les valeurs propres de sont .
- et .
Diagonalisation
Une matrice est diagonalisable s’il existe une matrice inversible et une matrice diagonale telles que :
- Les colonnes de sont des vecteurs propres.
- Les coefficients diagonaux de sont les valeurs propres correspondantes.
est diagonalisable si et seulement si elle possède vecteurs propres linéairement indépendants.
Algorithme :
- Résoudre
- Pour chaque valeur propre, calculer une base de
- Construire avec ces vecteurs propres et avec les valeurs propres
Si possède valeurs propres distinctes, alors elle est diagonalisable.
Valeurs propres complexes
Pour une matrice réelle admettant des valeurs propres avec :
Cela correspond à une rotation-dilatation dans .
Chap VI — Orthogonalité et moindres carrés
Produit scalaire et norme
- est unitaire si
- Normalisation :
- si
- Théorème de Pythagore : si , alors
- Inégalité de Cauchy-Schwarz :
Compléments orthogonaux
Ensembles et bases orthogonaux
- Un ensemble est orthogonal si pour
- Tout ensemble orthogonal ne contenant pas est linéairement indépendant
- Une base orthonormale est une base orthogonale formée de vecteurs unitaires
Si est une base orthogonale de , alors pour tout :
Projection orthogonale
Sur une droite :
Sur un sous-espace :
- est la meilleure approximation de dans .
Procédé de Gram-Schmidt
À partir d’une base de , on construit une base orthogonale :
Puis on normalise pour obtenir une base orthonormale :
Factorisation QR
Si les colonnes de sont linéairement indépendantes, alors :
- a pour colonnes une base orthonormale de
- est triangulaire supérieure, inversible, avec des coefficients diagonaux positifs
Moindres carrés
Quand est inconsistant, on cherche minimisant .
L’équation normale est :
- est la projection orthogonale de sur
- Si les colonnes de sont linéairement indépendantes, alors :
Via la factorisation QR :
Chap VII — Matrices symétriques et formes quadratiques
Matrices symétriques
- est symétrique si
- Les valeurs propres d’une matrice symétrique réelle sont réelles
- Les vecteurs propres associés à des valeurs propres distinctes sont orthogonaux
Diagonalisation orthogonale
Une matrice est orthogonalement diagonalisable s’il existe une matrice orthogonale et une matrice diagonale telles que :
Une matrice est orthogonale si .
Théorème spectral :
Décomposition spectrale :
Formes quadratiques
- Définie positive : pour tout
- Définie négative : pour tout
- Indéfinie : valeurs propres de signes différents
- Semi-définie positive ou négative : ou
Par changement de variable avec orthogonale :
On obtient ainsi la forme canonique sans termes croisés.
Décomposition en valeurs singulières (SVD)
Les valeurs singulières de sont les nombres :
où sont les valeurs propres de , rangées par ordre décroissant.
La décomposition s’écrit :
- est orthogonale et contient les vecteurs singuliers gauches
- est orthogonale et contient les vecteurs singuliers droits
- contient les valeurs singulières sur la diagonale
Pseudo-inverse :
Elle permet d’écrire la solution des moindres carrés :
Chap VIII — Transformations affines
Transformations affines
- Une transformation affine n’est pas linéaire sauf si
- Elle peut être représentée matriciellement grâce aux coordonnées homogènes
En 2D :
Composition
Si et , alors :
En coordonnées homogènes, cela revient à un simple produit matriciel.
Courbes de Bézier
Pour des points de contrôle :
- Cas quadratique :
- Cas cubique :
- et
Projection perspective
- Un objet 3D est projeté en 2D
- L’œil est modélisé par un centre de projection
- Les droites parallèles semblent converger vers un même point de fuite
Handwritten Notes
Embedded PDF
Handwritten EPFL linear algebra notes
You can scroll directly inside this viewer to read the handwritten notes without leaving the page.