Jean Aboutboul
Back to Talks & Notes
Lecture Notes EPFL — Linear Algebra

Algèbre Linéaire

Notes de cours EPFL couvrant les systèmes linéaires, l'algèbre matricielle, les déterminants, les espaces vectoriels, les valeurs propres, l'orthogonalité et les transformations affines.

linear algebra matrices eigenvalues EPFL
Sources
  • Linear Algebra and Its Applications, David C. Lay and Steven R. Lay.

Synthèse des notes du cours d’algèbre linéaire donné à l’EPFL pendant l’automne 2024.

Chap I — Équations linéaires

Systèmes linéaires

  • Équation linéaire : a1x1+a2x2++anxn=ba_1 x_1 + a_2 x_2 + \cdots + a_n x_n = b, avec ai,bRa_i, b \in \mathbb{R} et nNn \in \mathbb{N}.
  • Solution : ensemble de valeurs qui respecte l’égalité après substitution.
  • Deux systèmes sont équivalents s’ils ont le même ensemble de solutions.
  • Inconsistant = aucune solution.
  • Consistant = une ou une infinité de solutions.
  • Matrice des coefficients : [a1    an][a_1 \; \cdots \; a_n].
  • Matrice augmentée : [a1    anb][a_1 \; \cdots \; a_n \mid b].

Trois opérations élémentaires sur les rangées :

  • Multiplier une rangée par un scalaire non nul.
  • Interchanger deux rangées.
  • Remplacer une rangée par elle-même plus un multiple d’une autre.

Formes échelonnées

EF (matrice échelonnée) :

  • Toutes les rangées nulles sont en dessous des rangées non nulles.
  • Chaque pivot est à droite de celui de la rangée précédente.
  • Toutes les entrées sous un pivot valent 00.

REF (matrice échelonnée réduite) :

  • Chaque pivot vaut 11.
  • Chaque pivot est la seule entrée non nulle de sa colonne.

Chaque matrice est équivalente à une EF puis à une REF.

  • Position pivot = emplacement d’un pivot dans la REF.
  • Colonne pivot = colonne contenant une position pivot.
  • Pivot = valeur placée à cette position.

Algorithme de réduction

Pour obtenir une EF :

  1. Prendre comme pivot la colonne non nulle la plus à gauche.
  2. S’assurer que la position pivot contient une valeur non nulle.
  3. Utiliser les opérations élémentaires pour annuler les entrées sous le pivot.
  4. Ignorer la rangée du pivot et recommencer plus bas.

Pour obtenir une REF :

  1. En partant du pivot le plus à droite, le ramener à 11 puis annuler les termes situés au-dessus.

Lecture des solutions sur une matrice augmentée en REF

  • Une rangée de type [0    0a][0 \; \cdots \; 0 \mid a] avec a0a \neq 0 implique aucune solution.
  • S’il y a cc variables libres, il y a une infinité de solutions.
  • Sinon, la solution est unique.

Vecteurs et combinaisons linéaires

v=[a1an]Rn\vec{v} = \begin{bmatrix} a_1 \\ \vdots \\ a_n \end{bmatrix} \in \mathbb{R}^n

  • u+v\vec{u} + \vec{v} correspond géométriquement à la diagonale du parallélogramme.
  • Combinaison linéaire : w=αv1+βv2\vec{w} = \alpha \vec{v}_1 + \beta \vec{v}_2.
  • Un vecteur v\vec{v} peut s’écrire comme a1x1+a2x2++anxna_1 x_1 + a_2 x_2 + \cdots + a_n x_n.
  • bb est une combinaison linéaire des colonnes de AA si et seulement si Ax=bAx = b a une solution.
  • Span{v1,,vk}\mathrm{Span}\{v_1, \ldots, v_k\} est l’ensemble de toutes les combinaisons linéaires de ces vecteurs.

Équation matricielle Ax=bAx = b

  • Si AA est de taille m×nm \times n et vRn\vec{v} \in \mathbb{R}^n, alors AvA\vec{v} est défini si le nombre de colonnes de AA est nn.
  • AvA\vec{v} est une combinaison linéaire des colonnes de AA avec les composantes de v\vec{v} comme coefficients.

Énoncés équivalents pour une matrice AA de taille m×nm \times n :

  • Pour tout bRmb \in \mathbb{R}^m, l’équation Ax=bAx = b a une solution.
  • Chaque bRmb \in \mathbb{R}^m est une combinaison linéaire des colonnes de AA.
  • Les colonnes de AA engendrent Rm\mathbb{R}^m.
  • AA possède une position pivot dans chaque rangée de la matrice des coefficients.

Systèmes homogènes

  • Ax=0Ax = 0 admet toujours la solution triviale x=0x = \vec{0}.
  • Il existe une solution non triviale si et seulement si le système possède au moins une variable libre.
  • Un système homogène passe toujours par l’origine.

Forme paramétrique :

[x]=s[u]+t[v],s,tR[\vec{x}] = s[\vec{u}] + t[\vec{v}], \quad s, t \in \mathbb{R}

Cas non homogène :

[x]=[u]+d[r][\vec{x}] = [\vec{u}] + d[\vec{r}]

Ar=0A\vec{r} = 0. L’ensemble des solutions est alors une droite affine parallèle à Nul(A)\mathrm{Nul}(A).

Algorithme pour décrire l’ensemble des solutions

  1. Réduire la matrice augmentée en REF.
  2. Repérer les variables libres.
  3. Écrire une solution typique en fonction de ces variables.
  4. Réécrire cette solution comme combinaison linéaire de vecteurs paramétriques.

Indépendance linéaire

  • Un ensemble est linéairement indépendant si Ax=0Ax = 0 n’admet que la solution triviale.
  • Un ensemble S={v1,,vp}S = \{v_1, \ldots, v_p\} est dépendant si l’un des vecteurs est combinaison linéaire des autres.
  • S’il y a plus de vecteurs que de composantes, l’ensemble est dépendant.
  • Un ensemble contenant 0\vec{0} est dépendant.

Transformations linéaires

  • Une transformation TT associe à un vecteur de Rn\mathbb{R}^n un vecteur de Rm\mathbb{R}^m.
  • Rn\mathbb{R}^n est le domaine de TT et Rm\mathbb{R}^m son codomaine.

TT est linéaire si :

  • T(u+v)=T(u)+T(v)T(\vec{u} + \vec{v}) = T(\vec{u}) + T(\vec{v}) pour tous u,v\vec{u}, \vec{v}.
  • T(cu)=cT(u)T(c\vec{u}) = cT(\vec{u}) pour tout scalaire cc.

Conséquences :

  • T(0)=0T(\vec{0}) = \vec{0}.
  • Toute transformation linéaire RnRm\mathbb{R}^n \to \mathbb{R}^m est représentable par une matrice.
  • Il existe une matrice unique AA telle que T(x)=AxT(\vec{x}) = A\vec{x} pour tout x\vec{x}.

Surjectivité :

  • Tout vecteur de Rm\mathbb{R}^m est l’image d’au moins un vecteur de Rn\mathbb{R}^n.
  • Les colonnes de AA engendrent Rm\mathbb{R}^m.

Injectivité :

  • Tout vecteur de Rm\mathbb{R}^m est l’image d’au plus un vecteur de Rn\mathbb{R}^n.
  • T(x)=0T(\vec{x}) = \vec{0} n’admet que la solution triviale.
  • Les colonnes de AA sont linéairement indépendantes.

Transformations géométriques usuelles

Réflexions

  • Axe x1x_1 : [1001]\begin{bmatrix} 1 & 0 \\ 0 & -1 \end{bmatrix}
  • Axe x2x_2 : [1001]\begin{bmatrix} -1 & 0 \\ 0 & 1 \end{bmatrix}
  • Droite x2=x1x_2 = x_1 : [0110]\begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}
  • Droite x2=x1x_2 = -x_1 : [0110]\begin{bmatrix} 0 & -1 \\ -1 & 0 \end{bmatrix}
  • Origine : [1001]\begin{bmatrix} -1 & 0 \\ 0 & -1 \end{bmatrix}

Contractions et dilatations

  • Horizontale : [k001]\begin{bmatrix} k & 0 \\ 0 & 1 \end{bmatrix} avec 0<k<10 < k < 1 pour une contraction et k>1k > 1 pour une dilatation.
  • Verticale : [100k]\begin{bmatrix} 1 & 0 \\ 0 & k \end{bmatrix}.

Cisaillements

  • Horizontal : [1k01]\begin{bmatrix} 1 & k \\ 0 & 1 \end{bmatrix}, avec k<0k < 0 vers la gauche et k>0k > 0 vers la droite.
  • Vertical : [10k1]\begin{bmatrix} 1 & 0 \\ k & 1 \end{bmatrix}, avec k<0k < 0 vers le bas et k>0k > 0 vers le haut.

Rotation

[cosθsinθsinθcosθ]\begin{bmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{bmatrix}


Chap II — Algèbre matricielle

Notation

  • L’entrée d’une matrice s’écrit aija_{ij}, avec ii pour la rangée et jj pour la colonne.
  • Une entrée diagonale vérifie i=ji = j.
  • Une matrice diagonale est carrée et toutes les entrées hors diagonale sont nulles.
  • La somme de deux matrices n’est définie que si elles ont la même taille.

Somme et multiplication par un scalaire

Soient AA, BB, CC des matrices de même taille et α\alpha, λ\lambda des scalaires :

  1. A+B=B+AA + B = B + A
  2. (A+B)+C=A+(B+C)(A + B) + C = A + (B + C)
  3. A+0=AA + 0 = A
  4. λ(A+B)=λA+λB\lambda(A + B) = \lambda A + \lambda B
  5. (α+λ)A=αA+λA(\alpha + \lambda)A = \alpha A + \lambda A
  6. λ(sA)=s(λA)\lambda(sA) = s(\lambda A)

Multiplication matricielle

  • Si AA est de taille m×nm \times n et BB de taille n×pn \times p, alors ABAB est de taille m×pm \times p.
  • Le produit n’est défini que lorsque les dimensions intérieures coïncident.

Propriétés :

  • A(BC)=(AB)CA(BC) = (AB)C.
  • A(B+C)=AB+ACA(B + C) = AB + AC.
  • (B+C)A=BA+CA(B + C)A = BA + CA.
  • λ(AB)=(λA)B=A(λB)\lambda(AB) = (\lambda A)B = A(\lambda B).
  • InA=A=AImI_n A = A = A I_m.
  • La multiplication matricielle n’est pas commutative.

Ak=AAAk,A0=IA^k = \underbrace{A \cdot A \cdots A}_{k}, \quad A^0 = I

Transposée

Si AA est de taille n×mn \times m, alors ATA^T est de taille m×nm \times n et aijT=ajia_{ij}^T = a_{ji}.

  • (AT)T=A(A^T)^T = A
  • (A+B)T=AT+BT(A + B)^T = A^T + B^T
  • (λA)T=λ(AT)(\lambda A)^T = \lambda(A^T)
  • (AB)T=BTAT(AB)^T = B^T A^T

Inverse

  • Une matrice carrée AA est invertible s’il existe une matrice CC telle que AC=CA=IAC = CA = I.
  • Cette matrice est unique et s’écrit A1A^{-1}.
  • Si detA=0\det A = 0, alors AA n’est pas invertible.

Pour une matrice 2×22 \times 2,

A=[abcd],adbc0A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}, \quad ad - bc \neq 0

on a :

A1=1adbc[dbca]A^{-1} = \frac{1}{ad - bc} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix}

Si AA est inversible, alors pour tout bRnb \in \mathbb{R}^n :

Ax=bx=A1bAx = b \Rightarrow x = A^{-1}b

Propriétés :

  • (A1)1=A(A^{-1})^{-1} = A
  • Si AA et BB sont inversibles, alors (AB)1=B1A1(AB)^{-1} = B^{-1}A^{-1}
  • Si AA est inversible, alors ATA^T l’est aussi et (A1)T=(AT)1(A^{-1})^T = (A^T)^{-1}

Matrices élémentaires

  • Une matrice élémentaire s’obtient en appliquant une seule opération élémentaire à l’identité.
  • Si AA est inversible, on peut réduire AA à II par multiplication par des matrices élémentaires.
  • Les opérations qui transforment AA en II transforment aussi II en A1A^{-1}.

Pour calculer l’inverse :

[AI][IA1][A \mid I] \sim [I \mid A^{-1}]

Théorème de la matrice inversible

Soit AA une matrice carrée de taille n×nn \times n. Les énoncés suivants sont équivalents :

  • AA est inversible.
  • AInA \sim I_n.
  • AA possède nn positions pivots.
  • Ax=0Ax = 0 n’a que la solution triviale.
  • Les colonnes de AA sont linéairement indépendantes.
  • L’application xAxx \mapsto Ax est injective.
  • Pour tout bRnb \in \mathbb{R}^n, l’équation Ax=bAx = b admet au moins une solution.
  • Les colonnes de AA engendrent Rn\mathbb{R}^n.
  • L’application xAxx \mapsto Ax est surjective.
  • Il existe une matrice CC telle que CA=InCA = I_n.
  • Il existe une matrice DD telle que AD=InAD = I_n.
  • ATA^T est inversible.
  • Les colonnes de AA forment une base de Rn\mathbb{R}^n.
  • Col(A)=Rn\mathrm{Col}(A) = \mathbb{R}^n.
  • dimCol(A)=n\dim \mathrm{Col}(A) = n.
  • rang(A)=n\mathrm{rang}(A) = n.
  • Nul(A)={0}\mathrm{Nul}(A) = \{\vec{0}\}.
  • dimNul(A)=0\dim \mathrm{Nul}(A) = 0.

Matrices par blocs

  • Une matrice peut être partitionnée en sous-matrices.
  • Une matrice block-diagonale est inversible si et seulement si chaque bloc diagonal est inversible.

Exemple :

[A1A2A3A4][B1B2]=[A1B1+A2B2A3B1+A4B2]\begin{bmatrix} A_1 & A_2 \\ A_3 & A_4 \end{bmatrix} \begin{bmatrix} B_1 \\ B_2 \end{bmatrix} = \begin{bmatrix} A_1 B_1 + A_2 B_2 \\ A_3 B_1 + A_4 B_2 \end{bmatrix}

Factorisation LU

Pour une matrice AA de taille m×nm \times n, on cherche :

A=LUA = LU

avec :

  • LL triangulaire inférieure unitaire.
  • UU la forme échelonnée de AA.

Si AA peut être réduite sans interchangeage de rangées, alors :

EpE1A=UL=(EpE1)1E_p \cdots E_1 A = U \Rightarrow L = (E_p \cdots E_1)^{-1}

Coordonnées homogènes

(x,y)R2(x,y,1)R3(x, y) \in \mathbb{R}^2 \Rightarrow (x, y, 1) \in \mathbb{R}^3

  • Elles permettent de représenter des transformations affines par des matrices.
  • En projection, un objet 3D est envoyé vers un plan 2D.
  • Les droites parallèles peuvent sembler converger vers un même point de fuite.

Chap III — Déterminants

Définition

Si AijA_{ij} désigne la matrice obtenue en supprimant la rangée ii et la colonne jj, alors :

detAj=1n(1)1+ja1jdetA1j\det A \triangleq \sum_{j=1}^{n} (-1)^{1+j} \, a_{1j} \det A_{1j}

  • Si AA est triangulaire, detA\det A est le produit des termes diagonaux.

Effets des opérations élémentaires

Pour une matrice carrée :

  • Un remplacement de rangée ne change pas le déterminant.
  • Une multiplication par un scalaire multiplie le déterminant par ce scalaire.
  • Un seul interchangeage de deux rangées change le signe du déterminant.
  • det(AT)=det(A)\det(A^T) = \det(A).
  • det(AB)=det(A)det(B)\det(AB) = \det(A)\det(B).

Calcul pratique

Si AA est réduite à une forme échelonnée UU sans mise à l’échelle et avec rr interchangeages, alors :

detA=(1)r(produit des pivots)\det A = (-1)^r \cdot (\text{produit des pivots})

  • AA est inversible si et seulement si detA0\det A \neq 0.

Déterminant et volumes

  • Pour une matrice 2×22 \times 2 ou 3×33 \times 3, la valeur detA|\det A| représente l’aire ou le volume du parallélogramme ou parallélépipède formé par ses colonnes.
  • Si TT est la transformation associée à AA, alors l’aire ou le volume est multiplié par detA|\det A|.

Règle de Cramer

Si Ai(b)A_i(b) est la matrice obtenue en remplaçant la colonne ii de AA par bb, alors pour une matrice inversible AA :

xi=detAi(b)detA,i=1,2,,nx_i = \frac{\det A_i(b)}{\det A}, \quad i = 1, 2, \ldots, n

Cofacteur :

Cij=(1)i+jdetAijC_{ij} = (-1)^{i+j}\det A_{ij}

Matrice adjointe :

adj(A)=[Cji]\mathrm{adj}(A) = [C_{ji}]

et

A1=1detAadj(A)A^{-1} = \frac{1}{\det A} \cdot \mathrm{adj}(A)


Chap IV — Espaces vectoriels

Sous-espaces de Rn\mathbb{R}^n

Un sous-espace HRnH \subseteq \mathbb{R}^n vérifie :

  1. 0H\vec{0} \in H
  2. Si u,vH\vec{u}, \vec{v} \in H, alors u+vH\vec{u} + \vec{v} \in H
  3. Si uH\vec{u} \in H et cRc \in \mathbb{R}, alors cuHc\vec{u} \in H

Espace colonne et espace nul

  • Espace colonne Col(A)\mathrm{Col}(A) : ensemble des vecteurs bb pour lesquels Ax=bAx = b a une solution.
  • Espace nul Nul(A)\mathrm{Nul}(A) : ensemble des solutions de Ax=0Ax = 0.

Pour AA de taille m×nm \times n :

  • Nul(A)\mathrm{Nul}(A) est un sous-espace de Rn\mathbb{R}^n.
  • Col(A)\mathrm{Col}(A) est un sous-espace de Rm\mathbb{R}^m.

Repères utiles :

  • Nul(A)\mathrm{Nul}(A) est décrit implicitement par la condition Ax=0Ax = 0.
  • Col(A)\mathrm{Col}(A) est décrit explicitement par les colonnes de AA.
  • Nul(A)={0}\mathrm{Nul}(A) = \{\vec{0}\} si et seulement si la transformation associée est injective.
  • Col(A)=Rm\mathrm{Col}(A) = \mathbb{R}^m si et seulement si la transformation associée est surjective.

Base

  • Une base d’un sous-espace HH est un ensemble linéairement indépendant qui engendre HH.
  • Une base de Col(A)\mathrm{Col}(A) est donnée par les colonnes pivots de AA.

Coordonnées relatives à une base

Soit B={b1,,bp}B = \{b_1, \ldots, b_p\} une base de HH. Pour tout xHx \in H :

x=c1b1++cpbpx = c_1 b_1 + \cdots + c_p b_p

et

[x]B=[c1cp]Rp[x]_B = \begin{bmatrix} c_1 \\ \vdots \\ c_p \end{bmatrix} \in \mathbb{R}^p

Dimension et rang

  • dimH\dim H est le nombre de vecteurs dans une base de HH.
  • dim{0}=0\dim \{\vec{0}\} = 0.
  • rang(A)=dim(Col(A))\mathrm{rang}(A) = \dim(\mathrm{Col}(A)) = nombre de colonnes pivots.
  • dim(Nul(A))\dim(\mathrm{Nul}(A)) = nombre de variables libres dans Ax=0Ax = 0.

rang(A)+dim(Nul(A))=npour A de taille m×n\mathrm{rang}(A) + \dim(\mathrm{Nul}(A)) = n \quad \text{pour } A \text{ de taille } m \times n

Espaces vectoriels généraux

Un espace vectoriel VV est un ensemble non vide muni d’une addition et d’une multiplication scalaire satisfaisant les axiomes usuels :

  1. Fermeture pour l’addition
  2. Commutativité de l’addition
  3. Associativité de l’addition
  4. Existence du vecteur nul
  5. Existence de l’opposé
  6. Fermeture pour la multiplication scalaire
  7. Distributivité sur l’addition vectorielle
  8. Distributivité sur l’addition scalaire
  9. Compatibilité des produits de scalaires
  10. Élément neutre scalaire : 1u=u1 \cdot u = u

Si v1,,vpVv_1, \ldots, v_p \in V, alors Span{v1,,vp}\mathrm{Span}\{v_1, \ldots, v_p\} est un sous-espace de VV.

Sous-espaces d’un espace vectoriel VV

Un sous-ensemble HH de VV est un sous-espace si :

  1. 0H\vec{0} \in H
  2. u,vH\forall u, v \in H, on a u+vHu + v \in H
  3. uH\forall u \in H et cR\forall c \in \mathbb{R}, on a cuHcu \in H

Indépendance linéaire dans VV

  • Un ensemble de vecteurs est linéairement indépendant si aucun vecteur n’est combinaison linéaire des autres.
  • Si BB est une base de VV, alors tout ensemble contenant plus de vecteurs que BB est dépendant.
  • La matrice de changement de base est construite à partir des vecteurs de base.

Changement de base

Si B={b1,,bp}B = \{b_1, \ldots, b_p\} et C={c1,,cp}C = \{c_1, \ldots, c_p\} sont deux bases de VV, alors :

[x]C=PCB[x]B[x]_C = P_{C \leftarrow B}[x]_B

et

[BC][IPCB][B \mid C] \sim [I \mid P_{C \leftarrow B}]

Noyau et étendue d’une transformation

Pour une transformation linéaire T:VWT : V \to W :

  • Le noyau est l’ensemble des vecteurs uu tels que T(u)=0T(u) = 0.
  • L’étendue est l’ensemble des vecteurs de WW atteints par TT.

Chap V — Valeurs propres et vecteurs propres

Définitions

  • Un scalaire λ\lambda est une valeur propre de AA s’il existe un vecteur non nul x\vec{x} tel que Ax=λxA\vec{x} = \lambda\vec{x}.
  • Un tel vecteur x\vec{x} est un vecteur propre associé à λ\lambda.
  • L’espace propre associé à λ\lambda est Nul(AλI)\mathrm{Nul}(A - \lambda I).

Trouver les valeurs propres

det(AλI)=0\det(A - \lambda I) = 0

Cette équation est l’équation caractéristique de AA.

  • Le polynôme caractéristique est det(AλI)\det(A - \lambda I).
  • Les valeurs propres sont ses racines.
  • La multiplicité algébrique est la multiplicité d’une racine.
  • La multiplicité géométrique est dimNul(AλI)\dim \mathrm{Nul}(A - \lambda I).
  • On a toujours : multiplicité géométrique \leq multiplicité algébrique.

Propriétés

  • Les valeurs propres d’une matrice triangulaire sont ses termes diagonaux.
  • AA est inversible si et seulement si 00 n’est pas valeur propre.
  • Les valeurs propres de AkA^k sont λk\lambda^k.
  • Si AA est inversible, les valeurs propres de A1A^{-1} sont 1/λ1/\lambda.
  • tr(A)=λi\mathrm{tr}(A) = \sum \lambda_i et det(A)=λi\det(A) = \prod \lambda_i.

Diagonalisation

Une matrice AA est diagonalisable s’il existe une matrice inversible PP et une matrice diagonale DD telles que :

A=PDP1A = PDP^{-1}

  • Les colonnes de PP sont des vecteurs propres.
  • Les coefficients diagonaux de DD sont les valeurs propres correspondantes.

AA est diagonalisable si et seulement si elle possède nn vecteurs propres linéairement indépendants.

Algorithme :

  1. Résoudre det(AλI)=0\det(A - \lambda I) = 0
  2. Pour chaque valeur propre, calculer une base de Nul(AλI)\mathrm{Nul}(A - \lambda I)
  3. Construire PP avec ces vecteurs propres et DD avec les valeurs propres

Si AA possède nn valeurs propres distinctes, alors elle est diagonalisable.

Valeurs propres complexes

Pour une matrice réelle 2×22 \times 2 admettant des valeurs propres λ=a±bi\lambda = a \pm bi avec b0b \neq 0 :

A=PCP1,C=[abba]A = PCP^{-1}, \quad C = \begin{bmatrix} a & -b \\ b & a \end{bmatrix}

Cela correspond à une rotation-dilatation dans R2\mathbb{R}^2.


Chap VI — Orthogonalité et moindres carrés

Produit scalaire et norme

uv=uTv=u1v1++unvn\vec{u} \cdot \vec{v} = \vec{u}^T \vec{v} = u_1 v_1 + \cdots + u_n v_n

  • u=uu\|\vec{u}\| = \sqrt{\vec{u} \cdot \vec{u}}
  • u\vec{u} est unitaire si u=1\|\vec{u}\| = 1
  • Normalisation : u^=u/u\hat{u} = \vec{u}/\|\vec{u}\|
  • uv\vec{u} \perp \vec{v} si uv=0\vec{u} \cdot \vec{v} = 0
  • Théorème de Pythagore : si uv\vec{u} \perp \vec{v}, alors u+v2=u2+v2\|\vec{u} + \vec{v}\|^2 = \|\vec{u}\|^2 + \|\vec{v}\|^2
  • Inégalité de Cauchy-Schwarz : uvuv|\vec{u} \cdot \vec{v}| \leq \|\vec{u}\| \|\vec{v}\|

Compléments orthogonaux

W={v:vw=0,  wW}W^\perp = \{\vec{v} : \vec{v} \cdot \vec{w} = 0, \; \forall \vec{w} \in W\}

  • (Row(A))=Nul(A)(\mathrm{Row}(A))^\perp = \mathrm{Nul}(A)
  • (Col(A))=Nul(AT)(\mathrm{Col}(A))^\perp = \mathrm{Nul}(A^T)

Ensembles et bases orthogonaux

  • Un ensemble {u1,,up}\{u_1, \ldots, u_p\} est orthogonal si uiuj=0u_i \cdot u_j = 0 pour iji \neq j
  • Tout ensemble orthogonal ne contenant pas 0\vec{0} est linéairement indépendant
  • Une base orthonormale est une base orthogonale formée de vecteurs unitaires

Si {u1,,up}\{u_1, \ldots, u_p\} est une base orthogonale de WW, alors pour tout yWy \in W :

y=yu1u1u1u1++yupupupupy = \frac{y \cdot u_1}{u_1 \cdot u_1}u_1 + \cdots + \frac{y \cdot u_p}{u_p \cdot u_p}u_p

Projection orthogonale

Sur une droite :

y^=projLy=yuuuu\hat{y} = \mathrm{proj}_L y = \frac{y \cdot u}{u \cdot u}u

Sur un sous-espace WW :

y=y^+(yy^),y^W,  (yy^)Wy = \hat{y} + (y - \hat{y}), \quad \hat{y} \in W, \; (y - \hat{y}) \in W^\perp

  • y^\hat{y} est la meilleure approximation de yy dans WW.

Procédé de Gram-Schmidt

À partir d’une base {x1,,xp}\{x_1, \ldots, x_p\} de WW, on construit une base orthogonale {v1,,vp}\{v_1, \ldots, v_p\} :

v1=x1v_1 = x_1

vk=xkj=1k1xkvjvjvjvjv_k = x_k - \sum_{j=1}^{k-1} \frac{x_k \cdot v_j}{v_j \cdot v_j}v_j

Puis on normalise pour obtenir une base orthonormale :

ek=vkvke_k = \frac{v_k}{\|v_k\|}

Factorisation QR

Si les colonnes de AA sont linéairement indépendantes, alors :

A=QRA = QR

  • QQ a pour colonnes une base orthonormale de Col(A)\mathrm{Col}(A)
  • RR est triangulaire supérieure, inversible, avec des coefficients diagonaux positifs

Moindres carrés

Quand Ax=bAx = b est inconsistant, on cherche x^\hat{x} minimisant bAx^\|b - A\hat{x}\|.

L’équation normale est :

ATAx^=ATbA^T A \hat{x} = A^T b

  • b^=Ax^\hat{b} = A\hat{x} est la projection orthogonale de bb sur Col(A)\mathrm{Col}(A)
  • Si les colonnes de AA sont linéairement indépendantes, alors :

x^=(ATA)1ATb\hat{x} = (A^T A)^{-1}A^T b

Via la factorisation QR :

Rx^=QTbR\hat{x} = Q^T b


Chap VII — Matrices symétriques et formes quadratiques

Matrices symétriques

  • AA est symétrique si AT=AA^T = A
  • Les valeurs propres d’une matrice symétrique réelle sont réelles
  • Les vecteurs propres associés à des valeurs propres distinctes sont orthogonaux

Diagonalisation orthogonale

Une matrice AA est orthogonalement diagonalisable s’il existe une matrice orthogonale PP et une matrice diagonale DD telles que :

A=PDPTA = PDP^T

Une matrice PP est orthogonale si P1=PTP^{-1} = P^T.

Théorème spectral :

A est symeˊtriqueA est orthogonalement diagonalisableA \text{ est symétrique} \Leftrightarrow A \text{ est orthogonalement diagonalisable}

Décomposition spectrale :

A=λ1u1u1T++λnununTA = \lambda_1 u_1 u_1^T + \cdots + \lambda_n u_n u_n^T

Formes quadratiques

Q(x)=xTAx,A symeˊtriqueQ(x) = x^T A x, \quad A \text{ symétrique}

  • Définie positive : Q(x)>0Q(x) > 0 pour tout x0x \neq 0
  • Définie négative : Q(x)<0Q(x) < 0 pour tout x0x \neq 0
  • Indéfinie : valeurs propres de signes différents
  • Semi-définie positive ou négative : Q(x)0Q(x) \geq 0 ou Q(x)0Q(x) \leq 0

Par changement de variable x=Pyx = Py avec PP orthogonale :

Q(x)=yTDy=λ1y12++λnyn2Q(x) = y^T D y = \lambda_1 y_1^2 + \cdots + \lambda_n y_n^2

On obtient ainsi la forme canonique sans termes croisés.

Décomposition en valeurs singulières (SVD)

Les valeurs singulières de AA sont les nombres :

σi=λi\sigma_i = \sqrt{\lambda_i}

λi\lambda_i sont les valeurs propres de ATAA^T A, rangées par ordre décroissant.

La décomposition s’écrit :

A=UΣVTA = U \Sigma V^T

  • UU est orthogonale et contient les vecteurs singuliers gauches
  • VV est orthogonale et contient les vecteurs singuliers droits
  • Σ\Sigma contient les valeurs singulières sur la diagonale

Pseudo-inverse :

A+=VΣ+UTA^+ = V \Sigma^+ U^T

Elle permet d’écrire la solution des moindres carrés :

x^=A+b\hat{x} = A^+ b


Chap VIII — Transformations affines

Transformations affines

f(x)=Ax+bf(x) = Ax + b

  • Une transformation affine n’est pas linéaire sauf si b=0b = 0
  • Elle peut être représentée matriciellement grâce aux coordonnées homogènes

En 2D :

[xy1]=[abtxcdty001][xy1]\begin{bmatrix} x' \\ y' \\ 1 \end{bmatrix} = \begin{bmatrix} a & b & t_x \\ c & d & t_y \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} x \\ y \\ 1 \end{bmatrix}

Composition

Si f(x)=A1x+b1f(x) = A_1x + b_1 et g(x)=A2x+b2g(x) = A_2x + b_2, alors :

fg:xA1(A2x+b2)+b1=A1A2x+(A1b2+b1)f \circ g : x \mapsto A_1(A_2x + b_2) + b_1 = A_1A_2x + (A_1b_2 + b_1)

En coordonnées homogènes, cela revient à un simple produit matriciel.

Courbes de Bézier

Pour des points de contrôle p0,,pnp_0, \ldots, p_n :

x(t)=k=0n(nk)(1t)nktkpk,t[0,1]\vec{x}(t) = \sum_{k=0}^{n} \binom{n}{k} (1-t)^{n-k} t^k p_k, \quad t \in [0, 1]

  • Cas quadratique : n=2n = 2
  • Cas cubique : n=3n = 3
  • x(0)=p0\vec{x}(0) = p_0 et x(1)=pn\vec{x}(1) = p_n

Projection perspective

  • Un objet 3D est projeté en 2D
  • L’œil est modélisé par un centre de projection (0,0,d)(0, 0, d)

(x,y,z)(dxz,dyz,0)\left(x, y, z\right) \mapsto \left(\frac{dx}{z}, \frac{dy}{z}, 0\right)

  • Les droites parallèles semblent converger vers un même point de fuite
Handwritten Notes

Embedded PDF

Handwritten EPFL linear algebra notes

Open full PDF

You can scroll directly inside this viewer to read the handwritten notes without leaving the page.