Algèbre - Synthèse

Page 1

- Algèbre Synthèse Gilles Goffard Etudiant en sciences de l’ingénieur Orientation ingénieur civil 28 décembre 2011


ii

Introduction Ce document a été créé pour les étudiants de 1er Bachelier Ingénieur Civil qui suivent le cours d’Algèbre Linéaire. Il a été établi sur base du syllabus de Eric J.M. Delhez. Il ne constitue en aucune façon une référence unique ou obligatoire pour l’étude du cours d’algèbre linéaire, cependant il permet de regrouper des connaissances théoriques de base afin de pouvoir plus facilement structurer la matière en vue d’une étude plus approfondie. N’utilisez donc pas uniquement cette synthèse à des fins d’études, plus que jamais dans le cours d’algèbre mais de façon générale dans les études d’ingénieur civil, il est important de faire des exercices et de savoir appliquer les connaissances. De plus, il n’y a aucune obligation d’utilisation. Cette synthèse est créée uniquement à but consultatif, gardez toujours à l’esprit le syllabus et les notes de cours.


Table des matières I

1

Tôme 1

1 Calcul Matriciel 1.1 Généralités sur les matrices . . . . . . . . . . . . 1.1.1 Définition . . . . . . . . . . . . . . . . . . 1.1.2 Opérations sur les matrices . . . . . . . . 1.1.3 Matrices spéciales . . . . . . . . . . . . . . 1.2 Opérations élémentaires . . . . . . . . . . . . . . 1.2.1 Notion de relation linéaire . . . . . . . . . 1.2.2 Opérations élémentaires . . . . . . . . . . 1.2.3 Forme échelonnée . . . . . . . . . . . . . . 1.2.4 Forme réduite échelonnée . . . . . . . . . . 1.2.5 Forme normale échelonnée . . . . . . . . . 1.2.6 Rang d’une matrice . . . . . . . . . . . . . 1.3 Déterminant d’une matrice carrée . . . . . . . . . 1.3.1 Méthode générale . . . . . . . . . . . . . . 1.3.2 Propriétés des déterminants . . . . . . . . 1.3.3 Déterminants spéciaux . . . . . . . . . . . 1.4 Trace . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Inverse d’une matrice . . . . . . . . . . . . . . . . 1.5.1 Inverses à gauche et à droite . . . . . . . . 1.5.2 Existence et unicité . . . . . . . . . . . . . 1.5.3 Déterminant de l’inverse . . . . . . . . . . 1.5.4 Démonstration de la recherche de l’inverse 1.5.5 Propriétés des inverses de matrices carrées 2 Algèbre linéaire 2.1 Espaces vectoriels . . . . . . . . . . . . . . . . . 2.1.1 Définition . . . . . . . . . . . . . . . . . 2.1.2 Sous-espace vectoriel . . . . . . . . . . . 2.1.3 Base et dimension . . . . . . . . . . . . . 2.1.4 Base et composantes d’un vecteur . . . . 2.1.5 Produit scalaire . . . . . . . . . . . . . . 2.1.6 Méthodes de calcul . . . . . . . . . . . . 2.1.7 Inégalités classiques . . . . . . . . . . . . 2.1.8 Lemme de Gram-Schmidt . . . . . . . . 2.1.9 Opérations sur les sous-espaces vectoriels 2.2 Applications linéaires . . . . . . . . . . . . . . . 2.2.1 Définition . . . . . . . . . . . . . . . . . 2.2.2 Représentation matricielle . . . . . . . . 2.2.3 Adjoint d’un opérateur . . . . . . . . . . iii

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

3 3 3 3 4 5 5 5 5 6 6 6 7 7 7 8 8 8 8 8 9 9 10

. . . . . . . . . . . . . .

11 11 11 12 12 13 13 14 14 15 16 16 16 17 18


iv

TABLE DES MATIÈRES

2.3

2.2.4 Noyau, image, rang d’une application 2.2.5 Application inverse . . . . . . . . . . Systèmes d’équations linéaires . . . . . . . . 2.3.1 Conditions & résolution . . . . . . .

linéaire . . . . . . . . . . . . . . .

3 Vecteurs propres - Valeurs propres 3.1 Définitions . . . . . . . . . . . . . . . . . . . . 3.2 Recherche des valeurs propres . . . . . . . . . 3.2.1 Vérification des valeurs propres . . . . 3.2.2 Recherche des vecteurs propres . . . . 3.2.3 Propriétés . . . . . . . . . . . . . . . . 3.3 Applications linéaires particulières . . . . . . . 3.3.1 Application normale . . . . . . . . . . 3.3.2 Application normale . . . . . . . . . . 3.3.3 Hermitienne . . . . . . . . . . . . . . . 3.3.4 Anti-hermitienne . . . . . . . . . . . . 3.3.5 Unitaire . . . . . . . . . . . . . . . . . 3.4 Changement de base . . . . . . . . . . . . . . 3.5 Diagonalisation d’une matrice . . . . . . . . . 3.5.1 Produit scalaire et changement de base 3.5.2 Matrice normale et diagonalisation . . 3.6 Formes quadratiques et hermitiennes . . . . . 3.6.1 Critère de Sylvester . . . . . . . . . . . 3.6.2 Maximum d’une forme quadratique . . 3.7 Décompositions spéciales . . . . . . . . . . . . 4 Introduction aux tenseurs cartésiens

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

18 19 19 20

. . . . . . . . . . . . . . . . . . .

23 23 23 23 24 24 24 24 24 25 25 25 25 26 27 27 27 28 28 28 29


Premi猫re partie T么me 1

1



Chapitre 1 Calcul Matriciel 1.1 1.1.1

Généralités sur les matrices Définition

Une matrice se définit par les éléments qui la constituent : 1. Addition (a) Associativité (b) Commutativité 2. Multiplication (a) Associativité (A)m×n = aij

1.1.2

Opérations sur les matrices

Soient les matrices A et B définies comme suit :  a11 a12 A = a21 a22 a31 a32  b11 b12  B = b21 b22 b31 b32

 a13 a23  a33  b13 b23  b33

Addition 

 a11 + b11 a12 + b12 a13 + b13 A + B = a21 + b21 a22 + b22 a23 + b23  a31 + b31 a32 + b32 a33 + b33 Multiplication par un scalaire 

 λa11 λa12 λa13 λA = λa21 λa22 λa23  λa31 λa32 λa33 Attention : La distribution du facteur λ s’effectue sur toutes les rangées. Lors du calcul du déterminant, la linéarité du scalaire n’est donc pas respectée. 3


4

CHAPITRE 1. CALCUL MATRICIEL

Multiplication matricielle Attention : La multiplication matricielle n’est pas commutative. A · B 6= B · A. cij =

n X m X

aik bkj

i=1 j=1

 a11 b11 + a12 b21 + a13 b31 a11 b12 + a12 b22 + a13 b32 a11 b13 + a12 b23 + a13 b33 A · B = a21 b11 + a22 b21 + a23 b31 a21 b12 + a22 b22 + a23 b32 a21 b13 + a22 b23 + a23 b33  a31 b11 + a32 b21 + a33 b31 a31 b12 + a32 b22 + a33 b32 a31 b13 + a32 b23 + a33 b33

1.1.3

Matrices spéciales A∈R

A∈C

Matrices symétriques

Matrices hermitiennes

Il y a 2 conditions pour qu’une matrice soit Il y a de nouveau 2 conditions pour qu’une symétrique : matrice A soit hermitienne : A∈R A∈C A = AT Exemple :   −1 3 −5 3 2 cos π5  −5 cos π5 4

Matrices orthogonales

A = A∗ = AT = A

T

Exemple : 

 −1 3 + i −5 3 − i 2 −i  −5 i 4 Matrices unitaires

A∈R

A∈C

AT = A−1 ⇔ AT · A = In

A∗ = A−1

AT = A−1 ⇔ AT · A = In Une matrice orthogonale est composée de vecteurs mutuellement orthogonaux. Ceux-ci La matrice unitaire est une matrice orthogopourraient former une base orthonormée nale complexe. (une fois les vecteurs mis à norme unitaire). Propriété principale : |det(A)| = 1 Matrices normales Une matrice normale commute avec son adjointe. On a : A∗ A = AA∗ Les matrices hermitiennes (symétriques) et unitaires (orthogonales) possèdent cette propriété.


1.2. OPÉRATIONS ÉLÉMENTAIRES

1.2 1.2.1

5

Opérations élémentaires Notion de relation linéaire

Dépendance linéaire Des rangées sont linéairement dépendantes si n X

λk r k = 0

k=1

∀λk 6= 0 Remarquons que dans ce cas, il est en effet possible d’exprimer rn en fonction des autres λk r. D’où le terme de dépendance linéaire. Indépendance linéaire Des rangées sont linéairement indépendantes si la seule façon d’obtenir n X

λk r k = 0

k=1

est de prendre tous les λk = 0.

1.2.2

Opérations élémentaires

1. Permutation de deux rangées 2. Multiplication d’une rangée par une constante non nulle 3. Addition aux éléments d’une rangée les éléments d’une autre rangée Ces opérations ont la particularité de ne pas modifier la dépendance linéaire des rangées, et donc les "particularités" de la matrice.

1.2.3

Forme échelonnée

Par une suite de transformations élémentaires, on peut amener une matrice à sa forme la plus simple. 1. Le premier élément non nul de chaque ligne est 1. 2. Le premiet 1 d’une ligne non nulle apparaît à droite du premier 1 de toute ligne située plus haut dans la matrice. ("Escalier") 3. Les lignes formées uniquement de 0 occupent les dernières lignes de la matrice. On peut avoir une matrice du type 

1 0  0  0 0

∗ 1 0 0 0

∗ ∗ 0 0 0

∗ ∗ 1 0 0

∗ ∗ ∗ 1 0

∗ ∗ ∗ ∗ 0

 ∗ ∗  ∗  ∗ 0


6

1.2.4

CHAPITRE 1. CALCUL MATRICIEL

Forme réduite échelonnée

La forme réduite échelonnée consiste à faire en sorte que chaque premier 1 sur les colonnes de la matrice soit le seul élément non nul de cette colonne. On arrive donc à une matrice de type :   1 ∗ 0 0 ∗ ∗ ∗ 0 0 1 0 ∗ ∗ ∗   0 0 0 1 ∗ ∗ ∗   0 0 0 0 0 0 0  0 0 0 0 0 0 0

1.2.5

Forme normale échelonnée

Cette dernière réduction consiste à intervertir des colonnes pour faire apparaitre plus clairement les dépendances linéaires qui agissent entre les colonnes. Ainsi, on aurait une matrice du type :   1 0 0 ∗ ∗ ∗ ∗ 0 1 0 0 ∗ ∗ ∗   0 0 1 0 ∗ ∗ ∗   0 0 0 0 0 0 0  0 0 0 0 0 0 0 Exemple : Soit la matrice réduite échelonnée   1 2 0 9 −14 0 0 1 −7 11    0 0 0 0 0  0 0 0 0 0 On a directement la matrice normale échelonnée suivante   1 0 2 9 −14 0 1 0 −7 11    0 0 0 0 0  0 0 0 0 0 Où les relations linéaires apparaissent :   c3 = 2c1 c4 = 9c1 − 7c2  c5 = −14c1 + 11c2

1.2.6

Rang d’une matrice

Le rang d’une matrice représente le nombre de colonnes linéairement indépendantes de cette matrice. On peut le calculer en échelonnant la matrice, ou bien par la méthode du déterminant (qui consiste à chercher le plus grand déterminant non nul de la matrice, successivement en prenant les déterminant de chaque sous matrice de dimension (n−1)×(n−1)). Une fois la matrice sous sa forme normale échelonnée, il suffit de regarder la dimension de la partie identité de cette matrice. In B ρ =n 0 0


1.3. DÉTERMINANT D’UNE MATRICE CARRÉE

1.3

7

Déterminant d’une matrice carrée

1.3.1

Méthode générale

Le déterminant d’une matrice carrée A est le nombre noté det(A), ou |A| et défini par la 1ère loi des mineurs : Le déterminant d’une matrice n × n est égal à la somme des produits des éléments d’une rangée de la matrice par les cofacteurs correspodants. On a : det A =

n X

(−1)k+1 aik mik =

n X

k=1

aik ∆ik

k=1

Où mik est le déterminant de la matrice obtenue en supprimant la ligne i et la colonne j.

1.3.2

Propriétés des déterminants

1. Si A et B sont des matrices de même dimension, det(AB) = det A det B 2. Transposée : det A = det AT 3. Complexes conjuguées, et hermitiennes det A¯ = det A∗ = det A 4. Si il existe une rangée nulle, le déterminant

0 0

a b

d e

0 a

0 c

0 e

est nul :

0

c

= 0 f

b

d

= 0 f

5. Si on multiplie une matrice par un scalaire λ, alors, son déterminant est multiplié par λ exposant la dimension de la matrice. On a donc : det(λA) = λn det A (En effet, si on applique le scalaire à la matrice, celui ci est distribué sur chaque rangée, il se retrouve donc dans chaque terme de la matrice. 6. Si on permute 2 lignes ou 2 colonnes de la matrice, le déterminant change de signe. Ainsi, il faut effectuer successivement des permutations de 2 rangées afin de permuter des rangées non-adjacentes, et appliquer les changements de signe. Exemple :

1 2 3

1 3 2 3 1 2

3 2 1

4 5 6 = − 4 6 5 = 6 4 5 = − 6 5 4

7 8 9

7 9 8 9 7 8

9 8 7


8

CHAPITRE 1. CALCUL MATRICIEL 7. Si 2 rangées de la matrice sont égales, le déterminant est nul. Par la règle précédente, on a det(A) = − det(A0 ) Où A0 est la matrice A lorsqu’on a inversé les 2 rangées identiques, on a donc A = A0 . det(A) = 0 8. Le déterminant ne varie pas si à des rangées on ajoute des combinaisons linéaires d’autres rangées.

1.3.3

Déterminants spéciaux

Matrices diagonales & triangulaires Les matrices diagonales et triangulaires possèdent un déterminant un peu spécial. En effet, on a les propriétés suivantes :

α 0 0 α ∗ ∗ α 0 0

0 β 0 = 0 β ∗ = ∗ β 0 = αβγ

0 0 γ 0 0 γ ∗ ∗ γ

1.4

Trace

La trace se définit comme : trace(A) =

n X

aii

i=1

Exemple : 

 1 4 0 trace 0 5 6 = 1 + 5 + 3 = 9 0 0 3

1.5 1.5.1

Inverse d’une matrice Inverses à gauche et à droite

Il est nécéssaire ici de définir 2 types de matrices inverses. Soit A, de dimension n × m, – L’inverse à gauche A−1 g A = In est de dimension m × n – L’inverse à droite AA−1 d = Im est également de dimension m × n

1.5.2

Existence et unicité

Une matrice carrée A peut posséder à la fois une inverse à gauche et à droite. Si elles existent, elles sont forcément égales et de même ordre que A.


1.5. INVERSE D’UNE MATRICE

1.5.3

9

Déterminant de l’inverse

Si A−1 existe, on peut définir son déterminant : det(A−1 ) det(A) = det(I) = 1 ⇔ det(A−1 ) =

1 det(A)

De cette façon, il est évident que si le déterminant de A est nul, son inverse ne peut pas exister. On définit ainsi la singularité d’une matrice. Une matrice dont le déterminant est nul est dite singulière, dans le cas contraire, on parle donc de matrice non-singulière.

1.5.4

Démonstration de la recherche de l’inverse

Une matrice A carrée possède une inverse si et seulement si elle est non-singulière. Si det(A) 6= 0, on a : 1 A−1 = ∆T det(A) Où ∆ désigne la matrice des cofacteurs de A. Rappel : Le cofacteur de l’élément aij est le déterminant de la sous-matrice obtenue en supprimant la ligne i et la colonne j. Démonstration Formons l’élément aij du produit ∆T A. On a : X X ∆kj akj (∆T A)ij = ∆T ik (A)kj = k

k

Si i = j, On obtient : (∆T A)jj =

X

∆kj akj = det(A)

k

Qui est l’expression du déterminant. Si i 6= j, considérons la matrice A0 = A dont on remplace la ie colonne par la j e de A. Cette matrice possède donc les colonnes i et j identiques. Dès lors, il est évident par les ropriétés des déterminants que son déterminant est nul. On a donc : 0 = det(A0 ) =

X k

∆0ki a0ki =

X

∆ki akj

k

Et on se trouve dans la situation de la seconde loi des mineurs. Donc, la relation A∆T = det(A)I est correcte. Seconde loi des mineurs La somme des produits des éléments d’une rangée et des cofacteurs correspondants d’une rangée parallèle est nulle quelles que soient les rangées considérées. X ∆ki akj = 0 k


10

CHAPITRE 1. CALCUL MATRICIEL

1.5.5

Propriétés des inverses de matrices carrées

1. Applications successives (A−1 )−1 = A 2. Linéarité (λA)−1 =

1 −1 A ∀λ 6= 0 λ

3. Inverse de transposée (AT )−1 = (A−1 )T 4. Inverse de conjuguée −1 A = A−1 5. Inverse d’ajointe (A∗ )−1 = A−1

6. Inverse d’un produit de matrices (ABC . . . G)−1 = G−1 . . . C −1 B −1 A−1


Chapitre 2 Algèbre linéaire 2.1

Espaces vectoriels

2.1.1

Définition

Un espace vectoriel est toute espèce mathématique qui jouit des propriétés suivantes : 1. On définit une opération d’addition entre ces vecteurs tel que : ∀a, b ∈ E, a + b ∈ E Propriétés de l’addition : (a) Commutativité a+b=b+a (b) Associativité a + (b + c) = (a + b) + c 2. On définit une opération de multiplication par un scalaire jouissant de la distributé et de l’associativité. ∀a ∈ E, ∀λ ∈ C, λa ∈ E Propriétés de la multiplication : (a) Distributivité λ(a + b) = λa + λb (λ + µ)a = λa + µa (b) Associativité λ(µa) = (λµ)a = λµa 3. Il existe un neutre tel que a+0=a 4. Admet un opposé a + (−a) = 0 5. Admet un neutre pour la multiplication. 1a = a 11


12

CHAPITRE 2. ALGÈBRE LINÉAIRE

2.1.2

Sous-espace vectoriel

Si E est un espace vectoriel, on peut définir E 0 , une partie non-vide de E. On dit alors que E 0 ⊂ E est un sous-espace vectoriel de E. Le sous-espace doit vérifier les conditions suivantes :

1. E 0 est non-vide. 2. Stabilité des opérations : a, b ∈ E 0 , λ, µ ∈ C ⇒ λa + µb ∈ E 0 Ces conditions sont nécéssaires et suffisantes car l’enveloppe linéaire constitue un sous-espace vectoriel E 0 de E. Les vecteurs a1 , a2 , a3 , . . . , an sont générateurs de E 0 . En effet, tout vecteur x ∈ E s’écrit x = λ1 a1 + λ2 a2 + λ3 a3 , . . . , λn an

2.1.3

Base et dimension

On parle de famille liée lorsque des vecteurs a1 , a2 , a3 , . . . , an sont linéairement dépendants. Au contraire, si les vecteurs a1 , a2 , a3 , . . . , an sont linéairement indépendants, on parle de famille libre. On trouve dès lors les résultats : 1. Des vecteurs parmi lesquels se trouvent 0 sont linéairement dépendants. 2. Si au moins un vecteur d’un ensemble est linéairement dépendant, tous les vecteurs de cet ensemble sont linéairement dépendants. 3. Tout sous-ensemble d’un ensemble de vecteurs linéairement indépendants ne contient lui même que des vecteurs linéairement indépendants. 4. Parmi les combinaisons linéaires de p vecteurs linéairement indépendants, on ne peut trouver au plus que p vecteurs linéairement indépendants. Base Les vecteurs qui génèrent E ne sont pas forcément linéairement indépendants. Si m d’entre eux le sont, et qu’il y a n générateurs, alors, les n − m autres vecteurs peuvent être exprimés par des combinaisons linéaires des m premiers. Ceux ci forment une base. Une base est à la fois libre et génératrice de E. Les vecteurs {e1 , e2 , e3 , . . . , en } sont appellés vecteurs de base. De plus, dans un espace de dimension finie, toutes les bases possèdent le même nombre d’éléments. Elles ne sont alors que plusieurs expressions différentes des mêmes relations. Dimension Il est donc légitime de définir la dimension dim E d’un espace E de dimension finie comme étant le nombre d’éléments d’une base quelconque de E. dim E représente donc le nombre minimum de vecteurs générateurs de E linéairement indépendants. De plus, tout sous-espace E 0 ⊂ E est lui-même de dimension finie si E est de dimension finie. On a donc : dim E 0 ≤ dim E


2.1. ESPACES VECTORIELS

2.1.4

13

Base et composantes d’un vecteur

Une base de E est une famille libre et génératrice de E. Dès lors, si x est un vecteur arbitraire de E, x peut être exprimé comme une combinaison linéaire des vecteurs de base : x = x1 e1 + x2 e2 + x3 e3 + . . . + xn xn =

n X

xi e i

i=1

On appelle les coefficients xi de la combinaison linéaire les composantes du vecteur x dans la base des ei . x est lui-même indépendant de la base. Seules les composantes du vecteur en dépendent. Base incomplète Remarquons que si une base E (dim E = n) est décrite par m < n vecteurs linéairement indépendants, la base est dite incomplète il est toujours possible de compléter celle-ci avec les n − m vecteurs manquants.

2.1.5

Produit scalaire

Le produit scalaire, pour être appellé ainsi, doit vérifier 3 propriétés : 1. Le produit scalaire est une forme hermitienne (a|b) = (b|a) 2. Le produit scalaire est une forme sesquilinéaire ! q p q p X X X X λk µl (ak |bl ) λk ak | µbl = k=1

k=1 l=1

l=1

3. Le produit scalaire est une forme définie positive (a|a) ≥ 0 L’égalité ayant lieu si a = 0. Espace euclidien Espace vectoriel de dimension finie muni d’un produit scalaire. Orthogonalité On dit que deux vecteurs sont orthogonaux si leur produit scalaire est nul. Norme euclidienne La norme euclidienne d’un vecteur a est le nombre positif donné par : p kak = (a|a) On parle de vecteur unitaire lorsque kak = 1.


14

CHAPITRE 2. ALGÈBRE LINÉAIRE

2.1.6

Méthodes de calcul

Cas général Dans un espace E, le produit scalaire de 2 vecteurs est déterminé par les produits scalaires des vecteurs de base de E. Considérons la base e01 , e02 , e03 , . . . , e0n de E. On peut fixer les nombres gij = (e0j |e0i ) (Remarquons que ces nombres peuvent former une matrice de dimension n × n. Dans la base e01 , e02 , e03 , . . . , e0n , on peut écrire 2 vecteurs quelconques a, et b : a=

n X

a0i e0i

i=1

et b=

n X

b0j e0j

j=1

Dès lors, le produit scalaire de ces 2 vecteurs vaut : ! n n n X n n X n n X n X X X X X 0 0 0 0 0 0 0 0 (a|b) = ai e i | bj ej = ai bj (ei |ej ) = ai gji bj = b0j gji a0i = b0∗ Ga0 i=1

j=1

i=1 j=1

i=1 j=1

i=1 j=1

Vu l’expression du produit scalaire, la norme euclidienne est donnée par : v v uX uX n n p √ u n X u n X 0 0 t t kak = a|a = ai gji aj = a0j gji a0i = a0∗ Ga0 i=1 j=1

i=1 j=1

Cas d’une base orthonormée Dans le cas d’une base orthonormée, on définit le delta de Kronecker : 1 si i = j gji = gij = (ei |ej ) = δij = 0 si i 6= j D’où, G devient I. Dans une base orthonormée, l’expression du produit scalaire se simplifie grandement car on ne tient pas compte du facteur gji . L’expression du produit scalaire devient : (a|b) =

n X

ai bi = b∗ a

i=1

v u n uX √ kak = t |ai |2 = a∗ a i=1

2.1.7

Inégalités classiques

Inégalité de Schwarz |(a|b)| ≤ kakkbk (Cette inégalité est vérifiée en géométrie |a · b| = kakkbk| cos(θ)| ≤ kakkbk)


2.1. ESPACES VECTORIELS

15

Inégalité triangulaire ka + bk ≤ kak + kbk Egalité du parallélogramme ka + bk2 + ka − bk2 = 2(kak2 + kbk2 )

2.1.8

Lemme de Gram-Schmidt

Cette section permet d’orthonormer des vecteurs linéairement indépendants. Ceci vise à faciliter les opérations sur les vecteurs (on l’a vu dans la section précédente, le produit scalaire est grandement simplifié par le fait de travailler dans une base orthonotmée).

Si des vecteurs x1 , x2 , x3 , . . . , xk sont linéairement indépendants, les vecteurs z1 , z2 , z3 , . . . , zk formant une base orthonormée du sous-espace vectoriel sont obtenus par : x1 kx1 k x2 − (x2 |z1 )z1 = kx2 − (x2 |z1 )z1 k .. . P xk − k−1 i=1 (xk |zi )zi = Pk−1 kxk − i=1 (xk |zi )zi k

z1 = z2

zk Démonstration

Pour z1 , il suffit de normer le vecteur x1 . Le défi ensuite est d’ajuster les vecteurs zk pour être successivement orthogonaux entre eux. Le "défi" est donc de trouver un paramètre α tel que : z02 = x2 + αx1 avec z02 ⊥ z1 . Vu la condition d’orthogonalité, et vu la définition du produit scalaire, on a : 0 = (z02 |z1 ) = (x2 + αz1 |z1 ) = (x2 |z1 ) + α(z1 |z1 ) Or, vu que z1 est unitaire, (z1 |z1 ) = 1 ⇔ α = −(x2 |z1 ) Et donc, on obtient finalement que : z02 = x2 − (x2 |z1 )x1 Qu’on peut normer simplement en prenant z2 =

x2 − (x2 |z1 )x1 kx2 − (x2 |z1 )x1 k


16

CHAPITRE 2. ALGÈBRE LINÉAIRE

En procédant successivement on obtient finalement le résultat général zk =

xk − kxk −

Pk−1 Pi=1 k−1

(xk |zi )zi

i=1 (xk |zi )zi k

Il est donc plus facile de refaire le raisonnement du théorème que d’étudier par coeur le résultat.

2.1.9

Opérations sur les sous-espaces vectoriels

Si on désigne par E1 et E2 des sous-espaces d’un espace vectoriel E de dimension finie, alors on peut introduire des opérations sur E1 et E2 permettant de définir de nouveaux sous-espaces vectoriels. 1. Intersection de E1 et E2 : E1 ∩ E2 = {x : x ∈ E1

x ∈ E2 }

ou

L’intersection constitue un sous-espace vectoriel de E. 2. Union de E1 et E2 : E1 ∪ E2 = {x : x ∈ E1

et

x ∈ E2 }

L’union, par contre, ne constitue PAS un sous-espace vectoriel de E. 3. La somme de E1 et E2 : E1 + E2 = {x1 + x2 : x ∈ E1

et

x ∈ E2 }

Quels que soient les sous-espaces vectoriels E1 et E2 d’un espace E de dimension finie, on a toujours : dim(E1 + E2 ) + dim(E1 ∩ E2 ) = dim E1 + dim E2

2.2 2.2.1

Applications linéaires Définition

Une application linéaire A est une loi qui, à tout vecteur x ∈ E associe un vecteur y tel que : y = A(x) Linéarité Pour tous les vecteurs a et b, de E, et tous scalaires λ, µ ∈ C, (λa + µb) = λA(a) + µA(b) On dit que A agit sur x et que y est son image.


2.2. APPLICATIONS LINÉAIRES

17

Propriétés 1. Distributivité externe (A + B)(x) = A(x) + B(x) 2. Associativité (λA)(x) = λA(x) 3. Nul O(x) = 0 4. Identité I(x) = x 5. Composition (A ◦ B)(x) = A(B(x)) 6. Egalité A(x) = B(x) ⇔ A = B Les 4 premières propriétés rendent compte du fait que les applications linéaires forment ellesmême un espace vectoriel linéaire. On peut également définir, comme pour les matrices, les opérateurs linéaires à gauche ou à droite. On a donc : A−1 g A = I

AA−1 g = I

et

Certaines applications possèdent une inverse. A−1 A = I

2.2.2

Représentation matricielle

Une application linéaire A(x) = y avec x ∈ E et y ∈ F est indépendante de tout choix de base. On peut introduire, cependant, des bases e1 , e2 , e3 , . . . , en dans E, et f1 , f2 , f3 , . . . , fn dans F . Dès lors, ! m n n X X X y= yi fi = A xj e j = xj A(ej ) i=1

j=1

j=1

L’image de chaque vecteur de base ej par A étant un vecteur de F , on peut déterminer ses composantes dans l’espace F selon A(ej ) =

m X

aij fi

i=1

D’où on a : y=

n X j=1

xj

m X

aij fi

i=1

Et donc, l’application est entièrement définie par les éléments aij qui sont appellés les composantes de l’opérateur linéaire A par rapport aux bases des ej et des fi . D’où la possibilité d’écrire une application linéaire sous forme de matrice A. On a, dès lors,      y1 a11 a12 . . . a1n x1  y2   a21 a22 . . . a2n   x2       A =  ..  =  .. .. ..   ..  . .  .   . . . .  .  ym am1 am2 . . . amn xn Ce qui est encore plus pratique, c’est que les applications linéaire jouissent des mêmes opérations que les matrices.


18

CHAPITRE 2. ALGÈBRE LINÉAIRE

2.2.3

Adjoint d’un opérateur

Théorème de transfert On définit l’application adjointe de A comme l’application linéaire A∗ de F dans E telle que ∀x ∈ E, ∀y ∈ F , (A(x)|y) = (x|A∗ (y)) Ceci permet de "transférer" l’opération du produit scalaire d’un espace à l’autre. De plus, (A∗ )∗ = A Et (A ◦ B)∗ = B ∗ ◦ A∗ A est normal A est hermitien A est anti-hermitien A est unitaire

2.2.4

⇔ ⇔ ⇔ ⇔

A ◦ A∗ = A∗ ◦ A A = A∗ A = −A∗ A ◦ A∗ = A∗ ◦ A = I

Noyau, image, rang d’une application linéaire

Noyau Le noyau est défini comme tous les vecteurs x de E qui, une fois A appliqué, renvoient 0. On a donc : ker A = {x ∈ E : A(x) = 0} Il suffit donc de résoudre le système  a11 a12  a21 a22   .. ..  . . am1 am2

    0 . . . a1n x1     . . . a2n   x2  0  ..   ..  =  ..  .. . .   .  . 0 . . . amn xn

Notons que le noyau d’une application linéaire est un sous-espace vectoriel de E car si x1 et x2 appartiennent au noyau, A(λx1 + µx2 ) = λA(x1 ) + µA(x2 ) = 0 Image im A = {A(x) : x ∈ E} Il s’agit encore d’un espace vectoriel. Car si y1 et y2 appartiennent à im A, toutes leurs combinaisons linéaires aussi. λy1 + µy2 = λA(x1 ) + µA(x2 ) = A(λx1 + µx2 ) Théorème du rang Si A est une application linéaire définie sur un espace E, alors dim E = dim ker A + dim im A = dim ker A + ρ(A) On a donc que la dimension de l’espace E égale la somme des dimensions des bases respectivement de l’image de A, et du noyau de cette application.


2.3. SYSTÈMES D’ÉQUATIONS LINÉAIRES

2.2.5

19

Application inverse

Inverse à gauche On peut définir une application linéaire inverse à gauche, telle que (A−1 g ◦ A)(x) = x Si, et seulement si, ρ(A) = dim E Et donc si |A| = 6 0 (ce qui ramène aux conditions matricielles). En effet, si ρ(A) = dim im A < dim E, on "créerait de l’information", puisque la dimension de l’image de A est inférieure à dim E, une fois qu’on réappliquerait A−1 g , on ne pourrait retrouver une dimension égale à l’espace de départ E. Inverse à droite On peut définir une application linéaire inverse à droite A−1 d de l’application linéaire A : E → F telle que (A ◦ Ad−1 )(y) = A(A−1 d (y)) = y Si et seulement si ρ(A) = dim F Inverse La condition nécéssaire et suffisante pour définir A−1 est que ρ(A) = dim F = dim E On dit qu’il s’agit d’une application bijective (injective & surjective).

2.3

Systèmes d’équations linéaires

Soit le système suivant :   a11 x1 + a12 x2 + a13 x3 + . . . + a1n xn      a21 x1 + a22 x2 + a23 x3 + . . . + a2n xn a31 x1 + a32 x2 + a33 x3 + . . . + a3n xn  ..   .    a x + a x + a x + ... + a x m1 1 m2 2 m3 3 mn n

= b1 = b2 = b3 .. . = bm

Ce système peut être représenté sous forme matricielle par : Ax = b m 

a11  a21   ..  .

a12 a22 .. .

a13 a23 .. .

am1 am2 am3 Où x est la matrice des inconnues.

    . . . a1n x1 b1  x 2   b2  . . . a2n      ..   ..  =  ..  ... .  .   .  . . . amn xn bm


20

CHAPITRE 2. ALGÈBRE LINÉAIRE

2.3.1

Conditions & résolution

La condition de compatibilité d’un système d’équation est : ρ([A, b]) = ρ(A) Ceci peut-être démontré par l’approche de l’algèbre linéaire pour le système. Pour résoudre le système, on utilise la méthode de Gauss-Jordan, qui consiste à construire la forme normale échelonnée de [A, b]. Lors de la permutation des colonnes pour passer à la forme normale échelonnée, les inconnues doivent également être permutées. Dès lors, on a : (avec ρ(A) = p)   0    1 0 . . . 0 a01,p+1 . . . a01n b1 x1 0 1 . . . 0 a02,p+1 . . . a02n   x2   b02  . .     .. ..  ..  . . . . . ..   ..   ..  . . . .  .   .  . .      0 0 . . . 1 a0p,p+1 . . . a0pn   xp  =  b0p      0  0 . . . 0  xp+1  bp+1  0 0 . . . 0 . . .  .   .  . . . . . ..   .. .. . . .. .. .   ..   ..  xn b0m 0 0 ... 0 0 ... 0 Si le problème possède une solution unique,  1 0 0

càd si A se réduit à  0 0 b1 1 0 b2  0 1 b3

On a alors une solution unique. Au contraire, si p = ρ(A) < n, le système est indéterminé, et on a :    0  0  0  0    −a1,p+1 −a1,p+2 −a1,n b1 x1 . . . .  .  .  .   .   ..   .  .  .   .   .     0  0  0  0    −ap,p+1  −ap,p+2  −ap,n   x p   bp            x 0 = + λ + λ + . . . + λ 1 0  p+1      1 2 n−p  0            xp+2   0   0   1   0   .  .  .   .   .   ..   ..   ..   ..   ..  xn 0 0 0 1 Cas du système homogène Considérons Ax = 0. 1. Si p = ρ(A) = n, ça veut dire qu’on obtient la matrice [Ib] après réduction sous la forme normale échélonnée. Le vecteur nul x = 0 est donc la seule solution possible. 2. Si ρ(A) < n, on obtient :    0   0   0  −a1,p+1 −a1,p+2 −a1,n x1  ..   ..   ..   ..   .   .   .   .     0   0   0  x −a −a  p   p,p+1   p,p+2  −ap,n          xp+1  = λ1  1  + λ2  0  + . . . + λn−p  0          xp+2   0   1   0   .   .   .   .   ..   ..   ..   ..  xn 0 0 1


2.3. SYSTÈMES D’ÉQUATIONS LINÉAIRES Ce qui, au final, n’est qu’un cas particulier de la méthode générale en prenant b = 0.

Conditions sur les systèmes homogènes Pour qu’un système d’équations linéaire homogène possède des solutions non triviales, il est nécéssaire et suffisant que ρ(A) < n Avec n le nombre d’inconnues.

21


22

CHAPITRE 2. ALGÈBRE LINÉAIRE


Chapitre 3 Vecteurs propres - Valeurs propres 3.1

Définitions

Soit une application linéaire A, on définit A(x) = λx Où les x sont les vecteurs propres de l’application A et les λ sont les valeurs propres. On peut également définir : – Le rayon spectral : Plus grand module des valeurs propres. – Le spectre : L’ensemble λ des valeurs propres. – L’équation caractéristique : Ax = λx.

3.2

Recherche des valeurs propres

Soit l’équation caractéristique : Ax = λx ⇔ (A − λIn )x = 0 Qui amène la solution triviale de x = 0. Cette solution ne nous intéresse pas, par contre, on peut s’intéresser à la solution (A − In ) = 0n . Ce qui est utile pour calculer les valeurs propres. On a donc le résultat suivant : λ est une valeur propre de A si |A − λIn | = 0

3.2.1

Vérification des valeurs propres n Y

λi = det(A)

i=1 n X

λi = trace(A)

i=1

23


24

CHAPITRE 3. VECTEURS PROPRES - VALEURS PROPRES

3.2.2

Recherche des vecteurs propres

Une fois les valeurs propres λ déterminées, on a : (A − λIn )x = 0 Ce qui amène une système d’équations linéaires à résoudre.

3.2.3

Propriétés

1. Les vecteurs propres sont toujours linéairement indépendants (relatifs à des λ différents). 2. Indépendance linéaire des xk : (a) λ1 (multiplicité 3) → Il y a au maximum 3 vecteurs propres indépendants. (b) λ2 (multiplicité 2) → Il y a au maximum 2 vecteurs propres indépendants. (c) λ3 (multiplicité 1) → Il y a seulement 1 vecteur propre indépendant. Le nombre total de vecteurs propres xk linéairement indépendants est ≤ n. (n = dim(A))

3.3 3.3.1

Applications linéaires particulières Application normale A∗ A = AA∗

Soit Ax = λx ⇔ (A − λIn )x = 0. ¯ A(x) = λx ⇔ A∗ (x) = λx ¯ Donc, si x est un vecteur propres de A, alors, x est aussi un vecteur propre de A∗ (relatif à λ).

3.3.2

Application normale

Démonstration Soient xi et xj tels que λi 6= λj , A(xi ) = λi xi et A(xj ) = λj xj

(xi |xj ) = (A(xi )|xj ) = (xi |A∗ (xj )) ¯ j xj = xi |λ ¯ j (xi |xj ) = −λ Et donc, les vecteurs propres sont toujours mutuellement orthogonaux.


3.4. CHANGEMENT DE BASE

3.3.3

25

Hermitienne

¯ Or, si A est hermitienne, A∗ = A et On a : Ax = λx ⇔ A∗ x = λx Ax = λx et ¯ Ax = λx Et donc, une matrice A hermitienne (ou symétrique) possède n vecteurs propres mutuellement orthogonaux, et ¯=λ∈R λ

3.3.4

Anti-hermitienne

Par le même raisonnement, on peut déterminer que A possède n vecteurs propres mutuellement orthogonaux, et des λk ∈ = imaginaires purs.

3.3.5

Unitaire A = A−1

Toute matrice unitaire est par définition normale, et donc les vecteurs propres des applications unitaires sont mutuellement orthogonaux par la première propriété. Prenons : ¯ ∗x x∗ x = x∗ A∗ Ax = λλx En effet, ¯ ∗ (Ax)∗ = (λx)∗ = λx Donc, une application unitaire jouit de la propriété suivante : ¯ = |λ|2 = 1 λλ

3.4

Changement de base

Soit x0 un vecteur dans une base, si on connait les coordonnées d’un point dans 2 bases différentes, on peut exprimer ce vecteur dans l’autre base par : x = Sx0 avec S la matrice de transformation. On peut rapprocher ce concept avec celui de changement de variable en analyse, ce qui revient à exprimer une variable selon deux systèmes de références différents. Ici le concept est le même, exprimer 2 vecteurs dans 2 bases différentes. Comme en analyse, on observe qu’une matrice de transformation est nécéssaire et décrit à elle seule le changement complet d’une base à une autre. Soit y = Ax, et y0 = A0 x0 . On a :

Où on peut exprimer :

x = Sx0 ⇔ Sy0 = ASx0 y = Sy0


26

CHAPITRE 3. VECTEURS PROPRES - VALEURS PROPRES

y = Sy0 ⇔ Ax = Sy0 ⇔ ASx0 = Sy0 Et donc : y0 = S −1 AS On appelle cette transformation transformation de similitude. Ces transformations ne modifient pas les vecteurs, mais uniquement la façon de les décrire dans des bases différentes. La nouvelle matrice obtenue est appellée la transformée. Deux matrices A et B sont dites semblables si il existe une matrice inversible S telle que B = S −1 AS. De plus, toutes les propriétés qui s’appliquent à l’application linéaire représentée par A s’appliquent à S −1 AS. La transformée possède également quelques propriétés : 1. La transformée de la matrice identité I est la matrice identité : S −1 IS = S −1 S = I 2. La transformée de A par une matrice qui commute avec A est A. 3. La transformée de l’inverse de A est l’inverse de la transformée. S −1 A−1 S = (S −1 AS)−1 4. La transformation ne change pas le déterminant de A. det(S −1 AS) = det S −1 det A det S =

1 det A det S = det A det S

5. La transformation ne change pas la trace. 6. Si B est la transformée de A par S, alors A est la transformée de B par S −1 . B = S −1 AS et A = (S −1 )−1 BS −1 7. Les transformations successives de A par des matrices S1 , S2 , . . . , Sp sont équivalentes à une transformation unique.

3.5

Diagonalisation d’une matrice

En transformant les matrices, on veut exprimer celles-ci dans la base qui leur donne l’apparence la plus simple. Le but de la diagonalisation est de déterminer la matrice de transformation nécéssaire pour transformer la matrice dans une base qui la rend diagonale. On veut donc que S −1 AS = diag(λ1 , λ2 , . . . , λn ) La condition nécéssaire et suffisante pour qu’une matrice A soit semblable à une matrice diagonale est qu’elle possède n vecteurs propres linéairement indépendants. De plus, on a AS = Sdiag(λ1 , λ2 , . . . , λn ) D’où, on peut montrer que les n vecteurs propres relatifs aux λi sont en réalité les colonnes qui constituent la matrice S. On peut en effet noter la relation précédente : Aci = λi ci Où ci est bien le vecteur propre relatif à λi .


3.6. FORMES QUADRATIQUES ET HERMITIENNES

3.5.1

27

Produit scalaire et changement de base

Le produit scalaire de deux vecteurs est indépendant de la base dans laquelle on le calcule. Il en va de même de la norme, définie par celui-ci.

3.5.2

Matrice normale et diagonalisation

Une matrice A d’ordre n est normale si et seulement si elle possède n vecteurs propres mutuellement orthogonaux. Il en va de même de l’application linéaire A représentée par A.

3.6

Formes quadratiques et hermitiennes

Définition Une forme quadratique Q est une application qui à tout vecteur réel x fait correspondre le scalaire : Q(x) = (A(x)|x) On peut également exprimer cette forme quadratique en matriciel : Q(x) = xT Ax Remarquons que seule la partie symétrique de A contribue au résultat. Si on décompose A, A=

1 1 A + AT + A − AT 2 2

Et, vu que Q(x) est un scalaire, xT Ax = xT Ax

T

= xT AT x = xT

A + AT x 2

Et donc, toute forme quadratique formée depuis une matrice anti-symétrique est nulle. Forme hermitienne On appelle Forme hermitienne une forme H(x) = (A(x)|x) Où x est un vecteur d’un espace vectoriel sur C et A est une application linéaire hermitienne définie sur cet espace vectoriel. On peut écrire cette forme hermitienne en matriciel : H(x) = x∗ Ax Positivité Une forme quadratique ou hermitienne est semi-définie positive si (A(x)|x) ≥ 0 Une forme est définie positive si et seulement si toutes ses valeurs propres λi ≥ 0. Idem pour les formes définies négatives.


28

3.6.1

CHAPITRE 3. VECTEURS PROPRES - VALEURS PROPRES

Critère de Sylvester

Une matrice A symétrique ou hermitienne d’ordre n est définie positive si et seulement si ses mineurs diagonaux principaux d’ordre k = 1, 2, . . . , n sont strictement positifs.

3.6.2

Maximum d’une forme quadratique

Les extrémas d’une forme quadratique sont en fait déterminés par les valeurs propres les plus basses/grandes. On peut démontrer que : λm ≤ Q(x) ≤ λM

3.7

Décompositions spéciales

On montre que toute matrice A d’ordre n possédant exactement n vecteurs propres linéairement indépendants peut être diagonalisée par une transformation de similitude, soit S −1 AS = diag(λ1 , λ2 , λ3 , . . . , λn ) On peut donc inversément écrire une matrice sous la forme A = SDS −1 Notons que dans le cas particulier où A est normale, les vecteurs propres peuvent être choisis orthonormés, et ainsi S est unitaire ⇔ S ∗ S = I.


Chapitre 4 Introduction aux tenseurs cartésiens Lors d’un changement de base, il existe des éléments mathématiques qui ne changent pas : Les scalaires. Ils ne dépendent pas de la base, il s’agit donc de tenseurs d’ordre 0. Les vecteurs dépendent linéairement de la base. Il s’agit donc de tenseurs d’ordre 1. Les ensembles de n2 éléments qui se transforment selon A0 = S −1 AS sont des tenseurs d’ordre 2 (Matrices). On a donc les éléments suivants Ordre 0 1 2

Element Scalaire Vecteur Matrice

29


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.