📌 Leçon - 6

Rappels d'Algèbre Linéaire : Vecteurs, Matrices et Opérations Fondamentales

L'algèbre linéaire est la pierre angulaire des mathématiques modernes, essentielle pour l'apprentissage automatique, la physique quantique, et l'infographie. Cette leçon couvre les concepts clés avec des démonstrations rigoureuses et des exemples pratiques.

📐 Vecteurs : L'Essence de l'Algèbre Linéaire

1 Définition Formelle des Vecteurs

🔹 1. Définition intuitive

Un vecteur est souvent vu comme une flèche dans l'espace :

  • Il a une direction,
  • Une norme (longueur),
  • Et un sens.

Exemples :

  • Le déplacement d'un objet de 3 mètres vers la droite est un vecteur.
  • Le vent soufflant à 10 km/h vers le nord-est est aussi un vecteur.

🔹 2. Définition formelle (mathématique)

Un vecteur est un élément d'un espace vectoriel.
Autrement dit, un vecteur est une liste ordonnée de scalaires (nombres réels ou complexes) qui obéissent à certaines règles d'addition et de multiplication scalaire.

🧮 Représentation Mathématique

Soit un vecteur dans l'espace ℝⁿ (espace vectoriel de dimension n), alors :

$$ \vec{v} = \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix} \quad \text{ou encore} \quad \vec{v} = (v_1, v_2, ..., v_n) $$

Chaque \(v_i\) est un scalaire réel et représente une composante du vecteur dans la direction de l'axe \(i\).

🔧 Propriétés Formelles des Vecteurs

Les vecteurs appartiennent à un espace vectoriel \(V\) sur un corps \(\mathbb{K}\) (généralement \(\mathbb{R}\) ou \(\mathbb{C}\)), ce qui signifie :

1. Addition vectorielle

Pour deux vecteurs \(\vec{u}, \vec{v} \in \mathbb{R}^n\) :

$$ \vec{u} + \vec{v} = (u_1 + v_1, u_2 + v_2, ..., u_n + v_n) $$
2. Multiplication par un scalaire

Pour un scalaire \(\lambda \in \mathbb{R}\) :

$$ \lambda \vec{v} = (\lambda v_1, \lambda v_2, ..., \lambda v_n) $$
3. Vecteur nul

Il existe un vecteur \(\vec{0} = (0, 0, ..., 0)\) tel que :

$$ \vec{v} + \vec{0} = \vec{v} $$
4. Inverse

Pour tout vecteur \(\vec{v}\), il existe \(-\vec{v}\) tel que :

$$ \vec{v} + (-\vec{v}) = \vec{0} $$

🧱 Espace Vectoriel (Structure)

Un espace vectoriel est un ensemble de vecteurs \(V\) avec deux opérations :

  • L'addition vectorielle : \(+\),
  • La multiplication par un scalaire : \(\cdot\).

Et qui respecte les 8 axiomes fondamentaux (commutativité, associativité, existence de neutre, etc.).

Cela fait des vecteurs une structure algébrique très stable et prévisible, utilisée dans des centaines de domaines.

🔎 Exemple dans ℝ³

Prenons deux vecteurs :

$$ \vec{u} = (1, 2, 3), \quad \vec{v} = (-1, 0, 2) $$

Addition :

$$ \vec{u} + \vec{v} = (1 + (-1), 2 + 0, 3 + 2) = (0, 2, 5) $$

Multiplication scalaire :

$$ 2\vec{u} = (2 \cdot 1, 2 \cdot 2, 2 \cdot 3) = (2, 4, 6) $$

🎯 Importance des Vecteurs

Les vecteurs permettent de :

  • Représenter des données (images, sons, textes sous forme de vecteurs de caractéristiques),
  • Modéliser des forces physiques, des déplacements,
  • Travailler dans l'espace à n dimensions (utile en deep learning),
  • Résoudre des systèmes linéaires, etc.

🧠 Vecteurs vs Points

Un point en géométrie (ex: \(P = (2, 3)\)) est une position.
Un vecteur (ex: \(\vec{v} = (2, 3)\)) est un déplacement depuis l'origine.
➡️ Même coordonnées, mais significations différentes.

🛠 Applications

🌐 Informatique Représentation de documents, mots, images
🎮 Jeux vidéo Position, mouvement, collisions
🧠 IA & ML Vecteurs de caractéristiques, embeddings
📐 Physique Forces, vitesses, champs
📊 Statistiques Points dans un espace multidimensionnel

✅ Conclusion

Définition formelle d'un vecteur :

Un vecteur est un élément d'un espace vectoriel, c'est-à-dire un objet mathématique sur lequel on peut faire des opérations comme l'addition et la multiplication par un scalaire, dans le respect de certaines règles.

2 Opérations Fondamentales et Structure Algébrique

←- Cliquez sur les fleches -→
Opération Définition Mathématique Propriétés Clés Exemple Visuel
Addition $$ \mathbf{u} + \mathbf{v} = \begin{pmatrix} u_1 + v_1 \\ \vdots \\ u_n + v_n \end{pmatrix} $$
  • Commutative : \(\mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u}\)
  • Associative : \((\mathbf{u} + \mathbf{v}) + \mathbf{w} = \mathbf{u} + (\mathbf{v} + \mathbf{w})\)
  • Élément neutre : \(\mathbf{0}\) tel que \(\mathbf{v} + \mathbf{0} = \mathbf{v}\)
  • Opposé : \(\forall \mathbf{v}, \exists -\mathbf{v}\) tel que \(\mathbf{v} + (-\mathbf{v}) = \mathbf{0}\)
\(\begin{pmatrix}1\\2\end{pmatrix} + \begin{pmatrix}3\\1\end{pmatrix} = \begin{pmatrix}4\\3\end{pmatrix}\)
• Règle du parallélogramme
• Somme composante par composante
• Base de la structure de groupe
Produit Scalaire $$ \mathbf{u} \cdot \mathbf{v} = \sum_{i=1}^n u_i v_i = \|\mathbf{u}\|\|\mathbf{v}\|\cos\theta $$
  • Symétrie : \(\mathbf{u} \cdot \mathbf{v} = \mathbf{v} \cdot \mathbf{u}\)
  • Bilinéaire : \(a(\mathbf{u} \cdot \mathbf{v}) = (a\mathbf{u}) \cdot \mathbf{v} = \mathbf{u} \cdot (a\mathbf{v})\)
  • Positivité : \(\mathbf{v} \cdot \mathbf{v} \geq 0\) (égalité si \(\mathbf{v} = \mathbf{0}\))
  • Orthogonalité : \(\mathbf{u} \cdot \mathbf{v} = 0 \Rightarrow \mathbf{u} \perp \mathbf{v}\)
\((1,2) \cdot (3,4) = 1×3 + 2×4 = 11\)
Normes : \(\sqrt{5}\) et \(5\)
Angle : \(\cos^{-1}(11/(\sqrt{5}×5)) ≈ 10.3°\)
Projection : \(\frac{11}{5}\) sur (3,4)
Norme (Longueur) $$ \|\mathbf{v}\| = \sqrt{\sum_{i=1}^n v_i^2} = \sqrt{\mathbf{v} \cdot \mathbf{v}} $$
  • Positivité : \(\|\mathbf{v}\| ≥ 0\) (égalité si \(\mathbf{v} = \mathbf{0}\))
  • Homogénéité : \(\|a\mathbf{v}\| = |a|\|\mathbf{v}\|\)
  • Inégalité triangulaire : \(\|\mathbf{u}+\mathbf{v}\| ≤ \|\mathbf{u}\| + \|\mathbf{v}\|\)
  • Inégalité de Cauchy-Schwarz : \(|\mathbf{u} \cdot \mathbf{v}| ≤ \|\mathbf{u}\|\|\mathbf{v}\|\)
\(\|(3,4)\| = \sqrt{3^2 + 4^2} = 5\)
Cas classique du triangle 3-4-5
Distance euclidienne standard
Produit Vectoriel (ℝ³) $$ \mathbf{u} \times \mathbf{v} = \begin{pmatrix} u_2v_3 - u_3v_2 \\ u_3v_1 - u_1v_3 \\ u_1v_2 - u_2v_1 \end{pmatrix} $$
  • Anticommutatif : \(\mathbf{u} \times \mathbf{v} = -\mathbf{v} \times \mathbf{u}\)
  • Distributif sur l'addition
  • Orthogonal à \(\mathbf{u}\) et \(\mathbf{v}\)
  • Norme : \(\|\mathbf{u} \times \mathbf{v}\| = \|\mathbf{u}\|\|\mathbf{v}\|\sin\theta\)
\((1,0,0) \times (0,1,0) = (0,0,1)\)
Base canonique orthonormée
Règle de la main droite
Produit Extérieur $$ \mathbf{u} \wedge \mathbf{v} = \mathbf{u} \otimes \mathbf{v} - \mathbf{v} \otimes \mathbf{u} $$
  • Généralisation en dimension supérieure
  • Base de l'algèbre extérieure (formes différentielles)
  • Antisymétrique : \(\mathbf{u} \wedge \mathbf{v} = -\mathbf{v} \wedge \mathbf{u}\)
  • Utilisé en géométrie différentielle
\((1,0) \wedge (0,1) = \begin{pmatrix}0&1\\-1&0\end{pmatrix}\)
Matrice antisymétrique
Aire orientée du parallélogramme
Produit Tensoriel $$ \mathbf{u} \otimes \mathbf{v} = \mathbf{u}\mathbf{v}^T = \begin{pmatrix} u_1v_1 & \cdots & u_1v_n \\ \vdots & \ddots & \vdots \\ u_nv_1 & \cdots & u_nv_n \end{pmatrix} $$
  • Crée une matrice de rang 1
  • Bilinéaire mais non commutatif
  • Base de la construction des tenseurs
  • Utilisé en mécanique quantique (\(\psi \otimes \phi\))
\((1,2) \otimes (3,4) = \begin{pmatrix}3&4\\6&8\end{pmatrix}\)
Matrice de rang 1
Produit dyadique

🧠 Insight Mathématique Profond : Structure Algébrique des Espaces Vectoriels

L'ensemble des vecteurs de ℝn muni des opérations fondamentales forme une algèbre multilinéaire riche : $$ \begin{cases} (\mathbb{R}^n, +) \text{ est un groupe abélien} \\ \cdot \text{ forme une forme bilinéaire symétrique définie positive} \\ \times \text{ (en dim 3) donne une algèbre de Lie} \\ \wedge \text{ construit l'algèbre extérieure (Grassmann)} \\ \otimes \text{ engendre l'algèbre tensorielle} \end{cases} $$ Ces structures permettent de modéliser :

  • Géométrie différentielle : formes différentielles via \(\wedge\)
  • Mécanique quantique : états composites via \(\otimes\)
  • Relativité générale : tenseurs de courbure
  • Algorithmique : produits tensoriels en apprentissage profond
Symboles Clés :
\(+\) : loi de groupe commutatif \(\cdot\) : métrique euclidienne \(\times\) : crochet de Lie en dim 3 \(\wedge\) : antisymétrisation \(\otimes\) : construction tensorielle

⚙️ Applications Pratiques des Opérations Vectorielles

Graphisme 3D

Le produit vectoriel calcule les normales aux surfaces pour l'éclairage. L'addition vectorielle déplace les objets dans l'espace.

Machine Learning

Le produit scalaire mesure les similarités (kernels). Les produits tensoriels construisent des espaces de caractéristiques.

Physique

Le produit extérieur modélise les forces en électromagnétisme (forme différentielle \(F = dA\)). Le crochet de Lie décrit les algèbres de symétrie.

🤖 Focus Intelligence Artificielle : Ce Qu'il Faut Retenir

Embeddings & Similarité
  • Le produit scalaire mesure la similarité entre vecteurs de caractéristiques (embeddings)
  • Exemple : Recherche sémantique (BERT, Word2Vec) où \(\text{similarité} = \frac{\mathbf{u} \cdot \mathbf{v}}{\|\mathbf{u}\|\|\mathbf{v}\|}\)
  • Attention mécanismes dans les transformers utilisent des produits scalaires normalisés (softmax)
À retenir : La norme des embeddings capture la "confiance" du modèle, l'angle entre vecteurs encode la similarité sémantique.
Réseaux Neuronaux & Tenseurs
  • Les produits tensoriels (\(\otimes\)) sous-tendent les opérations de réseaux neuronaux (couches fully connected)
  • Un batch de données est un tenseur de rang 3 : \(\text{batch} \times \text{features} \times \text{channels}\)
  • Backpropagation = différentiation dans les espaces tensoriels
À retenir : L'algèbre linéaire permet de paralléliser massivement les calculs sur GPU (TPUs).
Géométrie des Espaces Latents
  • Les GANs et VAEs manipulent des variétés latentes (sous-espaces non-linéaires)
  • Opérations clés :
    • Interpolation linéaire : \(z = \alpha z_1 + (1-\alpha) z_2\)
    • Navigation sémantique via additions vectorielles (ex: "roi" - "homme" + "femme" ≈ "reine")
À retenir : L'espace latent préserve souvent une structure algébrique malgré la non-linéarité des réseaux.
Cas Avancé : Attention et Produits Scalaires

Dans les transformers, le mécanisme d'attention calcule des scores via : $$ \text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V $$ où \(QK^T\) est une matrice de produits scalaires entre requêtes (Q) et clés (K). La normalisation par \(\sqrt{d_k}\) (dimension des clés) stabilise les gradients.

Self-Attention Produits Scalaires Matriciels Softmax Température

🎮 Visualisation 3D Interactive des Vecteurs

Vecteur: (2.00, -1.00, 4.00)
Longueur: 4.58

🧠 Visualisation IA des Vecteurs

Espace Vectoriel en IA
Similarité Vectorielle
# Application en Machine Learning
embedding = model.encode("intelligence artificielle")
similarity = cosine_similarity(embedding1, embedding2)
Les vecteurs capturent la sémantique en haute dimension

Cette visualisation comprend deux composants principaux :

  • Espace Vectoriel en IA :
    • Montre comment différents concepts (mots, images, profils) sont représentés comme des vecteurs
    • Trois exemples interchangeables : NLP (traitement du langage), Vision par ordinateur, et Systèmes de recommandation
    • Visualisation 2D d'espaces vectoriels de haute dimension (projection)
  • Similarité Vectorielle :
    • Illustre le calcul de similarité cosinus entre deux vecteurs
    • Montre graphiquement l'angle entre les vecteurs
    • Calcul en temps réel de la similarité

Points clés illustrés :

  • Comment l'IA utilise les vecteurs pour représenter des concepts complexes
  • L'importance des similarités vectorielles en machine learning
  • La projection d'espaces de haute dimension en 2D pour la visualisation
  • Applications concrètes dans différents domaines de l'IA

Vous pouvez interagir avec la visualisation en changeant les exemples et en calculant les similarités.

🧮 Matrices : Architectures de l'Algèbre Linéaire

2 Architectures Matricielles

🧱 1. Introduction : Pourquoi parler d'architectures ?

Une matrice, dans le monde des mathématiques, est une structure ordonnée qui contient des nombres. Mais dans le contexte de l'algèbre linéaire, elle joue un rôle architectural, c'est-à-dire qu'elle structure et organise les données, les transformations, et les systèmes complexes.

Dans l'intelligence artificielle, les réseaux de neurones sont bâtis avec des matrices. En traitement d'image, les pixels sont organisés en matrices. En physique, en économie, en robotique, dans le jeu vidéo — les matrices sont partout.

🧮 2. Définition d'une matrice

Une matrice est un tableau rectangulaire de nombres, organisé en lignes et colonnes.

$$ A = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix} $$
  • \(A\) est une matrice de taille \(m \times n\).
  • \(a_{ij}\) est l'élément situé à la ligne \(i\) et la colonne\(j\).

🧭 3. Rôle fondamental des matrices dans l'algèbre linéaire

Les matrices sont au cœur de l'algèbre linéaire car :

  1. Elles modélisent les systèmes d'équations linéaires.
  2. Elles représentent des transformations linéaires.
  3. Elles permettent de manipuler des espaces vectoriels.
⚠️ Elles servent de carte pour naviguer dans des espaces multidimensionnels.

🧠 4. Les opérations de base (briques de construction)

➤ a. Addition et soustraction de matrices

Deux matrices de même taille peuvent être ajoutées ou soustraites élément par élément.

$$ A + B = \begin{bmatrix} a_{11}+b_{11} & \cdots & a_{1n}+b_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1}+b_{m1} & \cdots & a_{mn}+b_{mn} \end{bmatrix} $$
➤ b. Multiplication par un scalaire

On multiplie chaque élément par un nombre réel \(\lambda\) :

$$ \lambda A = \begin{bmatrix} \lambda a_{11} & \cdots & \lambda a_{1n} \\ \vdots & \ddots & \vdots \\ \lambda a_{m1} & \cdots & \lambda a_{mn} \end{bmatrix} $$
➤ c. Multiplication matricielle (composition de transformations)

C'est le cœur des transformations linéaires.

Si \(A \in \mathbb{R}^{m \times n}\) et \(B \in \mathbb{R}^{n \times p}\), alors :

$$ C = AB \in \mathbb{R}^{m \times p} $$

Chaque élément $c_{ij}$ est :

$$ c_{ij} = \sum_{k=1}^{n} a_{ik} \cdot b_{kj} $$
💡 Cela correspond à une composition de fonctions ou enchaînement de transformations linéaires.

🏗️ 5. Matrices et transformations linéaires : la vraie architecture

Une transformation linéaire peut être représentée par une matrice.

Exemple :
Soit une rotation de 2D :

$$ R_\theta = \begin{bmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{bmatrix} $$

Cette matrice transforme un vecteur \(\vec{v} \in \mathbb{R}^2\) en un autre vecteur tourné dans le plan.

Une matrice est donc une machine de transformation, qui agit sur les vecteurs.

🧩 6. Matrices spéciales (composants architecturaux)

🔹 a. Matrice identité \(I\)

Elle ne transforme pas les vecteurs :

$$ I = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \quad \text{et} \quad IA = A $$
🔹 b. Matrice diagonale

Seulement les éléments de la diagonale sont non nuls.

$$ D = \begin{bmatrix} d_1 & 0 & 0 \\ 0 & d_2 & 0 \\ 0 & 0 & d_3 \end{bmatrix} $$

Elle scale chaque direction indépendamment.

🔹 c. Matrice symétrique
$$ A = A^T $$

Très utile dans l'analyse de données (ex : matrices de covariance).

🔹 d. Matrice orthogonale
$$ A^T A = I $$

Représente une transformation qui conserve les distances et les angles (ex : rotations).

🧬 7. Matrices et système d'équations linéaires

Un système linéaire :

$$ \begin{cases} 2x + 3y = 5 \\ 4x + y = 6 \end{cases} $$

Peut s'écrire :

$$ AX = B \quad \text{où} \quad A = \begin{bmatrix} 2 & 3 \\ 4 & 1 \end{bmatrix}, \quad X = \begin{bmatrix} x \\ y \end{bmatrix}, \quad B = \begin{bmatrix} 5 \\ 6 \end{bmatrix} $$

On cherche à résoudre \(X = A^{-1}B\), si \(A\) est inversible.

🔁 8. Matrice inverse

L'inverse d'une matrice \(A\), notée \(A^{-1}\), est telle que :

$$ A A^{-1} = A^{-1} A = I $$

⚠️ Seules les matrices carrées de rang maximal sont inversibles.

🔢 9. Déterminant et rang : fondations de l'architecture

➤ a. Déterminant

Le déterminant d'une matrice carrée mesure son capacité à transformer l'espace.

$$ \text{det}(A) = 0 \Rightarrow \text{pas inversible} $$
➤ b. Rang d'une matrice

Nombre maximal de lignes ou colonnes linéairement indépendantes. Il donne la dimension de l'espace image de la transformation.

🧠 10. Applications concrètes des matrices

Domaine Rôle des matrices
Intelligence Artificielle Poids des réseaux de neurones
Informatique graphique Transformations d'image 3D
Économie Modèles d'entrée-sortie de Leontief
Physique Systèmes dynamiques
Data Science Analyse de variance, PCA, clustering
Équations différentielles Systèmes couplés linéaires

📈 11. Visualisation : Matrices comme "transformateurs d'espaces"

Prenons un carré dans le plan :

$$ \vec{v_1} = \begin{bmatrix}1 \\ 0\end{bmatrix}, \quad \vec{v_2} = \begin{bmatrix}0 \\ 1\end{bmatrix} $$

Appliquons la matrice :

$$ A = \begin{bmatrix} 2 & 1 \\ 1 & 1 \end{bmatrix} $$

Les vecteurs sont étirés et déplacés. L'espace est déformé. Voilà comment une matrice transforme la géométrie d'un espace.

🧮 12. Matrices et Python (NumPy)

matrix_operations.py

import numpy as np

# 👉 Opérations matricielles avec NumPy
# --------------------------------------
A = np.array([[2, 3], [4, 1]])

# Inversion de matrice
A_inv = np.linalg.inv(A)

# Multiplication de matrice
I = A @ A_inv  # Utilisation de l'opérateur de matrice de Python

# Résolution de système linéaire
B = np.array([5, 6])
X = np.linalg.solve(A, B)

print(f"Solution vector X = {X}")
# Résultat de l'exécution:
Solution vector X = [ 1. -1.]
Python 3.10 UTF-8 Ln 10, Col 1

🔚 Conclusion : Les matrices comme langage fondamental

Les matrices sont la colonne vertébrale de l'algèbre linéaire, et l'algèbre linéaire est à son tour la langue de l'IA, du graphisme, de la physique et des systèmes complexes.

En les étudiant comme des architectures, on comprend :

  • Leur capacité à modéliser,
  • À transformer,
  • Et à résoudre des problèmes réels.

🔍 Propriétés Structurelles

Dans le domaine des matrices, les propriétés structurelles désignent les caractéristiques particulières de certaines matrices, souvent en lien avec leur forme, leur contenu, ou leur comportement sous certaines opérations. Ces propriétés sont essentielles en algèbre linéaire, en informatique, et dans de nombreuses applications scientifiques.

Trace (matrices carrées) :

$$ \mathrm{tr}(A) = \sum_{i=1}^n a_{ii} $$

Exemple : tr\(\begin{pmatrix}1&2\\3&4\end{pmatrix} = 5\)

Transposée :

$$ A^\top = (a_{ji})_{1 ≤ j ≤ n, 1 ≤ i ≤ m} $$

Exemple : \(\begin{pmatrix}1&2\\3&4\end{pmatrix}^\top = \begin{pmatrix}1&3\\2&4\end{pmatrix}\)

🔷 1. Matrice nulle

Définition :
Une matrice dont tous les éléments sont égaux à 0.
Notation : \(\mathbf{0}\)

Exemple :

$$ \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix} $$

Propriété :

  • Pour toute matrice \(A\) de taille compatible,\(A + \mathbf{0} = A\)
🔷 2. Matrice identité

Définition :
Une matrice carrée avec des 1 sur la diagonale principale et des 0 ailleurs.
Notation : \(I_n\) pour une matrice identité de taille \(n \times n\)

Exemple :

$$ I_3 = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} $$

Propriété :

  • \(A \cdot I = I \cdot A = A\)
🔷 3. Matrice diagonale

Définition :
Une matrice carrée où seuls les éléments de la diagonale principale peuvent être non nuls.

Exemple :

$$ \begin{bmatrix} 3 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -2 \end{bmatrix} $$

Propriétés :

  • Facile à inverser si aucun élément de la diagonale n'est zéro.
  • Le produit de deux matrices diagonales est aussi une matrice diagonale.
🔷 4. Matrice triangulaire
a. Triangulaire supérieure :

Tous les éléments sous la diagonale principale sont nuls.

$$ \begin{bmatrix} 2 & 3 & 1 \\ 0 & 5 & 4 \\ 0 & 0 & 7 \end{bmatrix} $$
b. Triangulaire inférieure :

Tous les éléments au-dessus de la diagonale principale sont nuls.

$$ \begin{bmatrix} 4 & 0 & 0 \\ 1 & 3 & 0 \\ 2 & 6 & 5 \end{bmatrix} $$

Propriétés :

  • Le produit de deux matrices triangulaires du même type est aussi triangulaire.
  • Le déterminant est le produit des éléments diagonaux.
🔷 5. Matrice symétrique

Définition :
Une matrice carrée telle que \(A = A^T\), c'est-à-dire égale à sa transposée.

Exemple :

$$ \begin{bmatrix} 1 & 2 & 3 \\ 2 & 4 & 5 \\ 3 & 5 & 6 \end{bmatrix} $$

Propriétés :

  • Toutes les valeurs propres d'une matrice symétrique sont réelles.
  • Elle est diagonalisable.
🔷 6. Matrice antisymétrique (ou skew-symétrique)

Définition :
Une matrice carrée telle que \(A^T = -A\)

Exemple :

$$ \begin{bmatrix} 0 & 2 & -1 \\ -2 & 0 & 4 \\ 1 & -4 & 0 \end{bmatrix} $$

Propriétés :

  • Tous les éléments diagonaux sont égaux à zéro.
  • Les coefficients symétriques par rapport à la diagonale sont opposés.
🔷 7. Matrice orthogonale

Définition :
Une matrice carrée telle que \(A^T \cdot A = I\)

Propriétés :

  • L'inverse d'une matrice orthogonale est sa transposée.
  • Elle conserve les distances (utilisée en rotation, transformations rigides...).
🔷 8. Matrice creuse (sparse matrix)

Définition :
Une matrice contenant beaucoup de zéros (typiquement > 90% de zéros).

Utilité :

  • Économie de mémoire.
  • Optimisation des calculs en mathématiques appliquées et en data science.
🔷 9. Matrice de permutation

Définition :
Une matrice obtenue à partir de l'identité en permutant ses lignes ou colonnes.

Exemple :

$$ \begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 \end{bmatrix} $$
🔷 10. Rang d'une matrice

Bien que ce ne soit pas une "forme", le rang est une propriété structurelle importante :

  • Il indique le nombre de lignes ou de colonnes linéairement indépendantes.
🔷 11. Matrice inversible

Définition :
Une matrice carrée \(A\) est inversible s'il existe une matrice \(A^{-1}\) telle que

$$ A \cdot A^{-1} = A^{-1} \cdot A = I $$

Condition :

  • Le déterminant de \(A\) est non nul.
  • Le rang de \(A\) est égal à sa dimension.
🔷 12. Matrice échelonnée

Définition :
Forme obtenue en réduisant une matrice avec la méthode de Gauss.
Utile pour :

  • Résolution de systèmes d'équations
  • Détermination du rang
  • Inversion
Résumé illustré :
Propriété Type de matrice Exemple clé
Nulle Tous les éléments à 0 \(\mathbf{0}_{n \times m}\)
Identité Diagonale de 1 \(I_n\)
Diagonale Non-zéros seulement sur diagonale
Triangulaire sup/inf 0 en dessous / au-dessus
Symétrique \(A = A^T\)
Antisymétrique \(A^T = -A\)
Orthogonale \(A^T A = I\)
Inversible \(A^{-1}\) existe \(\det(A) \ne 0\)

2 Produit Matriciel : Mécanisme et Applications

Formalisme Mathématique

Pour \( A ∈ 𝓜_{m,p}(ℝ) \) et \( B ∈ 𝓜_{p,n}(ℝ) \), le produit \( AB ∈ 𝓜_{m,n}(ℝ) \) est défini par : $$ (AB)_{ij} = \sum_{k=1}^p a_{ik}b_{kj} \quad \text{(produit ligne-colonne)} $$ Condition essentielle : Nombre de colonnes de A = Nombre de lignes de B

🧩 Exemple Pas à Pas :
$$ \begin{pmatrix} \color{blue}1 & \color{blue}2 \\ \color{blue}3 & \color{blue}4 \end{pmatrix} \begin{pmatrix} \color{red}5 & \color{red}6 \\ \color{red}7 & \color{red}8 \end{pmatrix} = \begin{pmatrix} \color{blue}1×\color{red}5 + \color{blue}2×\color{red}7 & \color{blue}1×\color{red}6 + \color{blue}2×\color{red}8 \\ \color{blue}3×\color{red}5 + \color{blue}4×\color{red}7 & \color{blue}3×\color{red}6 + \color{blue}4×\color{red}8 \end{pmatrix} = \begin{pmatrix} 19 & 22 \\ 43 & 50 \end{pmatrix} $$
Interprétation : Composition de transformations linéaires

Propriétés Clés

  • Associativité : $$ (AB)C = A(BC) $$
  • Distributivité : $$ A(B+C) = AB + AC $$
  • Non-commutativité : $$ AB ≠ BA \quad \text{(en général)} $$

Cas Particuliers

  • Matrice Identité : $$ AI_n = I_mA = A $$
  • Puissance Matricielle : $$ A^k = A × \cdots × A \quad (k \text{ fois}) $$
  • Transposée : $$ (AB)^\top = B^\top A^\top $$

🔄 Application : Transformations Géométriques

Rotation 2D (θ radians) :

$$ R_θ = \begin{pmatrix} \cos θ & -\sin θ \\ \sin θ & \cos θ \end{pmatrix} $$

Exemple : θ=π/2 ⇒ \(\begin{pmatrix}0&-1\\1&0\end{pmatrix}\)

Homothétie (facteur k) :

$$ H_k = \begin{pmatrix} k & 0 \\ 0 & k \end{pmatrix} $$

Exemple : k=2 ⇒ \(\begin{pmatrix}2&0\\0&2\end{pmatrix}\)

Composition :

$$ R_θ ∘ H_k = R_θ H_k $$

Rotation puis homothétie

✨ Bonus : Matrices Inversibles

Définition :

Une matrice carrée A est inversible s'il existe B telle que : $$ AB = BA = I_n $$ Notée \( A^{-1} \).

Condition : det(A) ≠ 0

Exemple 2×2 :

$$ \begin{pmatrix} a & b \\ c & d \end{pmatrix}^{-1} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} $$

Application : Résolution de systèmes linéaires

Prochaine Section : Déterminants et Valeurs Propres

🚀 Applications Concrètes de l'Algèbre Linéaire

1 Résolution de Systèmes Linéaires : Théorie et Pratique

Méthode Matricielle

Tout système linéaire peut s'écrire : $$ A\mathbf{x} = \mathbf{b} \quad \text{où} \quad A \in \mathcal{M}_{n,n}(\mathbb{R}), \mathbf{b} \in \mathbb{R}^n $$ Solution formelle : $$ \mathbf{x} = A^{-1}\mathbf{b} \quad \text{(si det(A) ≠ 0)} $$

Exemple complet :

$$ \begin{cases} 2x + y = 5 \\ x - y = 1 \end{cases} \Rightarrow \underbrace{\begin{pmatrix}2&1\\1&-1\end{pmatrix}}_{A} \underbrace{\begin{pmatrix}x\\y\end{pmatrix}}_{\mathbf{x}} = \underbrace{\begin{pmatrix}5\\1\end{pmatrix}}_{\mathbf{b}} $$

Étapes de résolution :

  1. Calcul du déterminant : det(A) = (2×-1)-(1×1) = -3
  2. Matrice inverse : $$ A^{-1} = \frac{1}{-3}\begin{pmatrix}-1&-1\\-1&2\end{pmatrix} = \begin{pmatrix}1/3&1/3\\1/3&-2/3\end{pmatrix} $$
  3. Solution finale : $$ \mathbf{x} = A^{-1}\mathbf{b} = \begin{pmatrix}\frac{1}{3}×5 + \frac{1}{3}×1 \\ \frac{1}{3}×5 - \frac{2}{3}×1\end{pmatrix} = \begin{pmatrix}2\\1\end{pmatrix} $$

Méthodes Numériques

Pour les grands systèmes (n > 1000), on utilise :

  • Décomposition LU : $$ A = LU \quad \text{(L triang. inf., U triang. sup.)} $$
    Complexité : O(n³) pour la décomposition
  • Méthode de Gauss-Seidel : $$ x_i^{(k+1)} = \frac{1}{a_{ii}}\left(b_i - \sum_{ji}a_{ij}x_j^{(k)}\right) $$
    Itératif - Convergence si diagonale dominante
  • Gradient Conjugué (pour matrices symétriques définies positives)
    Optimal pour les systèmes creux

Application Réelle : Simulation CFD (Mécanique des fluides)

Résolution de systèmes avec >1M d'inconnues pour modéliser les écoulements autour d'une aile d'avion.

2 Transformations Géométriques : De la 2D à la 3D

A Transformations 2D Fondamentales

Rotation d'angle θ

$$ R(θ) = \begin{pmatrix} \cos θ & -\sin θ \\ \sin θ & \cos θ \end{pmatrix} $$

Propriétés :

  • R(θ₁)R(θ₂) = R(θ₁+θ₂)
  • R(-θ) = R(θ)-1 = R(θ)
  • det(R(θ)) = 1 (conservation de l'aire)

Exemple (θ=π/2) :

$$ R(π/2)\begin{pmatrix}1\\0\end{pmatrix} = \begin{pmatrix}0\\1\end{pmatrix} $$

Homothétie (kx, ky)

$$ H(k_x,k_y) = \begin{pmatrix} k_x & 0 \\ 0 & k_y \end{pmatrix} $$

Cas particuliers :

  • kx = ky : homothétie uniforme
  • kx = 1, ky = -1 : symétrie axiale (x)

Cisaillement

$$ Sh_x(a) = \begin{pmatrix} 1 & a \\ 0 & 1 \end{pmatrix}, \quad Sh_y(b) = \begin{pmatrix} 1 & 0 \\ b & 1 \end{pmatrix} $$

Application :

Modélisation des déformations élastiques en mécanique des milieux continus.

B Extension aux Transformations 3D

Rotations 3D (Matrices d'Euler)

Autour de l'axe x :

$$ R_x(θ) = \begin{pmatrix} 1 & 0 & 0 \\ 0 & \cos θ & -\sin θ \\ 0 & \sin θ & \cos θ \end{pmatrix} $$

Composition :

R = Rz(γ)Ry(β)Rx(α) (angles d'Euler)

Projection Perspective

$$ P = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & -1/d & 1 \end{pmatrix} $$

d = distance à l'observateur. Utilisée en infographie 3D (OpenGL, DirectX).

🤖 Application Avancée : Cinématique Robotique

Matrices de transformation homogène (Denavit-Hartenberg) :

$$ T_i^{i-1} = \begin{pmatrix} \cos θ_i & -\sin θ_i \cos α_i & \sin θ_i \sin α_i & a_i \cos θ_i \\ \sin θ_i & \cos θ_i \cos α_i & -\cos θ_i \sin α_i & a_i \sin θ_i \\ 0 & \sin α_i & \cos α_i & d_i \\ 0 & 0 & 0 & 1 \end{pmatrix} $$

Modélise la position/orientation des articulations robotiques.

💡 Applications Modernes de l'Algèbre Linéaire

🧠 Machine Learning

PCA (Analyse en Composantes Principales) :

Diagonalisation de la matrice de covariance : $$ Σ = \frac{1}{n}X^\top X = PDP^\top $$ où P contient les vecteurs propres (axes principaux).

🎮 Graphisme 3D

Pipeline Graphique :

Multiplication matricielle pour les transformations : $$ \mathbf{v}_{screen} = P × V × M × \mathbf{v}_{model} $$ (M = modèle, V = vue, P = projection)

⚛️ Mécanique Quantique

Opérateurs Linéaires :

Les états quantiques sont des vecteurs dans ℂn et les observables sont des matrices hermitiennes : $$ H|\psi⟩ = E|\psi⟩ $$ (Équation de Schrödinger stationnaire)

"L'algèbre linéaire est le langage universel de la science computationnelle moderne." — Gilbert Strang

Synthèse des Concepts Clés

  • Les vecteurs généralisent la notion de direction et magnitude
  • Le produit matriciel encode les compositions linéaires
  • Les applications vont de la 3D (OpenGL) au Machine Learning (réseaux de neurones)

"L'algèbre linéaire est le langage naturel des algorithmes modernes." — Gilbert Strang

© 2023 - Blog Scientifique | Utilisez ces concepts pour vos projets IA et graphiques

Commentaires