📌 Leçon - 6
- Obtenir le lien
- X
- Autres applications
Rappels d'Algèbre Linéaire : Vecteurs, Matrices et Opérations Fondamentales
L'algèbre linéaire est la pierre angulaire des mathématiques modernes, essentielle pour l'apprentissage automatique, la physique quantique, et l'infographie. Cette leçon couvre les concepts clés avec des démonstrations rigoureuses et des exemples pratiques.
📐 Vecteurs : L'Essence de l'Algèbre Linéaire
1 Définition Formelle des Vecteurs
🔹 1. Définition intuitive
Un vecteur est souvent vu comme une flèche dans l'espace :
- Il a une direction,
- Une norme (longueur),
- Et un sens.
Exemples :
- Le déplacement d'un objet de 3 mètres vers la droite est un vecteur.
- Le vent soufflant à 10 km/h vers le nord-est est aussi un vecteur.
🔹 2. Définition formelle (mathématique)
Un vecteur est un élément d'un espace vectoriel.
Autrement dit, un vecteur est une liste ordonnée de scalaires (nombres réels ou complexes) qui obéissent à certaines règles d'addition et de multiplication scalaire.
🧮 Représentation Mathématique
Soit un vecteur dans l'espace ℝⁿ (espace vectoriel de dimension n), alors :
$$ \vec{v} = \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix} \quad \text{ou encore} \quad \vec{v} = (v_1, v_2, ..., v_n) $$Chaque \(v_i\) est un scalaire réel et représente une composante du vecteur dans la direction de l'axe \(i\).
🔧 Propriétés Formelles des Vecteurs
Les vecteurs appartiennent à un espace vectoriel \(V\) sur un corps \(\mathbb{K}\) (généralement \(\mathbb{R}\) ou \(\mathbb{C}\)), ce qui signifie :
1. Addition vectorielle
Pour deux vecteurs \(\vec{u}, \vec{v} \in \mathbb{R}^n\) :
$$ \vec{u} + \vec{v} = (u_1 + v_1, u_2 + v_2, ..., u_n + v_n) $$2. Multiplication par un scalaire
Pour un scalaire \(\lambda \in \mathbb{R}\) :
$$ \lambda \vec{v} = (\lambda v_1, \lambda v_2, ..., \lambda v_n) $$3. Vecteur nul
Il existe un vecteur \(\vec{0} = (0, 0, ..., 0)\) tel que :
$$ \vec{v} + \vec{0} = \vec{v} $$4. Inverse
Pour tout vecteur \(\vec{v}\), il existe \(-\vec{v}\) tel que :
$$ \vec{v} + (-\vec{v}) = \vec{0} $$🧱 Espace Vectoriel (Structure)
Un espace vectoriel est un ensemble de vecteurs \(V\) avec deux opérations :
- L'addition vectorielle : \(+\),
- La multiplication par un scalaire : \(\cdot\).
Et qui respecte les 8 axiomes fondamentaux (commutativité, associativité, existence de neutre, etc.).
Cela fait des vecteurs une structure algébrique très stable et prévisible, utilisée dans des centaines de domaines.
🔎 Exemple dans ℝ³
Prenons deux vecteurs :
$$ \vec{u} = (1, 2, 3), \quad \vec{v} = (-1, 0, 2) $$Addition :
$$ \vec{u} + \vec{v} = (1 + (-1), 2 + 0, 3 + 2) = (0, 2, 5) $$Multiplication scalaire :
$$ 2\vec{u} = (2 \cdot 1, 2 \cdot 2, 2 \cdot 3) = (2, 4, 6) $$🎯 Importance des Vecteurs
Les vecteurs permettent de :
- Représenter des données (images, sons, textes sous forme de vecteurs de caractéristiques),
- Modéliser des forces physiques, des déplacements,
- Travailler dans l'espace à n dimensions (utile en deep learning),
- Résoudre des systèmes linéaires, etc.
🧠 Vecteurs vs Points
Un point en géométrie (ex: \(P = (2, 3)\)) est une position.
Un vecteur (ex: \(\vec{v} = (2, 3)\)) est un déplacement depuis l'origine.
➡️ Même coordonnées, mais significations différentes.
🛠 Applications
🌐 Informatique | Représentation de documents, mots, images |
🎮 Jeux vidéo | Position, mouvement, collisions |
🧠 IA & ML | Vecteurs de caractéristiques, embeddings |
📐 Physique | Forces, vitesses, champs |
📊 Statistiques | Points dans un espace multidimensionnel |
✅ Conclusion
Définition formelle d'un vecteur :
Un vecteur est un élément d'un espace vectoriel, c'est-à-dire un objet mathématique sur lequel on peut faire des opérations comme l'addition et la multiplication par un scalaire, dans le respect de certaines règles.
2 Opérations Fondamentales et Structure Algébrique
Opération | Définition Mathématique | Propriétés Clés | Exemple Visuel |
---|---|---|---|
Addition | $$ \mathbf{u} + \mathbf{v} = \begin{pmatrix} u_1 + v_1 \\ \vdots \\ u_n + v_n \end{pmatrix} $$ |
|
\(\begin{pmatrix}1\\2\end{pmatrix} + \begin{pmatrix}3\\1\end{pmatrix} = \begin{pmatrix}4\\3\end{pmatrix}\)
• Règle du parallélogramme
• Somme composante par composante
• Base de la structure de groupe
|
Produit Scalaire | $$ \mathbf{u} \cdot \mathbf{v} = \sum_{i=1}^n u_i v_i = \|\mathbf{u}\|\|\mathbf{v}\|\cos\theta $$ |
|
\((1,2) \cdot (3,4) = 1×3 + 2×4 = 11\)
Normes : \(\sqrt{5}\) et \(5\)
Angle : \(\cos^{-1}(11/(\sqrt{5}×5)) ≈ 10.3°\) Projection : \(\frac{11}{5}\) sur (3,4) |
Norme (Longueur) | $$ \|\mathbf{v}\| = \sqrt{\sum_{i=1}^n v_i^2} = \sqrt{\mathbf{v} \cdot \mathbf{v}} $$ |
|
\(\|(3,4)\| = \sqrt{3^2 + 4^2} = 5\)
Cas classique du triangle 3-4-5
Distance euclidienne standard |
Produit Vectoriel (ℝ³) | $$ \mathbf{u} \times \mathbf{v} = \begin{pmatrix} u_2v_3 - u_3v_2 \\ u_3v_1 - u_1v_3 \\ u_1v_2 - u_2v_1 \end{pmatrix} $$ |
|
\((1,0,0) \times (0,1,0) = (0,0,1)\)
Base canonique orthonormée
Règle de la main droite |
Produit Extérieur | $$ \mathbf{u} \wedge \mathbf{v} = \mathbf{u} \otimes \mathbf{v} - \mathbf{v} \otimes \mathbf{u} $$ |
|
\((1,0) \wedge (0,1) = \begin{pmatrix}0&1\\-1&0\end{pmatrix}\)
Matrice antisymétrique
Aire orientée du parallélogramme |
Produit Tensoriel | $$ \mathbf{u} \otimes \mathbf{v} = \mathbf{u}\mathbf{v}^T = \begin{pmatrix} u_1v_1 & \cdots & u_1v_n \\ \vdots & \ddots & \vdots \\ u_nv_1 & \cdots & u_nv_n \end{pmatrix} $$ |
|
\((1,2) \otimes (3,4) = \begin{pmatrix}3&4\\6&8\end{pmatrix}\)
Matrice de rang 1
Produit dyadique |
🧠 Insight Mathématique Profond : Structure Algébrique des Espaces Vectoriels
L'ensemble des vecteurs de ℝn muni des opérations fondamentales forme une algèbre multilinéaire riche : $$ \begin{cases} (\mathbb{R}^n, +) \text{ est un groupe abélien} \\ \cdot \text{ forme une forme bilinéaire symétrique définie positive} \\ \times \text{ (en dim 3) donne une algèbre de Lie} \\ \wedge \text{ construit l'algèbre extérieure (Grassmann)} \\ \otimes \text{ engendre l'algèbre tensorielle} \end{cases} $$ Ces structures permettent de modéliser :
- Géométrie différentielle : formes différentielles via \(\wedge\)
- Mécanique quantique : états composites via \(\otimes\)
- Relativité générale : tenseurs de courbure
- Algorithmique : produits tensoriels en apprentissage profond
⚙️ Applications Pratiques des Opérations Vectorielles
Graphisme 3D
Le produit vectoriel calcule les normales aux surfaces pour l'éclairage. L'addition vectorielle déplace les objets dans l'espace.
Machine Learning
Le produit scalaire mesure les similarités (kernels). Les produits tensoriels construisent des espaces de caractéristiques.
Physique
Le produit extérieur modélise les forces en électromagnétisme (forme différentielle \(F = dA\)). Le crochet de Lie décrit les algèbres de symétrie.
🤖 Focus Intelligence Artificielle : Ce Qu'il Faut Retenir
▸ Embeddings & Similarité
- Le produit scalaire mesure la similarité entre vecteurs de caractéristiques (embeddings)
- Exemple : Recherche sémantique (BERT, Word2Vec) où \(\text{similarité} = \frac{\mathbf{u} \cdot \mathbf{v}}{\|\mathbf{u}\|\|\mathbf{v}\|}\)
- Attention mécanismes dans les transformers utilisent des produits scalaires normalisés (softmax)
▸ Réseaux Neuronaux & Tenseurs
- Les produits tensoriels (\(\otimes\)) sous-tendent les opérations de réseaux neuronaux (couches fully connected)
- Un batch de données est un tenseur de rang 3 : \(\text{batch} \times \text{features} \times \text{channels}\)
- Backpropagation = différentiation dans les espaces tensoriels
▸ Géométrie des Espaces Latents
- Les GANs et VAEs manipulent des variétés latentes (sous-espaces non-linéaires)
- Opérations clés :
- Interpolation linéaire : \(z = \alpha z_1 + (1-\alpha) z_2\)
- Navigation sémantique via additions vectorielles (ex: "roi" - "homme" + "femme" ≈ "reine")
⚡ Cas Avancé : Attention et Produits Scalaires
Dans les transformers, le mécanisme d'attention calcule des scores via : $$ \text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V $$ où \(QK^T\) est une matrice de produits scalaires entre requêtes (Q) et clés (K). La normalisation par \(\sqrt{d_k}\) (dimension des clés) stabilise les gradients.
🎮 Visualisation 3D Interactive des Vecteurs
🧠 Visualisation IA des Vecteurs
Espace Vectoriel en IA
Similarité Vectorielle
Cette visualisation comprend deux composants principaux :
-
Espace Vectoriel en IA :
- Montre comment différents concepts (mots, images, profils) sont représentés comme des vecteurs
- Trois exemples interchangeables : NLP (traitement du langage), Vision par ordinateur, et Systèmes de recommandation
- Visualisation 2D d'espaces vectoriels de haute dimension (projection)
-
Similarité Vectorielle :
- Illustre le calcul de similarité cosinus entre deux vecteurs
- Montre graphiquement l'angle entre les vecteurs
- Calcul en temps réel de la similarité
Points clés illustrés :
- Comment l'IA utilise les vecteurs pour représenter des concepts complexes
- L'importance des similarités vectorielles en machine learning
- La projection d'espaces de haute dimension en 2D pour la visualisation
- Applications concrètes dans différents domaines de l'IA
Vous pouvez interagir avec la visualisation en changeant les exemples et en calculant les similarités.
🧮 Matrices : Architectures de l'Algèbre Linéaire
2 Architectures Matricielles
🧱 1. Introduction : Pourquoi parler d'architectures ?
Une matrice, dans le monde des mathématiques, est une structure ordonnée qui contient des nombres. Mais dans le contexte de l'algèbre linéaire, elle joue un rôle architectural, c'est-à-dire qu'elle structure et organise les données, les transformations, et les systèmes complexes.
Dans l'intelligence artificielle, les réseaux de neurones sont bâtis avec des matrices. En traitement d'image, les pixels sont organisés en matrices. En physique, en économie, en robotique, dans le jeu vidéo — les matrices sont partout.
🧮 2. Définition d'une matrice
Une matrice est un tableau rectangulaire de nombres, organisé en lignes et colonnes.
$$ A = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix} $$- \(A\) est une matrice de taille \(m \times n\).
- \(a_{ij}\) est l'élément situé à la ligne \(i\) et la colonne\(j\).
🧭 3. Rôle fondamental des matrices dans l'algèbre linéaire
Les matrices sont au cœur de l'algèbre linéaire car :
- Elles modélisent les systèmes d'équations linéaires.
- Elles représentent des transformations linéaires.
- Elles permettent de manipuler des espaces vectoriels.
⚠️ Elles servent de carte pour naviguer dans des espaces multidimensionnels.
🧠 4. Les opérations de base (briques de construction)
➤ a. Addition et soustraction de matrices
Deux matrices de même taille peuvent être ajoutées ou soustraites élément par élément.
$$ A + B = \begin{bmatrix} a_{11}+b_{11} & \cdots & a_{1n}+b_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1}+b_{m1} & \cdots & a_{mn}+b_{mn} \end{bmatrix} $$➤ b. Multiplication par un scalaire
On multiplie chaque élément par un nombre réel \(\lambda\) :
$$ \lambda A = \begin{bmatrix} \lambda a_{11} & \cdots & \lambda a_{1n} \\ \vdots & \ddots & \vdots \\ \lambda a_{m1} & \cdots & \lambda a_{mn} \end{bmatrix} $$➤ c. Multiplication matricielle (composition de transformations)
C'est le cœur des transformations linéaires.
Si \(A \in \mathbb{R}^{m \times n}\) et \(B \in \mathbb{R}^{n \times p}\), alors :
$$ C = AB \in \mathbb{R}^{m \times p} $$Chaque élément $c_{ij}$ est :
$$ c_{ij} = \sum_{k=1}^{n} a_{ik} \cdot b_{kj} $$💡 Cela correspond à une composition de fonctions ou enchaînement de transformations linéaires.
🏗️ 5. Matrices et transformations linéaires : la vraie architecture
Une transformation linéaire peut être représentée par une matrice.
Exemple :
Soit une rotation de 2D :
Cette matrice transforme un vecteur \(\vec{v} \in \mathbb{R}^2\) en un autre vecteur tourné dans le plan.
Une matrice est donc une machine de transformation, qui agit sur les vecteurs.
🧩 6. Matrices spéciales (composants architecturaux)
🔹 a. Matrice identité \(I\)
Elle ne transforme pas les vecteurs :
$$ I = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \quad \text{et} \quad IA = A $$🔹 b. Matrice diagonale
Seulement les éléments de la diagonale sont non nuls.
$$ D = \begin{bmatrix} d_1 & 0 & 0 \\ 0 & d_2 & 0 \\ 0 & 0 & d_3 \end{bmatrix} $$Elle scale chaque direction indépendamment.
🔹 c. Matrice symétrique
$$ A = A^T $$Très utile dans l'analyse de données (ex : matrices de covariance).
🔹 d. Matrice orthogonale
$$ A^T A = I $$Représente une transformation qui conserve les distances et les angles (ex : rotations).
🧬 7. Matrices et système d'équations linéaires
Un système linéaire :
$$ \begin{cases} 2x + 3y = 5 \\ 4x + y = 6 \end{cases} $$Peut s'écrire :
$$ AX = B \quad \text{où} \quad A = \begin{bmatrix} 2 & 3 \\ 4 & 1 \end{bmatrix}, \quad X = \begin{bmatrix} x \\ y \end{bmatrix}, \quad B = \begin{bmatrix} 5 \\ 6 \end{bmatrix} $$On cherche à résoudre \(X = A^{-1}B\), si \(A\) est inversible.
🔁 8. Matrice inverse
L'inverse d'une matrice \(A\), notée \(A^{-1}\), est telle que :
$$ A A^{-1} = A^{-1} A = I $$⚠️ Seules les matrices carrées de rang maximal sont inversibles.
🔢 9. Déterminant et rang : fondations de l'architecture
➤ a. Déterminant
Le déterminant d'une matrice carrée mesure son capacité à transformer l'espace.
$$ \text{det}(A) = 0 \Rightarrow \text{pas inversible} $$➤ b. Rang d'une matrice
Nombre maximal de lignes ou colonnes linéairement indépendantes. Il donne la dimension de l'espace image de la transformation.
🧠 10. Applications concrètes des matrices
Domaine | Rôle des matrices |
Intelligence Artificielle | Poids des réseaux de neurones |
Informatique graphique | Transformations d'image 3D |
Économie | Modèles d'entrée-sortie de Leontief |
Physique | Systèmes dynamiques |
Data Science | Analyse de variance, PCA, clustering |
Équations différentielles | Systèmes couplés linéaires |
📈 11. Visualisation : Matrices comme "transformateurs d'espaces"
Prenons un carré dans le plan :
$$ \vec{v_1} = \begin{bmatrix}1 \\ 0\end{bmatrix}, \quad \vec{v_2} = \begin{bmatrix}0 \\ 1\end{bmatrix} $$Appliquons la matrice :
$$ A = \begin{bmatrix} 2 & 1 \\ 1 & 1 \end{bmatrix} $$Les vecteurs sont étirés et déplacés. L'espace est déformé. Voilà comment une matrice transforme la géométrie d'un espace.
🧮 12. Matrices et Python (NumPy)
import numpy as np
# 👉 Opérations matricielles avec NumPy
# --------------------------------------
A = np.array([[2, 3], [4, 1]])
# Inversion de matrice
A_inv = np.linalg.inv(A)
# Multiplication de matrice
I = A @ A_inv # Utilisation de l'opérateur de matrice de Python
# Résolution de système linéaire
B = np.array([5, 6])
X = np.linalg.solve(A, B)
print(f"Solution vector X = {X}")
🔚 Conclusion : Les matrices comme langage fondamental
Les matrices sont la colonne vertébrale de l'algèbre linéaire, et l'algèbre linéaire est à son tour la langue de l'IA, du graphisme, de la physique et des systèmes complexes.
En les étudiant comme des architectures, on comprend :
- Leur capacité à modéliser,
- À transformer,
- Et à résoudre des problèmes réels.
🔍 Propriétés Structurelles
Dans le domaine des matrices, les propriétés structurelles désignent les caractéristiques particulières de certaines matrices, souvent en lien avec leur forme, leur contenu, ou leur comportement sous certaines opérations. Ces propriétés sont essentielles en algèbre linéaire, en informatique, et dans de nombreuses applications scientifiques.
Trace (matrices carrées) :
$$ \mathrm{tr}(A) = \sum_{i=1}^n a_{ii} $$Exemple : tr\(\begin{pmatrix}1&2\\3&4\end{pmatrix} = 5\)
Transposée :
$$ A^\top = (a_{ji})_{1 ≤ j ≤ n, 1 ≤ i ≤ m} $$Exemple : \(\begin{pmatrix}1&2\\3&4\end{pmatrix}^\top = \begin{pmatrix}1&3\\2&4\end{pmatrix}\)
🔷 1. Matrice nulle
Définition :
Une matrice dont tous les éléments sont égaux à 0.
Notation : \(\mathbf{0}\)
Exemple :
$$ \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix} $$Propriété :
- Pour toute matrice \(A\) de taille compatible,\(A + \mathbf{0} = A\)
🔷 2. Matrice identité
Définition :
Une matrice carrée avec des 1 sur la diagonale principale et des 0 ailleurs.
Notation : \(I_n\) pour une matrice identité de taille \(n \times n\)
Exemple :
$$ I_3 = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} $$Propriété :
- \(A \cdot I = I \cdot A = A\)
🔷 3. Matrice diagonale
Définition :
Une matrice carrée où seuls les éléments de la diagonale principale peuvent être non nuls.
Exemple :
$$ \begin{bmatrix} 3 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -2 \end{bmatrix} $$Propriétés :
- Facile à inverser si aucun élément de la diagonale n'est zéro.
- Le produit de deux matrices diagonales est aussi une matrice diagonale.
🔷 4. Matrice triangulaire
a. Triangulaire supérieure :
Tous les éléments sous la diagonale principale sont nuls.
$$ \begin{bmatrix} 2 & 3 & 1 \\ 0 & 5 & 4 \\ 0 & 0 & 7 \end{bmatrix} $$b. Triangulaire inférieure :
Tous les éléments au-dessus de la diagonale principale sont nuls.
$$ \begin{bmatrix} 4 & 0 & 0 \\ 1 & 3 & 0 \\ 2 & 6 & 5 \end{bmatrix} $$Propriétés :
- Le produit de deux matrices triangulaires du même type est aussi triangulaire.
- Le déterminant est le produit des éléments diagonaux.
🔷 5. Matrice symétrique
Définition :
Une matrice carrée telle que \(A = A^T\), c'est-à-dire égale à sa transposée.
Exemple :
$$ \begin{bmatrix} 1 & 2 & 3 \\ 2 & 4 & 5 \\ 3 & 5 & 6 \end{bmatrix} $$Propriétés :
- Toutes les valeurs propres d'une matrice symétrique sont réelles.
- Elle est diagonalisable.
🔷 6. Matrice antisymétrique (ou skew-symétrique)
Définition :
Une matrice carrée telle que \(A^T = -A\)
Exemple :
$$ \begin{bmatrix} 0 & 2 & -1 \\ -2 & 0 & 4 \\ 1 & -4 & 0 \end{bmatrix} $$Propriétés :
- Tous les éléments diagonaux sont égaux à zéro.
- Les coefficients symétriques par rapport à la diagonale sont opposés.
🔷 7. Matrice orthogonale
Définition :
Une matrice carrée telle que \(A^T \cdot A = I\)
Propriétés :
- L'inverse d'une matrice orthogonale est sa transposée.
- Elle conserve les distances (utilisée en rotation, transformations rigides...).
🔷 8. Matrice creuse (sparse matrix)
Définition :
Une matrice contenant beaucoup de zéros (typiquement > 90% de zéros).
Utilité :
- Économie de mémoire.
- Optimisation des calculs en mathématiques appliquées et en data science.
🔷 9. Matrice de permutation
Définition :
Une matrice obtenue à partir de l'identité en permutant ses lignes ou colonnes.
Exemple :
$$ \begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 \end{bmatrix} $$🔷 10. Rang d'une matrice
Bien que ce ne soit pas une "forme", le rang est une propriété structurelle importante :
- Il indique le nombre de lignes ou de colonnes linéairement indépendantes.
🔷 11. Matrice inversible
Définition :
Une matrice carrée \(A\) est inversible s'il existe une matrice \(A^{-1}\) telle que
Condition :
- Le déterminant de \(A\) est non nul.
- Le rang de \(A\) est égal à sa dimension.
🔷 12. Matrice échelonnée
Définition :
Forme obtenue en réduisant une matrice avec la méthode de Gauss.
Utile pour :
- Résolution de systèmes d'équations
- Détermination du rang
- Inversion
Résumé illustré :
Propriété | Type de matrice | Exemple clé |
Nulle | Tous les éléments à 0 | \(\mathbf{0}_{n \times m}\) |
Identité | Diagonale de 1 | \(I_n\) |
Diagonale | Non-zéros seulement sur diagonale | |
Triangulaire sup/inf | 0 en dessous / au-dessus | |
Symétrique | \(A = A^T\) | |
Antisymétrique | \(A^T = -A\) | |
Orthogonale | \(A^T A = I\) | |
Inversible | \(A^{-1}\) existe | \(\det(A) \ne 0\) |
2 Produit Matriciel : Mécanisme et Applications
Formalisme Mathématique
Pour \( A ∈ 𝓜_{m,p}(ℝ) \) et \( B ∈ 𝓜_{p,n}(ℝ) \), le produit \( AB ∈ 𝓜_{m,n}(ℝ) \) est défini par : $$ (AB)_{ij} = \sum_{k=1}^p a_{ik}b_{kj} \quad \text{(produit ligne-colonne)} $$ Condition essentielle : Nombre de colonnes de A = Nombre de lignes de B
🧩 Exemple Pas à Pas :
Propriétés Clés
- Associativité : $$ (AB)C = A(BC) $$
- Distributivité : $$ A(B+C) = AB + AC $$
- Non-commutativité : $$ AB ≠ BA \quad \text{(en général)} $$
Cas Particuliers
- Matrice Identité : $$ AI_n = I_mA = A $$
- Puissance Matricielle : $$ A^k = A × \cdots × A \quad (k \text{ fois}) $$
- Transposée : $$ (AB)^\top = B^\top A^\top $$
🔄 Application : Transformations Géométriques
Rotation 2D (θ radians) :
$$ R_θ = \begin{pmatrix} \cos θ & -\sin θ \\ \sin θ & \cos θ \end{pmatrix} $$Exemple : θ=π/2 ⇒ \(\begin{pmatrix}0&-1\\1&0\end{pmatrix}\)
Homothétie (facteur k) :
$$ H_k = \begin{pmatrix} k & 0 \\ 0 & k \end{pmatrix} $$Exemple : k=2 ⇒ \(\begin{pmatrix}2&0\\0&2\end{pmatrix}\)
Composition :
$$ R_θ ∘ H_k = R_θ H_k $$Rotation puis homothétie
✨ Bonus : Matrices Inversibles
Définition :
Une matrice carrée A est inversible s'il existe B telle que : $$ AB = BA = I_n $$ Notée \( A^{-1} \).
Condition : det(A) ≠ 0
Exemple 2×2 :
$$ \begin{pmatrix} a & b \\ c & d \end{pmatrix}^{-1} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} $$Application : Résolution de systèmes linéaires
🚀 Applications Concrètes de l'Algèbre Linéaire
1 Résolution de Systèmes Linéaires : Théorie et Pratique
Méthode Matricielle
Tout système linéaire peut s'écrire : $$ A\mathbf{x} = \mathbf{b} \quad \text{où} \quad A \in \mathcal{M}_{n,n}(\mathbb{R}), \mathbf{b} \in \mathbb{R}^n $$ Solution formelle : $$ \mathbf{x} = A^{-1}\mathbf{b} \quad \text{(si det(A) ≠ 0)} $$
Exemple complet :
$$ \begin{cases} 2x + y = 5 \\ x - y = 1 \end{cases} \Rightarrow \underbrace{\begin{pmatrix}2&1\\1&-1\end{pmatrix}}_{A} \underbrace{\begin{pmatrix}x\\y\end{pmatrix}}_{\mathbf{x}} = \underbrace{\begin{pmatrix}5\\1\end{pmatrix}}_{\mathbf{b}} $$Étapes de résolution :
- Calcul du déterminant : det(A) = (2×-1)-(1×1) = -3
- Matrice inverse : $$ A^{-1} = \frac{1}{-3}\begin{pmatrix}-1&-1\\-1&2\end{pmatrix} = \begin{pmatrix}1/3&1/3\\1/3&-2/3\end{pmatrix} $$
- Solution finale : $$ \mathbf{x} = A^{-1}\mathbf{b} = \begin{pmatrix}\frac{1}{3}×5 + \frac{1}{3}×1 \\ \frac{1}{3}×5 - \frac{2}{3}×1\end{pmatrix} = \begin{pmatrix}2\\1\end{pmatrix} $$
Méthodes Numériques
Pour les grands systèmes (n > 1000), on utilise :
-
Décomposition LU :
$$ A = LU \quad \text{(L triang. inf., U triang. sup.)} $$
Complexité : O(n³) pour la décomposition
-
Méthode de Gauss-Seidel :
$$ x_i^{(k+1)} = \frac{1}{a_{ii}}\left(b_i - \sum_{ji}a_{ij}x_j^{(k)}\right) $$
Itératif - Convergence si diagonale dominante
-
Gradient Conjugué (pour matrices symétriques définies positives)
Optimal pour les systèmes creux
Application Réelle : Simulation CFD (Mécanique des fluides)
Résolution de systèmes avec >1M d'inconnues pour modéliser les écoulements autour d'une aile d'avion.
2 Transformations Géométriques : De la 2D à la 3D
A Transformations 2D Fondamentales
Rotation d'angle θ
$$ R(θ) = \begin{pmatrix} \cos θ & -\sin θ \\ \sin θ & \cos θ \end{pmatrix} $$Propriétés :
- R(θ₁)R(θ₂) = R(θ₁+θ₂)
- R(-θ) = R(θ)-1 = R(θ)⊤
- det(R(θ)) = 1 (conservation de l'aire)
Exemple (θ=π/2) :
$$ R(π/2)\begin{pmatrix}1\\0\end{pmatrix} = \begin{pmatrix}0\\1\end{pmatrix} $$Homothétie (kx, ky)
$$ H(k_x,k_y) = \begin{pmatrix} k_x & 0 \\ 0 & k_y \end{pmatrix} $$Cas particuliers :
- kx = ky : homothétie uniforme
- kx = 1, ky = -1 : symétrie axiale (x)
Cisaillement
$$ Sh_x(a) = \begin{pmatrix} 1 & a \\ 0 & 1 \end{pmatrix}, \quad Sh_y(b) = \begin{pmatrix} 1 & 0 \\ b & 1 \end{pmatrix} $$Application :
Modélisation des déformations élastiques en mécanique des milieux continus.
B Extension aux Transformations 3D
Rotations 3D (Matrices d'Euler)
Autour de l'axe x :
$$ R_x(θ) = \begin{pmatrix} 1 & 0 & 0 \\ 0 & \cos θ & -\sin θ \\ 0 & \sin θ & \cos θ \end{pmatrix} $$Composition :
R = Rz(γ)Ry(β)Rx(α) (angles d'Euler)
Projection Perspective
$$ P = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & -1/d & 1 \end{pmatrix} $$d = distance à l'observateur. Utilisée en infographie 3D (OpenGL, DirectX).
🤖 Application Avancée : Cinématique Robotique
Matrices de transformation homogène (Denavit-Hartenberg) :
$$ T_i^{i-1} = \begin{pmatrix} \cos θ_i & -\sin θ_i \cos α_i & \sin θ_i \sin α_i & a_i \cos θ_i \\ \sin θ_i & \cos θ_i \cos α_i & -\cos θ_i \sin α_i & a_i \sin θ_i \\ 0 & \sin α_i & \cos α_i & d_i \\ 0 & 0 & 0 & 1 \end{pmatrix} $$Modélise la position/orientation des articulations robotiques.
💡 Applications Modernes de l'Algèbre Linéaire
🧠 Machine Learning
PCA (Analyse en Composantes Principales) :
Diagonalisation de la matrice de covariance : $$ Σ = \frac{1}{n}X^\top X = PDP^\top $$ où P contient les vecteurs propres (axes principaux).
🎮 Graphisme 3D
Pipeline Graphique :
Multiplication matricielle pour les transformations : $$ \mathbf{v}_{screen} = P × V × M × \mathbf{v}_{model} $$ (M = modèle, V = vue, P = projection)
⚛️ Mécanique Quantique
Opérateurs Linéaires :
Les états quantiques sont des vecteurs dans ℂn et les observables sont des matrices hermitiennes : $$ H|\psi⟩ = E|\psi⟩ $$ (Équation de Schrödinger stationnaire)
Synthèse des Concepts Clés
- Les vecteurs généralisent la notion de direction et magnitude
- Le produit matriciel encode les compositions linéaires
- Les applications vont de la 3D (OpenGL) au Machine Learning (réseaux de neurones)
"L'algèbre linéaire est le langage naturel des algorithmes modernes." — Gilbert Strang
© 2023 - Blog Scientifique | Utilisez ces concepts pour vos projets IA et graphiques
- Obtenir le lien
- X
- Autres applications
Commentaires
Enregistrer un commentaire