Calculateur de matrices - Déterminant, inverse et plus encore
Calculer le déterminant, l'inverse, la transposition et la multiplication de matrices. Prend en charge les matrices 2x2 et 3x3. Cet outil mathématique gratuit donne des résultats instantanés et précis.
Opérations matricielles: addition et soustraction
Une matrice est un tableau rectangulaire de nombres disposés en lignes et colonnes.m x nUne matrice a m lignes et n colonnes.
Addition et soustractionajouter ou soustraire les éléments correspondants:
Si A = [[1, 2], [3, 4]] et B = [[5, 6], [7, 8]], alors:
- Les valeurs de l'indicateur sont calculées en fonction des valeurs de l'indicateur.
- L'indicateur d'étalonnage doit être défini comme suit:
L'addition de matrices est commutative (A + B = B + A) et associative ((A + B) + C = A + (B + C)).
Multiplication par matrice
Pour multiplier A (mxn) par B (nxp), les dimensions intérieures doivent correspondre (n), produisant une matrice de résultat C (mxp).
Chaque élément C[i][j] = somme de A[i][k] x B[k][j] pour tous les k.
Exemple suivant:A = [[1, 2], [3, 4]] (2x2) x B = [[5, 6], [7, 8]] (2x2):
- C[0][0] = 1x5 + 2x7 = 19
- C[0][1] = 1x6 + 2x8 = 22
- C[1][0] = 3x5 + 4x7 = 43
- C[1][1] = 3x6 + 4x8 = 50
Résultat: C = [[19, 22], [43, 50]]
Propriété clé:La multiplication par matrices n'est pas commutative -- AxB ≠ BxA en général. Cependant, elle est associative: (AxB) xC = Ax(BxC).
Déterminant et inverse d'une matrice 2x2
Ledéterminantd'une matrice 2x2 A = [[a, b], [c, d]] est: det(A) = ad - bc
Le déterminant indique si une matrice est inversible (det ≠ 0) et représente le facteur d'échelle de la transformation.
Inverse d'une matrice 2x2(existe uniquement si det ≠ 0):
A−1 = (1/det) x [[d, -b], [-c, a]]
Exemple suivant:A = [[1, 2], [3, 4]]
det = 1x4 - 2x3 = 4 - 6 = -2
A−1 = (1/-2) x [[4, -2], [-3, 1]] = [[-2, 1], [1,5, -0,5]]
Vérifier: A x A−1 = Matrice d'identité [[1,0],[0,1]]
Applications pratiques des matrices
Les matrices sont fondamentales pour de nombreuses applications réelles:
- Graphisme informatique et développement de jeuxChaque rotation, mise à l'échelle et translation 3D est une multiplication de matrice. Une matrice de transformation 4x4 gère les trois opérations simultanément.
- Apprentissage automatique:L'entraînement d'un réseau neuronal consiste essentiellement à effectuer des millions de multiplications de matrices.
- Économie (analyse des entrées et sorties):Le modèle input-output de Leontief utilise des matrices pour modéliser les interdépendances entre les secteurs économiques.
- Pour la physique:La mécanique quantique utilise des matrices (opérateurs) pour représenter des quantités observables.
- Les statistiques:Les matrices de covariance, l'analyse des composantes principales (ACP) et les calculs de régression reposent tous sur des opérations matricielles.
Déterminant et cofacteur de la matrice 3x3
Pour une matrice 3x3, le déterminant est calculé en utilisantexpansion du cofacteur(également appelée expansion de Laplace).
| Colonne 1 | Colonne 2 | Colonne 3 | |
|---|---|---|---|
| ligne 1 | a | b | c |
| 2e rangée | d | e | f |
| ligne 3 | g | h | i |
Le déterminant est:déte = a{ei - fh) - b{di - fg) + c{dh - eg)
Exemple travaillé:Si A est égale à [2, 1, 3], [0, -1, 2], [4, 0, 1]
- déte = 2{ - 1x1 - 2x0) - 1{ - 0x1 - 2x4) + 3{ - 0x0 - (-1) x4)
- déte = 2 ((-1 - 0) - 1 ((0 - 8) + 3 ((0 + 4)
- déte = 2 (-1) - 1 (-8) + 3 (4)
- dé = -2 + 8 + 12 =18
Pour les matrices plus grandes (4x4, 5x5, etc.), la méthode d'expansion des cofacteurs devient computationally coûteux (n! opérations).Décomposition de l'U or Réduction des lignespour calculer les déterminants en O (n3) de temps.
Valeur propre et vecteur propre
Valeur propresont parmi les concepts les plus importants en algèbre linéaire. Pour une matrice carrée A, une valeur propre λ et son vecteur propre correspondantvsatisfaire aux conditions suivantes:A·v = λ·v-- la matrice transforme le vecteur propre simplement en l'échelonnant (pas de rotation).
Pour trouver les valeurs propres d'une matrice 2x2 A = [[a, b], [c, d], résolvez leéquation caractéristique: det ((A - λI) = 0
Cela donne: (a - λ) (d - λ) - bc = 0, ou:λ2 - (a+d) λ + (ad - bc) = 0
Le terme (a+d) est letracede la matrice, et (ad - bc) est ledéterminant.
Exemple suivant:A = [[4, 2], [1, 3]]
- Équation caractéristique: λ2 - 7λ + 10 = 0
- Factorisation: (λ - 5) (λ - 2) = 0
- Valeur propre: λ1 = 5, λ2 = 2
Lorsque les valeurs propres apparaissent dans la pratique:
| Le champ | La mise en œuvre | Ce que représentent les valeurs propres |
|---|---|---|
| La science des données (PCA) | Réduction de la dimension | Variance expliquée par chaque composante principale |
| Ingénierie mécanique | Analyse des vibrations | Fréquences naturelles d'une structure |
| La mécanique quantique | Mesures observées | Résultats possibles des mesures |
| PageRank de Google | Classement des pages Web | Probabilité à l'état d'équilibre de visiter chaque page |
| Biologie des populations | Modèles de matrice de Leslie | Taux de croissance démographique |
| Systèmes de commande | Analyse de la stabilité | Stabilité du système (valeurs propres négatives = stables) |
Résolution de systèmes d'équations linéaires avec des matrices
L'une des utilisations les plus pratiques des matrices est la résolution de systèmes d'équations linéaires.Ax = b, où A est la matrice de coefficients, x est le vecteur variable, et b est le vecteur de constantes.
Exemple de système:
- 2x + 3y est égal à 8
- 4x - y est égal à 2
La forme de la matrice est la suivante: A = [[2, 3], [4, -1]], x = [[x], [y]], b = [[8], [2]]
Solution en utilisant l'inverse:x = A−1 · b
- Définition de l'indicateur:
- A−1 = (1/-14) x [[-1, -3], [-4, 2]] = [[1/14, 3/14], [4/14, -2/14]]
- x = A−1 · b = [[1/14 x 8 + 3/14 x 2], [4/14 x 8 + (-2/14) x 2]] = [[1], [2]]
- Résolution: x = 1, y = 2
La règle de Cramerest une autre méthode: pour chaque variable, remplacer sa colonne dans la matrice de coefficients par le vecteur de constantes et diviser le déterminant résultant par le déterminant d'origine.
- x = det{8, 3], [2, -1]]) / det{A) = (-8 - 6) / (-14) = -14 / -14 = 1
- y = det{2, 8], [4, 2]]) / det{A) = (4 - 32) / (-14) = -28 / -14 = 2
Pour les grands systèmes (n > 3),Élimination gaussienne(réduction de ligne) est plus efficace sur le plan du calcul que l'inversion de matrice ou la règle de Cramer et est l'algorithme standard utilisé par les ordinateurs.
Types de matrices spéciales
Différents types de matrices ont des propriétés uniques qui simplifient le calcul et apparaissent fréquemment dans des applications spécifiques:
| Type de matrice | Définition | Propriété clé | Utilisation courante |
|---|---|---|---|
| Identité (I) | 1 sur la diagonale, 0 ailleurs | IA = IA = A = AI = IA = A | Élément neutre dans la multiplication |
| Diagonale | Non zéro uniquement sur la diagonale | Facile à inverser (1/chaque entrée diagonale) | Transformations de mise à l'échelle |
| Symétrique | A = AT | Toutes les valeurs propres sont réelles | Matrices de covariance, physique |
| Orthogonale | A−1 = AT | Conserve les longueurs et les angles | Matrices de rotation dans les graphiques 3D |
| Triangulaire supérieur | Toutes les entrées au-dessous de diagonale = 0 | det = produit des entrées diagonales | Résultat de l'élimination gaussienne |
| Triangulaire inférieur | Toutes les entrées au-dessus de la diagonale = 0 | det = produit des entrées diagonales | Décomposition de Cholesky |
| Épars | Principalement zéro entrée | Enregistrement spécial/algorithmes | Graphiques du réseau, simulations du MEF |
| Positif définitif | Toutes les valeurs propres > 0 | Représente un véritable produit intérieur | Optimisation (matrices hessiennes) |
| Stochastique | Numéro de référence de l'établissement | Représente les transitions de probabilité | Chaînes de Markov, PageRank |
La compréhension des types de matrices aide à choisir le bon algorithme. Par exemple, si vous savez qu'une matrice est symétrique définie positive, la décomposition de Cholesky est deux fois plus rapide que la décomposition générale de LU pour résoudre des systèmes linéaires.
Les transformations matricielles en informatique graphique
Dans l'infographie 3D et le développement de jeux, chaque objet sur l'écran est positionné, tourné et mis à l'échelle à l'aide d'opérations matricielles.Matrices de transformation 4x4(coordonnées homogènes) qui combinent translation, rotation et mise à l'échelle en une seule multiplication matricielle:
| La transformation | Matrice en deux dimensions (3x3) | Résultats |
|---|---|---|
| Traduit par (tx, ty) | [1, 0, tx], [0, 1, ty], [0, 0, 1] | Déplace l'objet à une nouvelle position |
| Mise à l'échelle par (sx, sy) | [sx, 0, 0], [0, sy, 0], [0, 0, 1] | Redimensionne l'objet |
| Rotation par θ | [cos θ, -sin θ, 0], [sin θ, cos θ, 0], [0, 0, 1]] | Tourne autour de l'origine |
| Réflexion (axe des x) | [1, 0, 0], [0, -1, 0], [0, 0, 1] | Miroirs traversant l'axe des x |
| Cisaillement (direction x) | [1, k, 0], [0, 1, 0], [0, 0, 1] | Objet incliné horizontalement |
Les GPU modernes (unités de traitement graphique) sont essentiellement des machines de multiplication de matrices massives parallèles. Une trame de jeu vidéo typique nécessite des millions de multiplications de matrices par seconde - transformant des sommets, calculant l'éclairage, projetant des scènes 3D sur des écrans 2D. C'est aussi pourquoi les GPU sont si efficaces pour l'entraînement AI / ML: les réseaux neuronaux sont fondamentalement de grandes opérations matricielles, et l'architecture GPU est optimisée pour exactement ce type de calcul.
Le pipeline de rendu:Chaque sommet d'un modèle 3D passe par une chaîne de multiplications de matrices: Matrice de modèle (positionne l'objet dans le monde) -> Matrice d'affichage (positionne la caméra) -> Matrice de projection (converte les coordonnées de l'écran 3D en 2D). Ces trois matrices sont souvent pré-multiplicées en une seuleMatrice du MVPpour l'efficacité.
Réduction des lignes (élimination gaussienne) étape par étape
Élimination gaussienneest l'algorithme le plus largement utilisé pour résoudre des systèmes d'équations linéaires, calculer des déterminants et trouver des inverses de matrice.forme d'échelon de rangée(triangulaire supérieur) en utilisant trois opérations de ligne élémentaires:
- Échangez deux lignes
- Multipliez une ligne par un scalaire non nul
- Ajouter un multiple d' une ligne à une autre
Exemple travaillé -- résoudre: x + 2y + z = 9, 2x - y + 3z = 8, 3x + y - z = 2
Matrice augmentée:
| x | y | z | | | b | |
|---|---|---|---|---|---|
| R1 | 1 | 2 | 1 | | | 9 |
| R2 | 2 | −1 | 3 | | | 8 |
| R3 | 3 | 1 | −1 | | | 2 |
Première étape:R2 <- R2 - 2xR1: [0, -5, 1] -10
Deuxième étape:R3 <- R3 - 3xR1: [0, -5, -4 ] -25
Troisième étape:R3 <- R3 - R2: [0, 0, -5] -15
Maintenant dans la forme d'échelon de rangée. Retour-substitution: z = -15/-5 = 3; y = (-10 - 1x3) /-5 = -13/-5 = 2.6; x = 9 - 2(2.6) - 3 = 0.8
Solution: x = 0,8, y = 2,6, z = 3. Vérifiez en remplaçant à nouveau dans les équations d'origine.
L'élimination gaussienne a une complexité temporelle de O ((n3) et est la base de la plupart des logiciels d'algèbre linéaire numérique, y compris MATLAB, NumPy et LAPACK.
Matrices dans l'apprentissage automatique et la science des données
L'apprentissage automatique moderne est construit sur des opérations matricielles. La compréhension des matrices est essentielle pour tous ceux qui travaillent dans l'IA, la science des données ou l'apprentissage en profondeur:
Passe en avant du réseau neuronal:Chaque couche d'un réseau neuronal effectue une multiplication matricielle suivie d'une fonction d'activation.x(nx1), matrice de poidsW(mxn), et le vecteur de biaisb(mx1):débit = activation ((W·x + b)Un réseau neuronal profond avec 10 couches effectue 10 de ces multiplications matricielles par inférence.
Formation (propagation rétrospective)Il s'agit de calculer des gradients à travers la règle de la chaîne, qui est mise en œuvre comme une série de transpositions et de multiplication de matrices fonctionnant à l'envers à travers le réseau.
| ML Fonctionnement | Opération matricielle utilisée | Taille typique |
|---|---|---|
| Classification de l'image (CNN) | Convolution (multiplication par matrice coulissante) | L'entrée: 224x224x3; les filtres: 3x3x64 |
| Modèle de langage (transformateur) | Attention = softmax (QKT/√d) · V | Q, K, V: (seq_len x d_modèle) |
| Systèmes de recommandation | Factorisation matricielle (SVD) | Utilisateurs par postes (millions par millions, rares) |
| PCA / réduction de la dimensionnalité | Décomposition propre de la matrice de covariance | Caractéristiques x Caractéristiques |
| Régression linéaire | β = (XTX) −1XTy (équation normale) | échantillons x caractéristiques |
Les grands modèles de langage comme GPT-4 contiennent des centaines de milliards de paramètres organisés en matrices de poids. L'entraînement implique la multiplication de matrices avec des milliards d'éléments -- c'est pourquoi l'entraînement de grands modèles d'IA nécessite des milliers de GPU fonctionnant en parallèle pendant des semaines, à un coût supérieur à 100 millions de dollars. Toute la révolution de l'IA est, dans son noyau mathématique, un exercice de multiplication de matrices très grandes et très rapides.
Les erreurs courantes de la matrice et comment les éviter
Les étudiants et les praticiens commettent souvent ces erreurs lorsqu'ils travaillent avec des matrices:
| Une erreur . | Pourquoi c'est mal | La bonne approche |
|---|---|---|
| En supposant que AB = BA | La multiplication par matrices n'est pas commutative | Vérifiez toujours l'ordre; AB ≠ BA en général |
| Ajout de matrices de tailles différentes | L'addition exige des dimensions identiques | Vérifiez d'abord les dimensions: les deux doivent être mxn |
| Oublier de vérifier det ≠ 0 avant l'inversion | Les matrices singulières n'ont pas d'inverse | Toujours calculer le déterminant d'abord |
| Confondre les lignes et les colonnes dans la multiplication | A ((mxn) x B ((nxp) = C ((mxp); les dimensions intérieures doivent correspondre | Écrire explicitement les dimensions; vérifier la correspondance interne |
| Répartition incorrecte: (A+B) 2 ≠ A2+2AB+B2 | Parce que AB ≠ BA, l'expansion du binôme ne s'applique pas | (A+B) 2 = A2 + AB + BA + B2 |
| En supposant que (AB) −1 = A−1B−1 | Inversion renverse l'ordre | (AB)−1 = B−1A−1 (dans l'ordre inverse) |
L'habitude la plus importante quand on travaille avec des matrices:Notez toujours les dimensions.Cela permet de détecter immédiatement les erreurs d'inadéquation des dimensions et de clarifier les dimensions des résultats attendus avant de commencer le calcul.
Questions fréquemment posées
Quelle est la matrice d'identité ?
La matrice d'identité est une matrice carrée avec 1s sur la diagonale principale et 0s partout ailleurs. Pour une identité 2x2: [[1,0],[0,1]. Multiplication d'une matrice A par la matrice d'identité donne A - c'est l'équivalent de la matrice de multiplication par 1.
Pouvez-vous multiplier une matrice 3x2 par une matrice 2x4 ?
La règle: vous pouvez multiplier une matrice mxn par une matrice nxp; le résultat est mxp. Si les dimensions intérieures ne correspondent pas, la multiplication est indéfinie.
Qu'est-ce que cela signifie pour une matrice d'être singulière?
Une matrice singulière a un déterminant de 0 et n'a pas d'inverse. Géométriquement, une transformation singulière "aplatit" l'espace - réduisant un plan 2D à une ligne, ou un espace 3D à un plan. Les matrices singulières surgissent dans des systèmes d'équations sans solution unique (ni aucune solution ni infiniment nombreuses).
Quelle est la transpose d'une matrice ?
La transposition d'une matrice A (écrite AT) est obtenue en retournant les lignes et les colonnes. Si A = [[1,2,3],[4,5,6]], alors AT = [[1,4],[2,5],[3,6]].
Opérations matricielles: ce que vous pouvez calculer
Une matrice est un tableau rectangulaire de nombres disposés en lignes et colonnes. Les opérations matricielles sont fondamentales pour l'algèbre linéaire, l'infographie, l'apprentissage automatique, l'ingénierie et la science des données.
| Fonctionnement | Obligation à remplir | Dimensions du résultat |
|---|---|---|
| Ajout / Soustraction | Les mêmes dimensions (mxn) | le mxn |
| Multiplication scalaire | N'importe quelle matrice | Le même que l'entrée |
| Multiplication par matrices | A est mxn, B est nxp | le mxp |
| Transposer le texte | N'importe quelle matrice mxn | Nxm |
| Déterminant | Matrice carrée (nxn) | Valeur scalaire unique |
| À l'inverse | Carré, non singulier | Nom et adresse: |
La multiplication par matrices estpas commutatif: AxB ≠ BxA en général. La matrice d'identité (I) a 1s sur la diagonale et 0s ailleurs; multiplier n'importe quelle matrice par I renvoie la matrice d'origine. Les matrices sont utilisées dans les graphiques 3D pour les transformations de rotation, d'échelle et de translation appliquées à chaque sommet d'une scène.
Quel est le déterminant d'une matrice 2x2?
Pour la matrice [[a, b], [c, d], le déterminant = ad - bc. Si le déterminant est 0, la matrice n'a pas d'inverse (elle est singulière).
Quelle est la transpose d'une matrice ?
La transposition échange les lignes et les colonnes: la ligne i devient la colonne i. Une matrice 3x2 devient 2x3 après la transposition.
À quoi sert la multiplication matricielle ?
Les transformations linéaires (rotation, cisaillement, échelle dans les graphiques), la résolution de systèmes d'équations, les calculs de poids des réseaux neuronaux, les transitions d'état de la chaîne de Markov et les calculs de covariance dans les statistiques.