Skip to main content
🔬 Advanced

Kalkulator Matriks – Determinan, Invers & Lainnya

Hitung determinan, invers, transpos, dan perkalian matriks. Mendukung matriks 2x2 dan 3x3. Alat matematika gratis ini memberikan hasil instan dan akurat.

Matriks Operasi: Penjumlahan dan Pengurangan

Matriks adalah sebuah array persegi panjang dari bilangan yang diatur dalam baris dan kolom. Matriks m × n memiliki m baris dan n kolom.

Penjumlahan dan pengurangan memerlukan matriks dengan dimensi yang sama. Tambah atau kurangi elemen yang sesuai:

Jika A = [[1, 2], [3, 4]] dan B = [[5, 6], [7, 8]], maka:

Penjumlahan matriks adalah komutatif (A + B = B + A) dan asosiatif ((A + B) + C = A + (B + C)).

Mulai Matriks

Operasi perkalian matriks lebih kompleks daripada operasi elemen. Untuk mengalikan A (m×n) dengan B (n×p), dimensi dalam harus cocok (n), menghasilkan matriks hasil C (m×p).

Setiap elemen C[i][j] = jumlah dari A[i][k] × B[k][j] untuk semua k.

Contoh: A = [[1, 2], [3, 4]] (2×2) × B = [[5, 6], [7, 8]] (2×2):

Hasil: C = [[19, 22], [43, 50]]

Sifat kunci: Perkalian matriks bukanlah komutatif — A×B ≠ B×A secara umum. Namun, itu ASOSIATIF: (A×B)×C = A×(B×C).

Determinan dan Invers Matriks 2×2

Determinan matriks 2×2 A = [[a, b], [c, d]] adalah: det(A) = ad − bc

Determinan menunjukkan apakah matriks dapat dibalik (det ≠ 0) dan mewakili faktor skala transformasi.

Invers matriks 2×2 (hanya ada jika det ≠ 0):

A⁻¹ = (1/det) × [[d, −b], [−c, a]]

Contoh: A = [[1, 2], [3, 4]]
det = 1×4 − 2×3 = 4 − 6 = −2
A⁻¹ = (1/−2) × [[4, −2], [−3, 1]] = [[−2, 1], [1,5, −0,5]]

Verifikasi: A × A⁻¹ = Matriks Identitas [[1,0],[0,1]]

Aplikasi Praktis Matriks

Matriks merupakan dasar dari banyak aplikasi dunia nyata:

Determinan dan Ekspansi Kofaktor Matriks 3×3

Untuk matriks 3×3, determinan dihitung menggunakan ekspansi kofaktor (juga disebut ekspansi Laplace). Diberikan:

Kolom 1Kolom 2Kolom 3
Baris 1abc
Baris 2def
Baris 3ghi

Determinan adalah: det = a(ei − fh) − b(di − fg) + c(dh − eg)

Contoh kerja: A = [[2, 1, 3], [0, −1, 2], [4, 0, 1]]

Untuk matriks yang lebih besar (4×4, 5×5, dll.), metode ekspansi kofaktor menjadi mahal secara komputasional (n! operasi). Dalam prakteknya, komputer menggunakan dekomposisi LU atau pengurangan baris untuk menghitung determinan dalam waktu O(n³).

Nilai Eigen dan Vektor Eigen

Nilai Eigen adalah salah satu konsep yang paling penting dalam aljabar linear. Untuk sebuah matriks persegi A, nilai eigen λ dan vektor eigen yang terkait memenuhi: A·v = λ·v — matriks mengubah vektor eigen dengan hanya memperbesar (tidak berputar).

Untuk menemukan nilai eigen dari matriks 2×2 A = [[a, b], [c, d]], cari persamaan karakteristik: det(A − λI) = 0

Ini memberikan: (a − λ)(d − λ) − bc = 0, atau: λ² − (a+d)λ + (ad − bc) = 0

Term (a+d) adalah jejak matriks, dan (ad − bc) adalah deternminan.

Contoh: A = [[4, 2], [1, 3]]

Dimana nilai eigen muncul dalam praktek:

LapanganAplikasiApa yang Nilai Eigen Representasikan
Ilmu data (PCA)Penurunan dimensiVariansi yang dijelaskan oleh setiap komponen utama
Ilmu mesinAnalisis getaranFrekuensi alami dari struktur
Ilmu kuantumObservasi ukuranHasil pengukuran yang mungkin
Google PageRankPeringkat halaman webProbabilitas kestabilan setiap halaman
Biologi populasiModel matriks LeslieLaiknya pertumbuhan populasi
Sistem kontrolAnalisis stabilitasStabilitas sistem (nilai eigen negatif = stabil)

Mengatasi Sistem Persamaan Linear dengan Matriks

Salah satu penggunaan praktis dari matriks adalah mengatasi sistem persamaan linear. Sistem persamaan dapat ditulis dalam bentuk matriks sebagai Ax = b, di mana A adalah matriks koefisien, x adalah vektor variabel, dan b adalah vektor konstanta.

Contoh sistem:

Bentuk matriks: A = [[2, 3], [4, −1]], x = [[x], [y]], b = [[8], [2]]

Solusi menggunakan invers: x = A⁻¹ · b

Aturan Cramer adalah metode lainnya: untuk setiap variabel, gantikan kolomnya di matriks koefisien dengan vektor konstanta dan bagi hasil determinan yang dihasilkan dengan determinan asli. Untuk contoh di atas:

Untuk sistem besar (n > 3), Eliminasi Gauss (penurunan baris) lebih efisien komputasional daripada inversi matriks atau Aturan Cramer dan merupakan algoritma standar yang digunakan oleh komputer.

Referensi Tipe Matriks Khusus

Tipe matriks yang berbeda memiliki sifat-sifat unik yang memudahkan perhitungan dan muncul secara umum dalam aplikasi tertentu:

Tipe MatriksDefinisiSifat UtamaPenggunaan Umum
Identitas (I)1s pada diagonal, 0s di tempat lainAI = IA = AElemen netral dalam perkalian
DiagonalHanya non-nol pada diagonalMudah diinvers (1/setiap entri diagonal)Transformasi skala
SimetrisA = AᵀSemua nilai eigen adalah realMatriks kovarians, fisika
OrtogonalA⁻¹ = AᵀMenyimpan panjang dan sudutMatriks rotasi dalam grafis 3D
Triangular AtasSemua entri di bawah diagonal = 0det = produk entri diagonalHasil eliminasi Gauss
Triangular BawahSemua entri di atas diagonal = 0det = produk entri diagonalDecomposisi Cholesky
JarangMayoritas entri nolPenyimpanan/algoritma khususGrup jaringan, simulasi FEM
Definit PositifSemua nilai eigen > 0Mewakili produk dalamOptimasi (matriks Hessian)
StokastikMewakili transisi probabilitasMarkov, PageRank

Pemahaman tentang tipe matriks membantu memilih algoritma yang tepat. Misalnya, jika Anda tahu bahwa matriksnya simetris positif definit, dekomposisi Cholesky dua kali lebih cepat daripada dekomposisi LU umum untuk menyelesaikan sistem linear.

Transformasi Matriks dalam Grafis Komputer

Dalam grafis komputer 3D dan pengembangan permainan, setiap objek di layar diposisikan, diputar, dan diskala menggunakan operasi matriks. Pendekatan standar menggunakan matriks transformasi 4×4 (koordinat homogen) yang menggabungkan translasi, rotasi, dan skala menjadi satu kali perkalian matriks:

TransformasiMatriks 2D (3×3)Effek
Translasi oleh (tx, ty)[[1, 0, tx], [0, 1, ty], [0, 0, 1]]Menggerakkan objek ke posisi baru
Skala oleh (sx, sy)[[sx, 0, 0], [0, sy, 0], [0, 0, 1]]Mengubah ukuran objek
Rotasi oleh θ[[cos θ, −sin θ, 0], [sin θ, cos θ, 0], [0, 0, 1]]Menggulung sekitar asal
Refleksi (sumbu x)[[1, 0, 0], [0, −1, 0], [0, 0, 1]]Miror di sekitar sumbu x
Shear (arah x)[[1, k, 0], [0, 1, 0], [0, 0, 1]]Membengkokkan objek secara horizontal

GPU modern (unit proses grafis) secara efektif adalah mesin perkalian matriks paralel massal. Frame video game biasanya memerlukan jutaan perkalian matriks per detik — mengubah vertex, menghitung pencahayaan, memproyeksikan skenario 3D ke koordinat layar 2D. Ini juga mengapa GPU sangat efektif untuk pelatihan AI/ML: jaringan saraf adalah operasi matriks besar, dan arsitektur GPU dioptimalkan untuk jenis komputasi ini.

Alur rendering: Setiap vertex dalam model 3D melewati rantai perkalian matriks: Matriks Model (mengatur objek di dunia) → Matriks View (mengatur kamera) → Matriks Proyeksi (mengubah 3D ke koordinat layar 2D). Tiga matriks ini sering kali dikalikan menjadi satu MVP matriks untuk efisiensi.

Pengurangan Baris (Eliminasi Gauss) Langkah demi Langkah

Eliminasi Gauss adalah algoritma yang paling umum digunakan untuk menyelesaikan sistem persamaan linear, menghitung determinan, dan menemukan invers matriks. Tujuan adalah untuk mengubah matriks menjadi form baris ekuivalen (triangular atas) menggunakan tiga operasi baris dasar:

  1. Tukar dua baris
  2. Mengalikan baris dengan skalar tidak nol
  3. Tambahkan beberapa kali satu baris ke baris lain

Contoh kerja — penyelesaian: x + 2y + z = 9, 2x − y + 3z = 8, 3x + y − z = 2

Matriks yang diperluas:

xyz|b
R1121|9
R22−13|8
R331−1|2

Langkah 1: R2 ← R2 − 2×R1: [0, −5, 1 | −10]

Langkah 2: R3 ← R3 − 3×R1: [0, −5, −4 | −25]

Langkah 3: R3 ← R3 − R2: [0, 0, −5 | −15]

Sekarang dalam bentuk baris ekuivalen. Kembali-substitusi: z = −15/−5 = 3; y = (−10 − 1×3)/−5 = −13/−5 = 2,6; x = 9 − 2(2,6) − 3 = 0,8

Solusi: x = 0,8, y = 2,6, z = 3. Verifikasi dengan menggantikan kembali ke persamaan asli.

Eliminasi Gauss memiliki kompleksitas waktu O(n³) dan merupakan dasar dari sebagian besar perangkat lunak aljabar linear, termasuk MATLAB, NumPy, dan LAPACK. Untuk sistem sangat besar yang jarang (jutaan variabel), metode iteratif seperti gradient konjugat lebih efisien.

Matriks dalam Machine Learning dan Data Science

Belajar machine learning modern didasarkan pada operasi matriks. Memahami matriks sangat penting bagi siapa pun yang bekerja di AI, data science, atau deep learning:

Forward pass neural network: Setiap lapisan jaringan saraf melakukan perkalian matriks diikuti oleh fungsi aktivasi. Untuk lapisan dengan vektor input x (n×1), matriks bobot W (m×n), dan vektor bias b (m×1): output = aktivasi(W·x + b). Jaringan saraf dalam dengan 10 lapis melakukan 10 perkalian matriks seperti itu per inferensi.

Latihan (backpropagation) melibatkan menghitung gradien melalui aturan rantai — yang diimplementasikan sebagai beberapa transposisi dan perkalian matriks bekerja mundur melalui jaringan. Gradien kehilangan terhadap setiap matriks bobot dihitung untuk memperbarui bobot.

Operasi MLOperasi Matriks yang DigunakanUkuran Biasa
Klasifikasi gambar (CNN)Convolution (perkalian matriks geser)Input: 224×224×3; Filter: 3×3×64
Model bahasa (Transformer)Perhatian = softmax(QKᵀ/√d)·VQ, K, V: (seq_len × d_model)
Sistem rekomendasiFactorisasi matriks (SVD)Pengguna × Item (jutaan × jutaan, jarang)
PCA / penurunan dimensiDecomposisi eigenvector matriks kovariansFitur × Fitur
Regresi linearβ = (XᵀX)⁻¹Xᵀy (persamaan normal)Contoh × Fitur

Model bahasa besar seperti GPT-4 mengandung ratusan miliar parameter yang diorganisir dalam matriks bobot. Latihan melibatkan mengalikan matriks dengan miliaran elemen — ini adalah mengapa latihan model AI besar memerlukan ribuan GPU berjalan secara paralel selama mingguan, dengan biaya melebihi $100 juta. Revolusi AI seluruhnya, pada intinya, adalah latihan matriks sangat besar, sangat cepat.

Mistake-Mistake Umum dan Cara Menghindarinya

Siswa dan praktisi sering membuat kesalahan-kesalahan ini ketika bekerja dengan matriks:

MistakeKenapa SalahApproach yang Benar
Asumsi AB = BAMatriks perkalian bukan komutatifSelalu verifikasi urutan; AB ≠ BA secara umum
Menggunakan matriks ukuran berbedaPertambahan memerlukan dimensi yang samaCek dimensi terlebih dahulu: kedua harus sama ukuran m×n
Lupa memeriksa det ≠ 0 sebelum menginversMatriks singular tidak memiliki inversSelalu hitung determinan terlebih dahulu
Mengacaukan baris dan kolom dalam perkalianA(m×n) × B(n×p) = C(m×p); dimensi dalam harus sesuaiTulis dimensi secara eksplisit; cek match inner
Menggunakan distribusi secara salah: (A+B)² ≠ A²+2AB+B²Karena AB ≠ BA, ekspansi binomial tidak berlaku(A+B)² = A² + AB + BA + B²
Asumsi (AB)⁻¹ = A⁻¹B⁻¹Inversi membalikan urutan(AB)⁻¹ = B⁻¹A⁻¹ (balik urutan)

Habitan yang paling penting ketika bekerja dengan matriks: selalu tuliskan dimensi setiap matriks sebelum melakukan operasi. Ini menangkap kesalahan dimensi yang tidak sesuai secara langsung dan membuat hasil yang diharapkan dimensi jelas sebelum Anda mulai menghitung.

FAQ

Apakah matriks identitas?

Matriks identitas adalah matriks persegi dengan 1 di diagonal utama dan 0 di tempat lain. Untuk identitas 2×2: [[1,0],[0,1]]. Mengalikan matriks A dengan matriks identitas akan mengembalikan A — itu adalah matriks setara dengan mengalikan dengan 1.

Bisakah Anda mengalikan matriks 3×2 dengan matriks 2×4?

Ya — dimensi dalam sesuai (2). Hasilnya adalah matriks 3×4 (dimensi luar). Aturan: Anda dapat mengalikan matriks m×n dengan matriks n×p; hasilnya adalah m×p. Jika dimensi dalam tidak sesuai, perkalian tidak dapat ditentukan.

Apakah yang dimaksud dengan matriks singular?

Matriks singular memiliki determinan 0 dan tidak memiliki invers. Geometris, transformasi singular "mengempur" ruang — mengurangi bidang 2D ke garis, atau ruang 3D ke bidang. Matriks singular muncul dalam sistem persamaan dengan tidak ada solusi unik (atau tidak ada solusi atau banyak solusi).

Apakah transpose matriks?

Transpose matriks A (ditulis Aᵀ) diperoleh dengan membalikkan baris dan kolom. Jika A = [[1,2,3],[4,5,6]], maka Aᵀ = [[1,4],[2,5],[3,6]]. Matriks m×n menjadi n×m ketika ditranspose.

Operasi Matriks: Apa yang Dapat Dihitung

Matriks adalah array persegi panjang dari bilangan yang diatur dalam baris dan kolom. Operasi matriks adalah dasar linear algebra, grafis komputer, pembelajaran mesin, teknik, dan ilmu data.

OperasiRequirementDimensi hasil
Pertambahan / PenguranganDimensi sama (m×n)m×n
Pertambahan skalarMatriks apa sajaSama seperti input
Perkalian matriksA adalah m×n, B adalah n×pm×p
TransposeMatriks apa saja m×nn×m
DeterminanMatriks persegi (n×n)Nilai skalar tunggal
InversPersegi, tidak singularn×n

Perkalian matriks tidak komutatif: A×B ≠ B×A secara umum. Matriks identitas (I) memiliki 1 di diagonal utama dan 0 di tempat lain; mengalikan matriks apa saja dengan I akan mengembalikan matriks asli. Matriks digunakan dalam grafis 3D untuk transformasi rotasi, skala, dan translasi yang diterapkan pada setiap titik dalam scene.

Apakah determinan matriks 2×2?

Untuk matriks [[a, b], [c, d]], determinan = ad − bc. Jika determinan 0, matriks tidak memiliki invers (sangat singular).

Apakah transpose matriks?

Transpose matriks A (ditulis Aᵀ) diperoleh dengan membalikkan baris dan kolom: baris i menjadi kolom i. Matriks 3×2 menjadi 2×3 setelah transposisi.

Apakah perkalian matriks digunakan untuk?

Transformasi linear (rotasi, geser, skala dalam grafis), menyelesaikan sistem persamaan, perhitungan bobot jaringan saraf, transisi rantai Markov, dan perhitungan kovarians dalam statistik.