Pengguna:Kekavigi/bak pasir: Perbedaan antara revisi

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Konten dihapus Konten ditambahkan
k ~
k ~
Baris 1: Baris 1:
Dalam [[aljabar linear]], sebuah '''minor''' dari matriks <math>\mathbf{A}</math> adalah [[determinan]] dari beberapa [[matriks persegi]] kecil, yang dibentuk dengan menghapus satu atau lebih baris dan kolom matriks <math>\mathbf{A}</math>. Minor yang diperoleh dengan hanya menghapus satu baris dan satu kolom dari matriks persegi ('''minor pertama''') diperlukan untuk menghitung matriks '''kofaktor''', yang pada gilirannya berguna untuk menghitung determinan dan [[Matriks yang dapat dibalik|invers]] dari matriks persegi.
{{Short description|Ruang vektor yang dihasilkan dari kombinasi linear elemen-elemen di suatu himpunan}}
[[Berkas:Basis_for_a_plane.svg|jmpl|Bidang yang direntang oleh vektor '''u''' dan '''v''' di '''R'''<sup>3</sup>.]]
Dalam [[aljabar linear]], '''rentang linear''' atau '''span''' dari sebarang [[Himpunan (matematika)|himpunan]] <math>S</math> berisi [[Vektor Euklides|vektor-vektor]] (yang berasal dari suatu ruang vektor) adalah himpunan semua [[kombinasi linear]] dari vektor-vektor di <math>S.</math><ref>{{Harvard citation text|Axler|2015}} p. 29, § 2.7</ref> Rentang linear dari <math>S</math> umum disimbolkan dengan <math>\text{span}(S).</math><ref name=":0">{{Harvard citation text|Axler|2015}} pp. 29-30, §§ 2.5, 2.8</ref> Sebagai contoh, dua vektor yang saling [[Kebebasan linear|bebas linear]] akan merentang suatu [[Bidang (geometri)|bidang]]. Rentang dapat dikarakterisasikan<!-- istilah 'dikarakterisasikan' secara praktis sama saja dengan istilah 'didefinisikan', namun saya ragu untuk menggunakan padanan ini. --kekavigi --> sebagai [[Irisan (teori himpunan)|irisan]] dari semua [[Subruang vektor|subruang (vektor)]] yang mengandung <math>S,</math> maupun sebagai subruang yang mengandung <math>S.</math> Alhasil, rentang dari himpunan vektor menghasilkan suatu ruang vektor. Rentang dapat diperumum untuk [[matroid]] dan [[Modul (matematika)|modul]].


== Definisi dan ilustrasi ==
Untuk menyatakan bahwa suatu ruang vektor <math>V</math> adalah rentang linear dari subset <math>S,</math> beberapa pernyataan berikut umum digunakan: <math>S</math> merentang <math>V,</math> <math>S</math> adalah ''himpunan merentang'' dari <math>V,</math> <math>V</math> direntang/dibangkitkan oleh <math>S,</math> atau <math>S</math> adalah [[Pembangkit (matematika)|pembangkit]] atau himpunan pembangkit dari <math>V.</math>


== Definisi ==
=== Minor pertama ===
Jika <math>\mathbf{A}</math> adalah sebuah matriks persegi, maka ''minor'' dari entri dalam baris ke-<math>i</math> dan kolom ke-<math>j</math> adalah [[determinan]] dari [[Matriks (matematika)#Submatriks|submatriks]] dibentuk dengan menghapus baris ke-<math>i</math> dan kolom ke-<math>j</math>. Determinan ini juga disebut dengan ''minor'' <math>(i,j)</math>, atau sebuah ''minor pertama<ref>Burnside, William Snow & Panton, Arthur William (1886) ''[https://books.google.com/books?id=BhgPAAAAIAAJ&pg=PA239 Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form]''.</ref>''. Bilangan ini seringkali dilambangkan <math>M_{i,j}</math>. ''Kofaktor'' <math>(i,j)</math> diperoleh dengan mengalikan minor oleh <math>(-1)^{i+j}</math>.
Untuk sebarang [[ruang vektor]] <math>V</math> atas [[Lapangan (matematika)|lapangan]] <math>K,</math> rentang dari suatu himpunan <math>S</math> yang beranggotakan vektor-vektor (tidak harus berhingga) didefinisikan sebagai irisan <math>W</math> dari semua [[Subruang vektor|subruang]] dari <math>V</math> yang mengandung <math>S.</math> Irisan <math>W</math> disebut sebagai subruang yang ''direntang oleh'' <math>S,</math> atau oleh vektor-vektor di <math>S.</math> Kebalikannya, <math>S</math> disebut ''himpunan merentang'' dari <math>W</math>, dan kita katakan <math>S</math> ''merentang <math>W.</math>''


Untuk mengilustrasikan definisi-definisi ini, tinjau matriks 3 kali 3 berikut,
Rentang dari <math>S</math> juga dapat didefinisikan sebagai himpunan dari semua [[kombinasi linear]] terhingga dari vektor-vektor di <math>S.</math><ref>{{Harvard citation text|Hefferon|2020}} p. 100, ch. 2, Definition 2.13</ref><ref name=":02">{{Harvard citation text|Axler|2015}} pp. 29-30, §§ 2.5, 2.8</ref><ref>{{Harvard citation text|Roman|2005}} pp. 41-42</ref><ref>{{Harvard citation text|MathWorld|2021}} Vector Space Span.</ref> Secara matematis, ini dituliskan sebagai<math display="block"> \operatorname{span}(S) = \left \{ {\left.\sum_{i=1}^k \lambda_i \mathbf v_i \;\right|\; k \in \N, \mathbf v_i \in S, \lambda _i \in K} \right \}.</math>Pada kasus <math>S</math> berukuran tak-hingga, syarat kombinasi linear yang tak-terhingga (yakni, keadaan ketika kombinasi menggunakan konsep penjumlahan tak-hingga, dengan mengasumsikan penjumlahan seperti itu dapat didefinisikan) tidak disertakan dalam definisi.


: <math>\begin{bmatrix}
== Contoh ==
\,\,\,1 & 4 & 7 \\
Ruang vektor [[Bilangan riil|riil]] <math>\mathbb R^3</math> dapat direntang oleh himpunan <math>\{(-1,0,0),\,(0,1,0),\,(0,0,1)\} </math>. Himpunan ini juga merupakan suatu [[Basis (aljabar linear)|basis]] dari <math>\mathbb R^3</math>. Jika <math>(-1,0,0)</math> digantikan dengan <math>(1,0,0)</math>, himpunan tersebut merupakan [[Basis (aljabar linear)|basis standar]] dari <math>\mathbb R^3</math>. Contoh himpunan pembangkit lain dari <math>\mathbb R^3</math> adalah <math>\{(1,2,3),\, (0, 1, 2),\, (-1, \tfrac{1}{2}, 3),\, (1, 1, 1)\}</math>, namun himpunan ini bukan basis karena bersifat [[Kebebasan linear|bergantung linear]].
\,\,\,3 & 0 & 5 \\
-1 & 9 & \!11 \\
\end{bmatrix}</math>


Untuk menghitung minor <math>M_{2,3}</math> dan kofaktor <math>C_{2,3}</math>, kita perlu menemukan determinan dari matriks yang baris ke-2 dan kolom ke-3-nya telah dihapus.
Himpunan <math>\{(1, 0, 0),\,(0, 1, 0),\,(1,1,0)\}</math> bukan himpunan merentang dari <math>\mathbb R^3</math>, karena rentangnya adalah subruang semua vektor di <math>\mathbb R^3</math> yang komponen terakhirnya bernilai <math>0.</math> Subruang tersebut juga direntang oleh himpunan <math>\{(1,0,0),\,(0,1,0)\}, </math> karena <math>(1,1,0)</math> adalah kombinasi linear dari <math>(1,0,0)</math> dan <math>(0,1,0).</math>


: <math> M_{2,3} = \det \begin{bmatrix}
Himpunan kosong adalah himpunan merentang dari <math>\{(0, 0, 0)\}, </math> karena himpunan kosong adalah subset dari semua subruang vektor yang mungkin di <math>\mathbb R^3,</math> dan <math>\{(0, 0, 0)\} </math> adalah irisan dari semua subruang tersebut.
\,\,1 & 4 & \Box\, \\
\,\Box & \Box & \Box\, \\
-1 & 9 & \Box\, \\
\end{bmatrix}= \det \begin{bmatrix}
\,\,\,1 & 4\, \\
-1 & 9\, \\
\end{bmatrix} = (9-(-4)) = 13</math>


Jadi kofaktor dari entri <math>(2,3)</math> adalah
Himpunan semua [[monomial]] <math>x^n,</math> dengan <math>n</math> adalah bilangan bulat non-negatif, merentang ruang [[polinomial]].


: <math>\ C_{2,3} = (-1)^{2+3}(M_{2,3}) = -13.</math>
== Teorema ==


=== Kesetaraan antar definisi ===
=== Definisi umum ===
Misalkan <math>\mathbf{A}</math> adalah sebuah matriks berukuran <math>m\times n</math> dan <math>k</math> adalah sebuah [[bilangan bulat]] dengan <math>0 < k \leq m</math>, dan <math>k \leq n</math>. Sebuah ''minor'' <math>k \times k</math> dari <math>\mathbf{A}</math> adalah determinan dari sebuah matriks berukuran <math>k \times k</math> yang diperoleh dengan menghapus <math>(m-k)</math> baris dan <math>(n-k)</math> kolom dari ''<math>\mathbf{A}</math>''. Determinan ini juga disebut ''determinan minor dengan orde <math>k</math> dari <math>\mathbf{A}</math>'', atau jika <math>m = n</math>, disebut dengan ''determinan minor ke-''<math>(n-k)</math> dari ''<math>\mathbf{A}</math>'' (kata "determinan" seringkali dihilangkan, dan kata "derajat" terkadang digunakan sebagai pengganti "orde"). Terkadang istilah ini digunakan untuk merujuk ke matriks <math>k \times k</math> yang diperoleh dari ''<math>\mathbf{A}</math>'' dengan cara di atas (yakni dengan menghapus <math>(m-k)</math> baris dan <math>(n-k)</math> kolom), tetapi matriks ini harus dirujuk ke determinan dari matriks ini<!--Terjemahan kalimat ini membingungkan --Kekavigi-->.
Untuk sebarang ruang vektor <math>V</math> atas lapangan <math>K,</math> himpunan semua kombinasi linear dari subset <math>S</math> dari <math>V,</math> adalah subruang terkecil dari <math>V</math> yang mengandung <math>S.</math>


Untuk matriks ''<math>\mathbf{A}</math>'' di atas, terdapat <math>{m \choose k} \cdot {n \choose k}</math> minor berukuran <math>k \times k</math>. ''Minor dengan orde nol'' sering didefinisikan bernilai <math>1</math>. Pada kasus matriks persegi, ''minor ke-nol'' hanyalah determinan dari matriks.<ref name="Hohn2">Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, {{isbn|978-0-02-355950-1}}</ref><ref name="Encyclopedia of Mathematics3">{{cite book|url=http://www.encyclopediaofmath.org/index.php?title=Minor&oldid=30176|title=Encyclopedia of Mathematics|chapter=Minor}}</ref>
: ''Bukti.'' Pertama kita tunjukkan bahwa <math>\text{span}(S)</math> adalah subruang dari <math>V.</math> Karena <math>S</math> adalah subset dari <math>V,</math> kita cukup membuktikan bahwa vektor <math>\mathbf 0</math> anggota dari <math>\text{span}(S), </math> bahwa <math>\text{span}(S)</math> dibawah penjumlahan, dan bahwa <math>\text{span}(S)</math> tertutup dibawah perkalian skalar. Misalkan <math>S = \{ \mathbf v_1, \mathbf v_2, \ldots, \mathbf v_n \}</math>, mudah ditunjukkan bahwa vektor nol di <math>V</math> ada di <math>\text{span}(S), </math> karena <math>\mathbf 0 = 0 \mathbf v_1 + 0 \mathbf v_2 + \cdots + 0 \mathbf v_n. </math> Menjumlahkan sebarang dua kombinasi linear dari <math>S</math> akan menghasilkan kombinasi linear dari <math>S:</math><math display="block">(\lambda_1 \mathbf v_1 + \cdots + \lambda_n \mathbf v_n) + (\mu_1 \mathbf v_1 + \cdots + \mu_n \mathbf v_n) = (\lambda_1 + \mu_1) \mathbf v_1 + \cdots + (\lambda_n + \mu_n) \mathbf v_n,</math>dengan semua <math>\lambda_i, \mu_i \in K</math>, dan mengalikan sebarang kombinasi linear dari <math>S</math> dengan sebarang skalar <math>c \in K</math> akan menghasilkan kombinasi linear dari <math>S:</math> <math display="block">c(\lambda_1 \mathbf v_1 + \cdots + \lambda_n \mathbf v_n) = c\lambda_1 \mathbf v_1 + \cdots + c\lambda_n \mathbf v_n. </math>Alhasil, <math>\text{span}(S)</math> adalah subruang dari <math>V.</math>


Misalkan <math>1 \le i_1 < i_2 < \cdots < i_k \le m</math> dan <math>1 \le j_1 < j_2 < \cdots < j_k \le n</math> adalah suatu barisan terurut<ref>dengan urutan alami, asumsi yang umum digunakan ketika berbicara tentang minor, kecuali dinyatakan lain.</ref> dari indeks, sebut mereka masing-masing sebagai <math>I </math> dan <math>J</math>. Terdapat beberapa notasi untuk menyebut minor<math display="block">\det \left( (A_{i_p, j_q})_{p,q = 1, \ldots, k} \right)</math>yang berkorespondensi dengan pilihan-pilihan dari indeks ini. Tergantung pada sumber yang digunakan, notasi untuk minor tersebut adalah <math>\det_{I,J} A</math>, <math>[A]_{I,J}</math>, <math>M_{I,J}</math>, <math>M_{i_1, i_2, \ldots, i_k, j_1, j_2, \ldots, j_k}</math>, atau <math>M_{(i),(j)}</math> (dengan <math>(i)</math> melambangkan barisan indeks <math>I </math>, dan seterusnya). Juga, terdapat dua tipe dari denotasi-denotasi digunakan dalam literaturː dengan minor dikaitkan ke barisan yang diurutkan dari indeks <math>I </math> dan <math>J</math>, beberapa penulis<ref>Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, {{isbn|978-3-642-30993-9}}</ref> bermaksud determinan dari matriks yang dibentuk seperti di atas, dengan mengambil anggota-anggota dari matriks asli dari baris yang indeksnya ada di <math>I </math> dan kolom yang indeksnya ada di <math>J</math>, sedangkan beberapa penulis lainnya bermaksud dengan sebuah minor dikaitkan ke <math>I </math> dan <math>J</math> determinan dari matriks dibentuk dari matriks asli dengan menghapuskan baris dalam <math>I </math> dan kolom dalam <math>J</math>.<ref name="Hohn2" /> Yang notasinya digunakan seharusnya selalui diperiksa dari sumber dalam pertanyaan. Dalam artikel ini, kita menggunakan definisi yang inklusif dalam memilih anggota-anggota dari baris <math>I </math> dan kolom <math>J</math>. Kasus luar biasanya adalah kasus dari minor pertama atau minor ke-<math>(i,j)</math> dijelaskan di atas; dalam kasus itu, notasi yang eksklusif <math>M_{i,j} = \det \left( \left( A_{p,q} \right)_{p \neq i, q \neq j} \right)</math> standar di mana-mana di literatur dan digunakan dalam artikel ini juga.
: Misalkan <math>W</math> adalah subruang <math>V</math> yang mengandung <math>S.</math> Perhatikan bahwa <math>S \subseteq \operatorname{span} S,</math> karena semua <math>\mathbf{v}_i</math> merupakan kombinasi linear dari <math>S</math> (secara langsung). Karena <math>W</math> tertutup dibawah penjumlahan dan perkalian skalar, maka setiap kombinasi linear <math>\lambda_1 \mathbf v_1 + \cdots + \lambda_n \mathbf v_n</math> harus berada di <math>W.</math> Akibatnya, <math>\text{span}(S)</math> terkandung di semua subruang dari <math>V</math> yang mengandung <math>S.</math> Lebih lanjut, irisan semua subruang tersebut, yakni subruang terkecil, sama dengan himpunan semua kombinasi linear dari <math>S.</math>


=== Komplemen ===
=== Kardinalitas himpunan merentang setidaknya sebesar himpunan bebas linear ===
Komplemen, <math>B_{ijk\dots,pqr\dots}</math>, dari sebuah minor <math>M_{ijk\dots,pqr\dots}</math>, dari sebuah matriks persegi, <math>\mathbf{A} </math>, dibentuk oleh determinan dari matriks <math>\mathbf{A} </math> dari mana semua baris <math>(ijk\dots)</math> dan kolom <math>(pqr\dots)</math> dikaitkan dengan <math>M_{ijk\dots,pqr\dots}</math> telah dihapus. Komplemen dari minor pertama dari sebuah anggota <math>a_{ij}</math> hanyalah anggota itu.<ref>Bertha Jeffreys, [https://books.google.co.uk/books?id=Qs-xdYBQ_5wC&pg=PA135 ''Methods of Mathematical Physics''], p.135, Cambridge University Press, 1999 {{isbn|0-521-66402-0}}.</ref>
Sebarang himpunan <math>S</math> yang merentang ruang vektor <math>V</math> harus memiliki anggota setidaknya sebanyak jumlah anggota pada sebarang himpunan [[bebas linear]] dari <math>V.</math>


== Penerapan minor dan kofaktor ==
: ''Bukti.'' Misalkan <math>S = \{ \mathbf v_1, \ldots, \mathbf v_m \}</math> adalah suatu himpunan merentang dan <math>W = \{ \mathbf w_1, \ldots, \mathbf w_n \}</math> adalah himpunan vektor-vektor yang saling bebas linear di <math>V.</math> Kita akan menunjukkan bahwa <math>m \geq n.</math>


=== Ekspansi kofaktor dari determinan ===
: Karena <math>S</math> merentang <math>V,</math> maka <math>S \cup \{ \mathbf w_1 \}</math> juga harus merentang <math>V,</math> dan <math>\mathbf w_1</math> harus merupakan hasil kombinasi linear dari <math>S.</math> Akibatnya <math>S \cup \{ \mathbf w_1 \}</math> bergantung linear, dan kita dapat membuat satu vektor dari <math>S</math> yang dapat dinyatakan sebagai kombinasi anggota <math>S</math> lainnya. Vektor ini tidak mungkin <math>\mathbf{w}_i</math> karena <math>W</math> bebas linear. Himpunan yang dihasilkan proses ini adalah <math>\{ \mathbf w_1, \mathbf v_1, \ldots, \mathbf v_{i-1}, \mathbf v_{i+1}, \ldots, \mathbf v_m \},</math> yang merupakan himpunan merentang bagi <math>V.</math> Kita ulangi proses ini sebanyak <math>n</math> kali, yang tahap ke-<math>p</math>-nya akan menghasilkan himpunan hasil gabungan <math>\{ \mathbf w_1, \ldots, \mathbf w_p \}</math> dan <math>m-p</math> vektor dari <math>S.</math>
Fitur kofaktor secara mencolok dalam [[Ekspansi Laplace|rumus Laplace]] untuk ekspansi dari determinan-determinan, yang sebuah metode dari penghitungan determinan lebih besar dalam hal yang lebih kecil. Diberikan sebuah matriks <math>n \times n</math> yaitu <math>A = (a_{ij})</math>, determinan <math>A</math>, dilambangkan <math>\det{(A)}</math>, bisa ditulis sebagai penjumlahan dari kofaktor-kofaktor dari setiap baris dan kolom dari matriks dikalikan dengan entri-entri yang dihasilkan mereka. Dengan kata lain, mendefinisikan <math>C_{ij} = (-1)^{i+j}M_{ij}</math> maka ekspansi kofaktor sepanjang kolom ke-<math>j </math> memberikanː


Ekspansi kofaktor sepanjang baris ke-<math>i </math> memberikanː
: Dapat dipastikan sampai tahap ke-<math>n</math>, akan selalu ada suatu <math>\mathbf{v}_i</math> untuk dibuang dari <math>S</math>
: It is ensured until the {{mvar|n}}th step that there will always be some {{math|'''v'''<sub>''i''</sub>}} to remove out of {{mvar|S}} for every adjoint of {{math|'''v'''}}, and thus there are at least as many {{math|'''v'''<sub>''i''</sub>}}'s as there are {{math|'''w'''<sub>''i''</sub>}}'s—i.e. <math>m \geq n</math>. To verify this, we assume by way of contradiction that <math>m < n</math>. Then, at the {{mvar|m}}th step, we have the set <math>\{ \mathbf w_1, \ldots, \mathbf w_m \}</math> and we can adjoin another vector <math>\mathbf w_{m+1}</math>. But, since <math>\{ \mathbf w_1, \ldots, \mathbf w_m \}</math> is a spanning set of {{mvar|V}}, <math>\mathbf w_{m+1}</math> is a linear combination of <math>\{ \mathbf w_1, \ldots, \mathbf w_m \}</math>. This is a contradiction, since {{mvar|W}} is linearly independent.


: <math>\ \det(\mathbf A) = a_{i1}C_{i1} + a_{i2}C_{i2} + a_{i3}C_{i3} + \cdots + a_{in}C_{in} = \sum_{j=1}^{n} a_{ij} C_{ij} =\sum_{j=1}^{n} a_{ij} (-1)^{i+j} M_{ij} </math>
=== Himpunan merentang dapat disederhanakan menjadi suatu basis ===
Let {{mvar|V}} be a finite-dimensional vector space. Any set of vectors that spans {{mvar|V}} can be reduced to a [[Basis (linear algebra)|basis]] for {{mvar|V}}, by discarding vectors if necessary (i.e. if there are linearly dependent vectors in the set). If the [[axiom of choice]] holds, this is true without the assumption that {{mvar|V}} has finite dimension. This also indicates that a basis is a minimal spanning set when {{mvar|V}} is finite-dimensional.


=== Invers dari sebuah matriks ===
== Perumuman ==
Salah satunya bisa menuliskan invers dari [[Matriks yang dapat dibalik|matriks invertible]] dengan menghitung kofaktor-kofaktor dengan menggunakan [[aturan Cramer]], seperti berikut. Matriks dibentuk oleh semua dari kofaktor-kofaktor dari sebuah matriks persegi <math>\mathbf{A} </math> disebut ''matriks kofaktor'' (juga disebut ''matriks dari kofaktor atau komatriks'')ː
Generalizing the definition of the span of points in space, a subset {{mvar|X}} of the ground set of a [[matroid]] is called a spanning set if the rank of {{mvar|X}} equals the rank of the entire ground set{{Citation needed|date=May 2016}}.


: <math>\mathbf C=\begin{bmatrix}
The vector space definition can also be generalized to modules.<ref>{{Harvard citation text|Roman|2005}} p. 96, ch. 4</ref><ref>{{Harvard citation text|Lane|Birkhoff|1999}} p. 193, ch. 6</ref> Given an {{mvar|R}}-module {{mvar|A}} and a collection of elements {{math|''a''<sub>1</sub>}}, ..., {{math|''a<sub>n</sub>''}} of {{mvar|A}}, the [[submodule]] of {{mvar|A}} spanned by {{math|''a''<sub>1</sub>}}, ..., {{math|''a<sub>n</sub>''}} is the sum of [[Cyclic module|cyclic modules]]<math display="block">Ra_1 + \cdots + Ra_n = \left\{ \sum_{k=1}^n r_k a_k \bigg| r_k \in R \right\}</math>consisting of all ''R''-linear combinations of the elements {{math|''a<sub>i</sub>''}}. As with the case of vector spaces, the submodule of ''A'' spanned by any subset of ''A'' is the intersection of all submodules containing that subset.
C_{11} & C_{12} & \cdots & C_{1n} \\
C_{21} & C_{22} & \cdots & C_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
C_{n1} & C_{n2} & \cdots & C_{nn}
\end{bmatrix} </math>


Maka invers dari <math>\mathbf{A} </math> transpose dari matriks kofaktor dikali kebalikan dari determinan <math>A</math>ː
== Catatan kaki ==
<references responsive="" />


: <math>\mathbf A^{-1} = \frac{1}{\operatorname{det}(\mathbf A)} \mathbf C^\mathsf{T}.</math>
== Daftar pustaka ==


Transpose dari matriks kofaktor disebut matriks [[adjugat]] (juga disebut ''adjoin klasik'') dari <math>\mathbf{A} </math>.
=== Buku ===


Rumus di atas bisa dihaislkan sebagai berikut. Misalkan <math>1 \le i_1 < i_2 < \ldots < i_k \le n</math> dan menjadi <math>1 \le j_1 < j_2 < \ldots < j_k \le n</math> barisan urutan (dalam urutan alami) dari indeks (disini <math>\mathbf{A} </math> adalah sebuat matriks <math>n \times n </math>). Maka<ref name="Prasolov1994">{{cite book|author=Viktor Vasil_evich Prasolov|date=13 June 1994|url=https://books.google.com/books?id=b4yKAwAAQBAJ&pg=PR15|title=Problems and Theorems in Linear Algebra|publisher=American Mathematical Soc.|isbn=978-0-8218-0236-6|pages=15–}}</ref>
* {{Cite book|last=Axler|first=Sheldon Jay|year=2015|title=Linear Algebra Done Right|publisher=[[Springer Science+Business Media | Springer]]|isbn=978-3-319-11079-0|edition=3rd|author-link=Sheldon Axler}}
* {{Cite book|last=Hefferon|first=Jim|year=2020|title=Linear Algebra|publisher=Orthogonal Publishing|isbn=978-1-944325-11-4|edition=4th|author-link=Jim Hefferon}}
* {{Cite book|last1=Lane|first1=Saunders Mac|last2=Birkhoff|first2=Garrett|year=1999|title=Algebra|publisher=[[American Mathematical Society|AMS Chelsea Publishing]]|isbn=978-0821816462|edition=3rd|author-link=Saunders Mac Lane|author-link2=Garrett Birkhoff|orig-year=1988}}
* {{Cite book|last=Roman|first=Steven|year=2005|title=Advanced Linear Algebra|publisher=[[Springer Science+Business Media|Springer]]|isbn=0-387-24766-1|edition=2nd|author-link=Steven Roman}}
* {{Cite book|last1=Rynne|first1=Brian P.|last2=Youngson|first2=Martin A.|year=2008|title=Linear Functional Analysis|location=|publisher=Springer|isbn=978-1848000049|pages=}}
* Lay, David C. (2021) ''Linear Algebra and Its Applications (6th Edition)''. Pearson.


: <math>[\mathbf A^{-1}]_{I,J} = \pm\frac{[\mathbf A]_{J',I'}}{\det \mathbf A},</math>
=== Situs ===


di mana <math>I'</math> dan <math>J'</math> melambangkan barisan urutan dari indeks (indeks dalam urutan besar yang wajar, seperti di atas) melengkapi <math>I</math>, <math>J </math>, sehingga setiap indeks <math>1,\dots,n </math> muncul tepat sekali di salah satu <math>I</math> atau <math>I'</math>, tapi tidak di keduanya (demikian pula untuk <math>J </math> dan <math>J'</math>) dan <math>[\mathbf A]_{I,J}</math> melambangkan determinan dari submatriks <math>\mathbf{A} </math> dibentuk dengan memilih baris dari himpunan indeks <math>I</math> dan kolom dari himpunan indeks <math>J </math>. Juga <math>[\mathbf A]_{I,J} = \det \left( (A_{i_p, j_q})_{p,q = 1, \ldots, k} \right)</math>. Sebuah bukti sederhana bisa diberikan menggunakan produk wedge. Tentunya,
* {{cite web|last1=Lankham|first1=Isaiah|last2=Nachtergaele|first2=Bruno|author2-link=Bruno Nachtergaele|date=13 February 2010|title=Linear Algebra - As an Introduction to Abstract Mathematics|url=https://www.math.ucdavis.edu/~anne/linear_algebra/mat67_course_notes.pdf|publisher=University of California, Davis|access-date=27 September 2011|last3=Schilling|first3=Anne|author3-link=Anne Schilling}}

* {{Cite web|last=Weisstein|first=Eric Wolfgang|author-link=Eric W. Weisstein|title=Vector Space Span|url=https://mathworld.wolfram.com/VectorSpaceSpan.html|website=[[MathWorld]]|access-date=16 Feb 2021|ref=CITEREFMathWorld2021}}
: <math>[\mathbf A^{-1}]_{I,J}(e_1\wedge\ldots \wedge e_n) = \pm(\mathbf A^{-1}e_{j_1})\wedge \ldots \wedge(\mathbf A^{-1}e_{j_k})\wedge e_{i'_1}\wedge\ldots \wedge e_{i'_{n-k}}, </math>
* {{Cite web|date=5 April 2020|title=Linear hull|url=https://encyclopediaofmath.org/wiki/Linear_hull|website=[[Encyclopedia of Mathematics]]|access-date=16 Feb 2021|ref=CITEREFEncyclopedia_of_Mathematics2020}}

di mana <math>e_1,\dots,e_n</math> adalah vektor basis. Tindakan oleh <math>\mathbf{A} </math> ada kedua sisi, salah satunya mendapatkan

: <math>[\mathbf A^{-1}]_{I,J}\det \mathbf A (e_1\wedge\ldots \wedge e_n) = \pm (e_{j_1})\wedge \ldots \wedge(e_{j_k})\wedge (\mathbf A e_{i'_1})\wedge\ldots \wedge (\mathbf A e_{i'_{n-k}})=\pm [\mathbf A]_{J',I'}(e_1\wedge\ldots \wedge e_n). </math>

Tandanya bisa berhasil menjadi <math>(-1)^{ \sum_{s=1}^{k} i_s - \sum_{s=1}^{k} j_s}</math>, jadi tandanya dideterminasikan oleh penjumlahan-penjumlahan pada anggota-anggota di <math>I </math> dan <math>J </math>.

=== Penerapan lainnya ===
Diberikan sebuah matriks <math>m \times n</math> dengan entri-entri [[Bilangan riil|real]] (atau entri-entri dari setiap [[Medan (matematika)|bidang]] lainnya) dan [[Rank (teori matriks)|rank]] <math>r</math>, maka terdapat setidaknya satu minor <math>r \times r</math> tak nol, sementara semua minor-minor yang besar adalah nol.

Kita akan menggunakan notasi berikut untuk minor. Jika <math>\mathbf{A} </math> adalah sebuah matriks <math>m \times n</math>, <math>I </math> adalah [[himpunan bagian]] dari <math>\{1,\dots,m\}</math> dengan anggota <math>k </math>, dan <math>J </math> adalah himpunan bagian dari <math>\{1,\dots,n\}</math> dengan anggota <math>k </math>, maka kita menulis <math>\left[A\right]_{I,J}</math> untuk minor <math>k \times k </math> pada <math>\mathbf{A} </math> yang sesuai dengan baris dengan indeks dalam <math>I </math> dan kolom dengan indeks dalam <math>J </math>.

* Jika <math>I = J</math>, maka <math>\left[A\right]_{I,J}</math> disebut ''minor utama''.
* Jika matriks yang sesuai dengan minor utama adalah kuadrat bagian atas-kiri dari matriks yang besar (yaitu, itu terdiri dari anggota-anggota matriks dalam baris-baris dan kolom-kolom dari <math>1 </math> hingga <math>k </math>), maka minor utama disebut sebuah ''minor utama terkemuka (dari urutan <math>k </math>) atau minor sudut (utama) (dari urutan <math>k </math>)''.<ref name="Encyclopedia of Mathematics3" /> Untuk sebuah matriks persegi <math>n \times n </math>, terdapat minor utama terkemuka <math>n</math>.
* Sebuah ''minor dasar'' dari sebuah matriks adalah determinan dari sebuah submatriks persegi yang dari ukuran maksimal dengan determinan tidak nol.<ref name="Encyclopedia of Mathematics3" />
* Untuk [[matriks Hermite]], minor utama terkemuka bisa digunakan untuk menguji [[Matriks positif-tentu|ketentuan positif]] dan minor utama bisa digunakan untuk menguji [[Matriks positif-kesemitentuan|kesemitentuan positif]]. Lihat [[kriteria Sylvester]] untuk detail lebih lanjut.

Kedua rumus untuk [[perkalian matriks]] biasa dan [[rumus Cauchy–Binet]] untuk determinan dari produk dua matriks adalah kasus spesial dari pernyataan umum berikut tentang minor-minor dari sebuah produk dua matriks. Andaikan <math>\mathbf{A} </math> adalah sebuah matriks <math>m \times n</math>, <math>\mathbf{B} </math> adalah sebuah matriks <math>n \times p</math>, <math>I </math> adalah [[himpunan bagian]] dari <math>\{1,\dots,m\}</math> dengan anggota <math>k </math> dan <math>J </math> adalah himpunan bagian dari <math>\{1,\dots,p\}</math> dengan anggota <math>k </math>. Maka

: <math>[\mathbf{AB}]_{I,J} = \sum_{K} [\mathbf{A}]_{I,K} [\mathbf{B}]_{K,J}\,</math>

di mana penjumlahan meluas ke semua himpunan bagian <math>K</math> dari <math>\{1,\dots,n\}</math> dengan anggota <math>k </math>. Rumus ini merupakan sebuah ekstensi langsung dari rumus Cauchy–Binet.

== Pendekatan aljabar multilinear ==
Lebih sistematis, perlakuan aljabar dari minor-minor diberikan dalam [[aljabar multilinear]], menggunakan [[Aljabar eksterior|produk wedge]], minor-<math>k </math> dari sebuah matriks adalah entri-entri dalam pemetaan [[Aljabar eksterior|pangkat eksterior]] ke-<math>k </math>.

Jika kolom-kolom dari sebuah matriks terjepit bersama <math>k </math> pada satu waktu, minor <math>k \times k </math> muncul sebagai komponen-komponen dari hasil vektor <math>k </math>. Sebagai contoh, minor <math>2 \times 2</math> dari matriks

: <math>\begin{pmatrix}
1 & 4 \\
3 & \!\!-1 \\
2 & 1 \\
\end{pmatrix}</math>

adalah <math>-13</math> (dari dua baris pertama), <math>-7</math> (dari baris pertama dan terakhir), dan <math>5</math> (dari dua baris terakhir). Sekarang tinjau produk wedge

: <math>(\mathbf{e}_1 + 3\mathbf{e}_2 +2\mathbf{e}_3)\wedge(4\mathbf{e}_1-\mathbf{e}_2+\mathbf{e}_3)</math>

di mana kedua ekspresi sesuai dengan dua kolom dari matriks kita. Menggunakan sifat-sifat dari produk wedge, yaitu [[Pemetaan bilinear|bilinear]] dan [[Pemetaan multilinear bergantian|bergantian]],

: <math>\mathbf{e}_i\wedge \mathbf{e}_i = 0,</math>

dan [[Sifat antikomutatif|antisimteris]]

: <math>\mathbf{e}_i\wedge \mathbf{e}_j = - \mathbf{e}_j\wedge \mathbf{e}_i,</math>

kita bisa menyederhanakan ekspresi ini menjadi

: <math> -13 \mathbf{e}_1\wedge \mathbf{e}_2 -7 \mathbf{e}_1\wedge \mathbf{e}_3 +5 \mathbf{e}_2\wedge \mathbf{e}_3</math>

di mana koefisien sesuai dengan minor-minor yang ditung sebelumnya.

== Sebuah komentar tentang notasi yang berbeda ==
Dalam beberapa buku, daripada ''kofaktor'' , istilah ''adjunct'' digunakan.<ref>[[Felix Gantmacher]], ''Theory of matrices'' (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,</ref> Bahkan, ini dilambangkan sebagai <math>\mathbf{A}_{ij}</math> dan didefiniskan dalam cara yang sama sebagai kofaktorː

:: <math>\mathbf{A}_{ij} = (-1)^{i+j} \mathbf{M}_{ij}</math>

Menggunaan notasi ini, invers matriks ditulis dengan cara ini.

: <math>\mathbf{M}^{-1} = \frac{1}{\det(M)}\begin{bmatrix}
A_{11} & A_{21} & \cdots & A_{n1} \\
A_{12} & A_{22} & \cdots & A_{n2} \\
\vdots & \vdots & \ddots & \vdots \\
A_{1n} & A_{2n} & \cdots & A_{nn}
\end{bmatrix} </math>

Ingat bahwa ''adjunct'' bukanlah [[adjugat]] atau [[Adjugat|adjoin]]. Dalam termonologi modern, "adjoin" dari sebuah matriks paling sering mengacu pada yang sesuai, [[Adjoin Hermitian|operator adjoin]].

== Lihat pula ==

* [[Matriks (matematika)#Submatriks|Submatriks]]

== Referensi ==
<references group="" responsive="1"></references>


== Pranala luar ==
== Pranala luar ==


* [http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/video-lectures/lecture-19-determinant-formulas-and-cofactors/ MIT Linear Algebra Lecture on Cofactors] at Google Video, from MIT OpenCourseWare
* [https://www.khanacademy.org/math/linear-algebra/vectors_and_spaces/linear_combinations/v/linear-combinations-and-span Linear Combinations and Span: Understanding linear combinations and spans of vectors], khanacademy.org.
* [http://planetmath.org/encyclopedia/Cofactor.html PlanetMath entry of ''Cofactors''] {{Webarchive|url=https://web.archive.org/web/20120408004640/http://planetmath.org/encyclopedia/Cofactor.html|date=2012-04-08}}
* {{Cite web|last=Sanderson|first=Grant|author-link=3Blue1Brown|date=August 6, 2016|title=Linear combinations, span, and basis vectors|url=https://www.youtube.com/watch?v=k7RM-ot2NWY&list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab&index=3|series=Essence of Linear Algebra|archive-url=https://ghostarchive.org/varchive/youtube/20211211/k7RM-ot2NWY|archive-date=2021-12-11|via=[[YouTube]]|url-status=live}}{{cbignore}}
* [http://www.encyclopediaofmath.org/index.php/Minor Springer Encyclopedia of Mathematics entry for ''Minor'']


---

{{Short description|Determinant of a subsection of a square matrix}}{{About|a concept in linear algebra|the concept of "minor" in graph theory|Graph minor}}
In [[linear algebra]], a '''minor''' of a [[Matrix (mathematics)|matrix]] '''A''' is the [[determinant]] of some smaller [[square matrix]], cut down from '''A''' by removing one or more of its rows and columns. Minors obtained by removing just one row and one column from square matrices ('''first minors''') are required for calculating matrix '''cofactors''', which in turn are useful for computing both the determinant and [[Inverse matrix|inverse]] of square matrices. The requirement that the square matrix be smaller than the original matrix is often omitted in the definition.

== Definition and illustration ==

=== First minors ===
If '''A''' is a square matrix, then the ''minor'' of the entry in the ''i''{{Hair space}}th row and ''j''{{Hair space}}th column (also called the (''i'', ''j'') ''minor'', or a ''first minor''<ref>Burnside, William Snow & Panton, Arthur William (1886) ''[https://books.google.com/books?id=BhgPAAAAIAAJ&pg=PA239 Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form]''.</ref>) is the [[determinant]] of the [[submatrix]] formed by deleting the ''i''{{Hair space}}th row and ''j''{{Hair space}}th column. This number is often denoted ''M<sub>i,j</sub>''. The (''i'', ''j'') ''cofactor'' is obtained by multiplying the minor by <math>(-1)^{i+j}</math>.

To illustrate these definitions, consider the following 3 by 3 matrix,

: <math>\begin{bmatrix}
1 & 4 & 7 \\
3 & 0 & 5 \\
-1 & 9 & 11 \\
\end{bmatrix}</math>

To compute the minor ''M''<sub>2,3</sub> and the cofactor ''C''<sub>2,3</sub>, we find the determinant of the above matrix with row 2 and column 3 removed.

: <math> M_{2,3} = \det \begin{bmatrix}
1 & 4 & \Box \\
\Box & \Box & \Box \\
-1 & 9 & \Box \\
\end{bmatrix}= \det \begin{bmatrix}
1 & 4 \\
-1 & 9 \\
\end{bmatrix} = 9-(-4) = 13</math>

So the cofactor of the (2,3) entry is

: <math>\ C_{2,3} = (-1)^{2+3}(M_{2,3}) = -13.</math>

=== General definition ===
Let '''A''' be an ''m''&#x2009;×&#x2009;''n'' matrix and ''k'' an [[integer]] with 0 < ''k'' ≤ ''m'', and ''k'' ≤ ''n''. A ''k''&#x2009;×&#x2009;''k'' ''minor'' of '''A''', also called ''minor determinant of order k'' of '''A''' or, if ''m'' = ''n'', (''n''−''k'')''th minor determinant'' of '''A''' (the word "determinant" is often omitted, and the word "degree" is sometimes used instead of "order") is the determinant of a ''k''&#x2009;×&#x2009;''k'' matrix obtained from '''A''' by deleting ''m''−''k'' rows and ''n''−''k'' columns. Sometimes the term is used to refer to the ''k''&#x2009;×&#x2009;''k'' matrix obtained from '''A''' as above (by deleting ''m''−''k'' rows and ''n''−''k'' columns), but this matrix should be referred to as a ''(square) submatrix'' of '''A''', leaving the term "minor" to refer to the determinant of this matrix. For a matrix '''A''' as above, there are a total of <math display="inline">{m \choose k} \cdot {n \choose k}</math> minors of size ''k''&#x2009;×&#x2009;''k''. The ''minor of order zero'' is often defined to be 1. For a square matrix, the ''zeroth minor'' is just the determinant of the matrix.<ref name="Hohn">Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, {{isbn|978-0-02-355950-1}}</ref><ref name="Encyclopedia of Mathematics">{{cite book|url=http://www.encyclopediaofmath.org/index.php?title=Minor&oldid=30176|title=Encyclopedia of Mathematics|chapter=Minor}}</ref>

Let <math>1 \le i_1 < i_2 < \cdots < i_k \le m</math> and <math>1 \le j_1 < j_2 < \cdots < j_k \le n</math> be ordered sequences (in natural order, as it is always assumed when talking about minors unless otherwise stated) of indexes, call them ''I'' and ''J'', respectively. The minor <math display="inline">\det \left( (A_{i_p, j_q})_{p,q = 1, \ldots, k} \right)</math> corresponding to these choices of indexes is denoted <math>\det_{I,J} A</math> or <math>\det A_{I, J}</math> or <math>[A]_{I,J}</math> or <math>M_{I,J}</math> or <math>M_{i_1, i_2, \ldots, i_k, j_1, j_2, \ldots, j_k}</math> or <math>M_{(i),(j)}</math> (where the <math>(i)</math> denotes the sequence of indexes ''I'', etc.), depending on the source. Also, there are two types of denotations in use in literature: by the minor associated to ordered sequences of indexes ''I'' and ''J'', some authors<ref>Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, {{isbn|978-3-642-30993-9}}</ref> mean the determinant of the matrix that is formed as above, by taking the elements of the original matrix from the rows whose indexes are in ''I'' and columns whose indexes are in ''J'', whereas some other authors mean by a minor associated to ''I'' and ''J'' the determinant of the matrix formed from the original matrix by deleting the rows in ''I'' and columns in ''J''.<ref name="Hohn" /> Which notation is used should always be checked from the source in question. In this article, we use the inclusive definition of choosing the elements from rows of ''I'' and columns of ''J''. The exceptional case is the case of the first minor or the (''i'', ''j'')-minor described above; in that case, the exclusive meaning <math display="inline">M_{i,j} = \det \left( \left( A_{p,q} \right)_{p \neq i, q \neq j} \right)</math> is standard everywhere in the literature and is used in this article also.

=== Complement ===
The complement, ''B<sub>ijk...,pqr...</sub>'', of a minor, ''M<sub>ijk...,pqr...</sub>'', of a square matrix, '''A''', is formed by the determinant of the matrix '''A''' from which all the rows (''ijk...'') and columns (''pqr...'') associated with ''M<sub>ijk...,pqr...</sub>'' have been removed. The complement of the first minor of an element ''a<sub>ij</sub>'' is merely that element.<ref>Bertha Jeffreys, [https://books.google.com/books?id=Qs-xdYBQ_5wC&pg=PA135 ''Methods of Mathematical Physics''], p.135, Cambridge University Press, 1999 {{isbn|0-521-66402-0}}.</ref>

== Applications of minors and cofactors ==

=== Cofactor expansion of the determinant ===
{{main|Laplace expansion}}
The cofactors feature prominently in [[Laplace expansion|Laplace's formula]] for the expansion of determinants, which is a method of computing larger determinants in terms of smaller ones. Given an {{nowrap|''n''&thinsp;×&thinsp;''n''}} matrix <math>A = (a_{ij})</math>, the determinant of ''A'', denoted det(''A''), can be written as the sum of the cofactors of any row or column of the matrix multiplied by the entries that generated them. In other words, defining <math>C_{ij} = (-1)^{i+j} M_{ij}</math> then the cofactor expansion along the ''j''{{Hair space}}th column gives:

: <math>\ \det(\mathbf A) = a_{1j}C_{1j} + a_{2j}C_{2j} + a_{3j}C_{3j} + \cdots + a_{nj}C_{nj} = \sum_{i=1}^{n} a_{ij} C_{ij} = \sum_{i=1}^{n} a_{ij}(-1)^{i+j} M_{ij} </math>

The cofactor expansion along the ''i''{{Hair space}}th row gives:

: <math>\ \det(\mathbf A) = a_{i1}C_{i1} + a_{i2}C_{i2} + a_{i3}C_{i3} + \cdots + a_{in}C_{in} = \sum_{j=1}^{n} a_{ij} C_{ij} =\sum_{j=1}^{n} a_{ij} (-1)^{i+j} M_{ij} </math>

=== Inverse of a matrix ===
{{main|Invertible matrix}}
One can write down the inverse of an [[invertible matrix]] by computing its cofactors by using [[Cramer's rule]], as follows. The matrix formed by all of the cofactors of a square matrix '''A''' is called the '''cofactor matrix''' (also called the '''matrix of cofactors''' or, sometimes, ''comatrix''):

: <math>\mathbf C=\begin{bmatrix}
C_{11} & C_{12} & \cdots & C_{1n} \\
C_{21} & C_{22} & \cdots & C_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
C_{n1} & C_{n2} & \cdots & C_{nn}
\end{bmatrix} </math>

Then the inverse of '''A''' is the transpose of the cofactor matrix times the reciprocal of the determinant of ''A'':

: <math>\mathbf A^{-1} = \frac{1}{\operatorname{det}(\mathbf A)} \mathbf C^\mathsf{T}.</math>

The transpose of the cofactor matrix is called the [[adjugate]] matrix (also called the ''classical adjoint'') of '''A'''.

The above formula can be generalized as follows: Let <math>1 \le i_1 < i_2 < \ldots < i_k \le n</math> and <math>1 \le j_1 < j_2 < \ldots < j_k \le n</math> be ordered sequences (in natural order) of indexes (here '''A''' is an ''n''&#x2009;×&#x2009;''n'' matrix). Then<ref name="Prasolov19942">{{cite book|author=Viktor Vasil_evich Prasolov|date=13 June 1994|url=https://books.google.com/books?id=b4yKAwAAQBAJ&pg=PR15|title=Problems and Theorems in Linear Algebra|publisher=American Mathematical Soc.|isbn=978-0-8218-0236-6|pages=15–}}</ref>

: <math>[\mathbf A^{-1}]_{I,J} = \pm\frac{[\mathbf A]_{J',I'}}{\det \mathbf A},</math>

where ''I′'', ''J′'' denote the ordered sequences of indices (the indices are in natural order of magnitude, as above) complementary to ''I'', ''J'', so that every index 1, ..., ''n'' appears exactly once in either ''I'' or ''I′'', but not in both (similarly for the ''J'' and ''J′'') and <math>[\mathbf A]_{I,J}</math> denotes the determinant of the submatrix of '''A''' formed by choosing the rows of the index set ''I'' and columns of index set ''J''. Also, <math>[\mathbf A]_{I,J} = \det \left( (A_{i_p, j_q})_{p,q = 1, \ldots, k} \right)</math>. A simple proof can be given using wedge product. Indeed,

: <math>[\mathbf A^{-1}]_{I,J}(e_1\wedge\ldots \wedge e_n) = \pm(\mathbf A^{-1}e_{j_1})\wedge \ldots \wedge(\mathbf A^{-1}e_{j_k})\wedge e_{i'_1}\wedge\ldots \wedge e_{i'_{n-k}}, </math>

where <math>e_1, \ldots, e_n</math> are the basis vectors. Acting by '''A''' on both sides, one gets

: <math>[\mathbf A^{-1}]_{I,J}\det \mathbf A (e_1\wedge\ldots \wedge e_n) = \pm (e_{j_1})\wedge \ldots \wedge(e_{j_k})\wedge (\mathbf A e_{i'_1})\wedge\ldots \wedge (\mathbf A e_{i'_{n-k}})=\pm [\mathbf A]_{J',I'}(e_1\wedge\ldots \wedge e_n). </math>

The sign can be worked out to be <math>(-1)^{ \sum_{s=1}^{k} i_s - \sum_{s=1}^{k} j_s}</math>, so the sign is determined by the sums of elements in ''I'' and ''J''.

=== Other applications ===
Given an ''m''&#x2009;×&#x2009;''n'' matrix with [[Real number|real]] entries (or entries from any other [[Field (mathematics)|field]]) and [[Rank (matrix theory)|rank]] ''r'', then there exists at least one non-zero ''r''&#x2009;×&#x2009;''r'' minor, while all larger minors are zero.

We will use the following notation for minors: if '''A''' is an ''m''&#x2009;×&#x2009;''n'' matrix, ''I'' is a [[subset]] of {1,...,''m''} with ''k'' elements, and ''J'' is a subset of {1,...,''n''} with ''k'' elements, then we write ['''A''']<sub>''I'',''J''</sub> for the {{nowrap|''k''&thinsp;×&thinsp;''k''}} minor of '''A''' that corresponds to the rows with index in ''I'' and the columns with index in ''J''.

* If ''I'' = ''J'', then ['''A''']<sub>''I'',''J''</sub> is called a ''principal minor''.
* If the matrix that corresponds to a principal minor is a square upper-left [[Matrix (mathematics)#Submatrix|submatrix]] of the larger matrix (i.e., it consists of matrix elements in rows and columns from 1 to ''k'', also known as a leading principal submatrix), then the principal minor is called a ''leading principal minor (of order k)'' or ''corner (principal) minor (of order k)''.<ref name="Encyclopedia of Mathematics" /> For an ''n''&#x2009;×&#x2009;''n'' square matrix, there are ''n'' leading principal minors.
* A ''basic minor'' of a matrix is the determinant of a square submatrix that is of maximal size with nonzero determinant.<ref name="Encyclopedia of Mathematics" />
* For [[Hermitian matrix|Hermitian matrices]], the leading principal minors can be used to test for [[Positive-definite matrix|positive definiteness]] and the principal minors can be used to test for [[Positive-semidefinite matrix|positive semidefiniteness]]. See [[Sylvester's criterion]] for more details.

Both the formula for ordinary [[matrix multiplication]] and the [[Cauchy–Binet formula]] for the determinant of the product of two matrices are special cases of the following general statement about the minors of a product of two matrices. Suppose that '''A''' is an ''m''&#x2009;×&#x2009;''n'' matrix, '''B''' is an ''n''&#x2009;×&#x2009;''p'' matrix, ''I'' is a [[subset]] of {1,...,''m''} with ''k'' elements and ''J'' is a subset of {1,...,''p''} with ''k'' elements. Then

: <math>[\mathbf{AB}]_{I,J} = \sum_{K} [\mathbf{A}]_{I,K} [\mathbf{B}]_{K,J}\,</math>

where the sum extends over all subsets ''K'' of {1,...,''n''} with ''k'' elements. This formula is a straightforward extension of the Cauchy–Binet formula.

== Multilinear algebra approach ==
A more systematic, algebraic treatment of minors is given in [[multilinear algebra]], using the [[wedge product]]: the ''k''-minors of a matrix are the entries in the ''k''th [[exterior power]] map.

If the columns of a matrix are wedged together ''k'' at a time, the ''k''&#x2009;×&#x2009;''k'' minors appear as the components of the resulting ''k''-vectors. For example, the 2&#x2009;×&#x2009;2 minors of the matrix

: <math>\begin{pmatrix}
1 & 4 \\
3 & \!\!-1 \\
2 & 1 \\
\end{pmatrix}</math>

are −13 (from the first two rows), −7 (from the first and last row), and 5 (from the last two rows). Now consider the wedge product

: <math>(\mathbf{e}_1 + 3\mathbf{e}_2 +2\mathbf{e}_3)\wedge(4\mathbf{e}_1-\mathbf{e}_2+\mathbf{e}_3)</math>

where the two expressions correspond to the two columns of our matrix. Using the properties of the wedge product, namely that it is [[Bilinear map|bilinear]] and [[Alternating multilinear map|alternating]],

: <math>\mathbf{e}_i\wedge \mathbf{e}_i = 0,</math>

and [[Anticommutativity|antisymmetric]],

: <math>\mathbf{e}_i\wedge \mathbf{e}_j = - \mathbf{e}_j\wedge \mathbf{e}_i,</math>

we can simplify this expression to

: <math> -13 \mathbf{e}_1\wedge \mathbf{e}_2 -7 \mathbf{e}_1\wedge \mathbf{e}_3 +5 \mathbf{e}_2\wedge \mathbf{e}_3</math>

where the coefficients agree with the minors computed earlier.

== A remark about different notation ==
In some books, instead of ''cofactor'' the term ''adjunct'' is used.<ref>[[Felix Gantmacher]], ''Theory of matrices'' (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,</ref> Moreover, it is denoted as '''A'''<sub>''ij''</sub> and defined in the same way as cofactor:

:: <math>\mathbf{A}_{ij} = (-1)^{i+j} \mathbf{M}_{ij}</math>

Using this notation the inverse matrix is written this way:

: <math>\mathbf{M}^{-1} = \frac{1}{\det(M)}\begin{bmatrix}
A_{11} & A_{21} & \cdots & A_{n1} \\
A_{12} & A_{22} & \cdots & A_{n2} \\
\vdots & \vdots & \ddots & \vdots \\
A_{1n} & A_{2n} & \cdots & A_{nn}
\end{bmatrix} </math>

Keep in mind that ''adjunct'' is not [[adjugate]] or [[adjoint]]. In modern terminology, the "adjoint" of a matrix most often refers to the corresponding [[adjoint operator]].

== See also ==

* [[Submatrix]]
* [[Compound matrix]]

== References ==
{{reflist}}

== External links ==

* [http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/video-lectures/lecture-19-determinant-formulas-and-cofactors/ MIT Linear Algebra Lecture on Cofactors] at Google Video, from MIT OpenCourseWare
* [http://planetmath.org/encyclopedia/Cofactor.html PlanetMath entry of ''Cofactors'']
* [http://www.encyclopediaofmath.org/index.php/Minor Springer Encyclopedia of Mathematics entry for ''Minor'']
{{Aljabar linear}}
{{Aljabar linear}}
[[Kategori:Aljabar linear]]
[[Kategori:Aljabar linear]]

Revisi per 20 Maret 2024 12.01

Dalam aljabar linear, sebuah minor dari matriks adalah determinan dari beberapa matriks persegi kecil, yang dibentuk dengan menghapus satu atau lebih baris dan kolom matriks . Minor yang diperoleh dengan hanya menghapus satu baris dan satu kolom dari matriks persegi (minor pertama) diperlukan untuk menghitung matriks kofaktor, yang pada gilirannya berguna untuk menghitung determinan dan invers dari matriks persegi.

Definisi dan ilustrasi

Minor pertama

Jika adalah sebuah matriks persegi, maka minor dari entri dalam baris ke- dan kolom ke- adalah determinan dari submatriks dibentuk dengan menghapus baris ke- dan kolom ke-. Determinan ini juga disebut dengan minor , atau sebuah minor pertama[1]. Bilangan ini seringkali dilambangkan . Kofaktor diperoleh dengan mengalikan minor oleh .

Untuk mengilustrasikan definisi-definisi ini, tinjau matriks 3 kali 3 berikut,

Untuk menghitung minor dan kofaktor , kita perlu menemukan determinan dari matriks yang baris ke-2 dan kolom ke-3-nya telah dihapus.

Jadi kofaktor dari entri adalah

Definisi umum

Misalkan adalah sebuah matriks berukuran dan adalah sebuah bilangan bulat dengan , dan . Sebuah minor dari adalah determinan dari sebuah matriks berukuran yang diperoleh dengan menghapus baris dan kolom dari . Determinan ini juga disebut determinan minor dengan orde dari , atau jika , disebut dengan determinan minor ke- dari (kata "determinan" seringkali dihilangkan, dan kata "derajat" terkadang digunakan sebagai pengganti "orde"). Terkadang istilah ini digunakan untuk merujuk ke matriks yang diperoleh dari dengan cara di atas (yakni dengan menghapus baris dan kolom), tetapi matriks ini harus dirujuk ke determinan dari matriks ini.

Untuk matriks di atas, terdapat minor berukuran . Minor dengan orde nol sering didefinisikan bernilai . Pada kasus matriks persegi, minor ke-nol hanyalah determinan dari matriks.[2][3]

Misalkan dan adalah suatu barisan terurut[4] dari indeks, sebut mereka masing-masing sebagai dan . Terdapat beberapa notasi untuk menyebut minor

yang berkorespondensi dengan pilihan-pilihan dari indeks ini. Tergantung pada sumber yang digunakan, notasi untuk minor tersebut adalah , , , , atau (dengan melambangkan barisan indeks , dan seterusnya). Juga, terdapat dua tipe dari denotasi-denotasi digunakan dalam literaturː dengan minor dikaitkan ke barisan yang diurutkan dari indeks dan , beberapa penulis[5] bermaksud determinan dari matriks yang dibentuk seperti di atas, dengan mengambil anggota-anggota dari matriks asli dari baris yang indeksnya ada di dan kolom yang indeksnya ada di , sedangkan beberapa penulis lainnya bermaksud dengan sebuah minor dikaitkan ke dan determinan dari matriks dibentuk dari matriks asli dengan menghapuskan baris dalam dan kolom dalam .[2] Yang notasinya digunakan seharusnya selalui diperiksa dari sumber dalam pertanyaan. Dalam artikel ini, kita menggunakan definisi yang inklusif dalam memilih anggota-anggota dari baris dan kolom . Kasus luar biasanya adalah kasus dari minor pertama atau minor ke- dijelaskan di atas; dalam kasus itu, notasi yang eksklusif standar di mana-mana di literatur dan digunakan dalam artikel ini juga.

Komplemen

Komplemen, , dari sebuah minor , dari sebuah matriks persegi, , dibentuk oleh determinan dari matriks dari mana semua baris dan kolom dikaitkan dengan telah dihapus. Komplemen dari minor pertama dari sebuah anggota hanyalah anggota itu.[6]

Penerapan minor dan kofaktor

Ekspansi kofaktor dari determinan

Fitur kofaktor secara mencolok dalam rumus Laplace untuk ekspansi dari determinan-determinan, yang sebuah metode dari penghitungan determinan lebih besar dalam hal yang lebih kecil. Diberikan sebuah matriks yaitu , determinan , dilambangkan , bisa ditulis sebagai penjumlahan dari kofaktor-kofaktor dari setiap baris dan kolom dari matriks dikalikan dengan entri-entri yang dihasilkan mereka. Dengan kata lain, mendefinisikan maka ekspansi kofaktor sepanjang kolom ke- memberikanː

Ekspansi kofaktor sepanjang baris ke- memberikanː

Invers dari sebuah matriks

Salah satunya bisa menuliskan invers dari matriks invertible dengan menghitung kofaktor-kofaktor dengan menggunakan aturan Cramer, seperti berikut. Matriks dibentuk oleh semua dari kofaktor-kofaktor dari sebuah matriks persegi disebut matriks kofaktor (juga disebut matriks dari kofaktor atau komatriks

Maka invers dari transpose dari matriks kofaktor dikali kebalikan dari determinan ː

Transpose dari matriks kofaktor disebut matriks adjugat (juga disebut adjoin klasik) dari .

Rumus di atas bisa dihaislkan sebagai berikut. Misalkan dan menjadi barisan urutan (dalam urutan alami) dari indeks (disini adalah sebuat matriks ). Maka[7]

di mana dan melambangkan barisan urutan dari indeks (indeks dalam urutan besar yang wajar, seperti di atas) melengkapi , , sehingga setiap indeks muncul tepat sekali di salah satu atau , tapi tidak di keduanya (demikian pula untuk dan ) dan melambangkan determinan dari submatriks dibentuk dengan memilih baris dari himpunan indeks dan kolom dari himpunan indeks . Juga . Sebuah bukti sederhana bisa diberikan menggunakan produk wedge. Tentunya,

di mana adalah vektor basis. Tindakan oleh ada kedua sisi, salah satunya mendapatkan

Tandanya bisa berhasil menjadi , jadi tandanya dideterminasikan oleh penjumlahan-penjumlahan pada anggota-anggota di dan .

Penerapan lainnya

Diberikan sebuah matriks dengan entri-entri real (atau entri-entri dari setiap bidang lainnya) dan rank , maka terdapat setidaknya satu minor tak nol, sementara semua minor-minor yang besar adalah nol.

Kita akan menggunakan notasi berikut untuk minor. Jika adalah sebuah matriks , adalah himpunan bagian dari dengan anggota , dan adalah himpunan bagian dari dengan anggota , maka kita menulis untuk minor pada yang sesuai dengan baris dengan indeks dalam dan kolom dengan indeks dalam .

  • Jika , maka disebut minor utama.
  • Jika matriks yang sesuai dengan minor utama adalah kuadrat bagian atas-kiri dari matriks yang besar (yaitu, itu terdiri dari anggota-anggota matriks dalam baris-baris dan kolom-kolom dari hingga ), maka minor utama disebut sebuah minor utama terkemuka (dari urutan ) atau minor sudut (utama) (dari urutan ).[3] Untuk sebuah matriks persegi , terdapat minor utama terkemuka .
  • Sebuah minor dasar dari sebuah matriks adalah determinan dari sebuah submatriks persegi yang dari ukuran maksimal dengan determinan tidak nol.[3]
  • Untuk matriks Hermite, minor utama terkemuka bisa digunakan untuk menguji ketentuan positif dan minor utama bisa digunakan untuk menguji kesemitentuan positif. Lihat kriteria Sylvester untuk detail lebih lanjut.

Kedua rumus untuk perkalian matriks biasa dan rumus Cauchy–Binet untuk determinan dari produk dua matriks adalah kasus spesial dari pernyataan umum berikut tentang minor-minor dari sebuah produk dua matriks. Andaikan adalah sebuah matriks , adalah sebuah matriks , adalah himpunan bagian dari dengan anggota dan adalah himpunan bagian dari dengan anggota . Maka

di mana penjumlahan meluas ke semua himpunan bagian dari dengan anggota . Rumus ini merupakan sebuah ekstensi langsung dari rumus Cauchy–Binet.

Pendekatan aljabar multilinear

Lebih sistematis, perlakuan aljabar dari minor-minor diberikan dalam aljabar multilinear, menggunakan produk wedge, minor- dari sebuah matriks adalah entri-entri dalam pemetaan pangkat eksterior ke-.

Jika kolom-kolom dari sebuah matriks terjepit bersama pada satu waktu, minor muncul sebagai komponen-komponen dari hasil vektor . Sebagai contoh, minor dari matriks

adalah (dari dua baris pertama), (dari baris pertama dan terakhir), dan (dari dua baris terakhir). Sekarang tinjau produk wedge

di mana kedua ekspresi sesuai dengan dua kolom dari matriks kita. Menggunakan sifat-sifat dari produk wedge, yaitu bilinear dan bergantian,

dan antisimteris

kita bisa menyederhanakan ekspresi ini menjadi

di mana koefisien sesuai dengan minor-minor yang ditung sebelumnya.

Sebuah komentar tentang notasi yang berbeda

Dalam beberapa buku, daripada kofaktor , istilah adjunct digunakan.[8] Bahkan, ini dilambangkan sebagai dan didefiniskan dalam cara yang sama sebagai kofaktorː

Menggunaan notasi ini, invers matriks ditulis dengan cara ini.

Ingat bahwa adjunct bukanlah adjugat atau adjoin. Dalam termonologi modern, "adjoin" dari sebuah matriks paling sering mengacu pada yang sesuai, operator adjoin.

Lihat pula

Referensi

  1. ^ Burnside, William Snow & Panton, Arthur William (1886) Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form.
  2. ^ a b Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, ISBN 978-0-02-355950-1
  3. ^ a b c "Minor". Encyclopedia of Mathematics. 
  4. ^ dengan urutan alami, asumsi yang umum digunakan ketika berbicara tentang minor, kecuali dinyatakan lain.
  5. ^ Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, ISBN 978-3-642-30993-9
  6. ^ Bertha Jeffreys, Methods of Mathematical Physics, p.135, Cambridge University Press, 1999 ISBN 0-521-66402-0.
  7. ^ Viktor Vasil_evich Prasolov (13 June 1994). Problems and Theorems in Linear Algebra. American Mathematical Soc. hlm. 15–. ISBN 978-0-8218-0236-6. 
  8. ^ Felix Gantmacher, Theory of matrices (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,

Pranala luar


---

In linear algebra, a minor of a matrix A is the determinant of some smaller square matrix, cut down from A by removing one or more of its rows and columns. Minors obtained by removing just one row and one column from square matrices (first minors) are required for calculating matrix cofactors, which in turn are useful for computing both the determinant and inverse of square matrices. The requirement that the square matrix be smaller than the original matrix is often omitted in the definition.

Definition and illustration

First minors

If A is a square matrix, then the minor of the entry in the i th row and j th column (also called the (i, j) minor, or a first minor[1]) is the determinant of the submatrix formed by deleting the i th row and j th column. This number is often denoted Mi,j. The (i, j) cofactor is obtained by multiplying the minor by .

To illustrate these definitions, consider the following 3 by 3 matrix,

To compute the minor M2,3 and the cofactor C2,3, we find the determinant of the above matrix with row 2 and column 3 removed.

So the cofactor of the (2,3) entry is

General definition

Let A be an m × n matrix and k an integer with 0 < km, and kn. A k × k minor of A, also called minor determinant of order k of A or, if m = n, (nk)th minor determinant of A (the word "determinant" is often omitted, and the word "degree" is sometimes used instead of "order") is the determinant of a k × k matrix obtained from A by deleting mk rows and nk columns. Sometimes the term is used to refer to the k × k matrix obtained from A as above (by deleting mk rows and nk columns), but this matrix should be referred to as a (square) submatrix of A, leaving the term "minor" to refer to the determinant of this matrix. For a matrix A as above, there are a total of minors of size k × k. The minor of order zero is often defined to be 1. For a square matrix, the zeroth minor is just the determinant of the matrix.[2][3]

Let and be ordered sequences (in natural order, as it is always assumed when talking about minors unless otherwise stated) of indexes, call them I and J, respectively. The minor corresponding to these choices of indexes is denoted or or or or or (where the denotes the sequence of indexes I, etc.), depending on the source. Also, there are two types of denotations in use in literature: by the minor associated to ordered sequences of indexes I and J, some authors[4] mean the determinant of the matrix that is formed as above, by taking the elements of the original matrix from the rows whose indexes are in I and columns whose indexes are in J, whereas some other authors mean by a minor associated to I and J the determinant of the matrix formed from the original matrix by deleting the rows in I and columns in J.[2] Which notation is used should always be checked from the source in question. In this article, we use the inclusive definition of choosing the elements from rows of I and columns of J. The exceptional case is the case of the first minor or the (i, j)-minor described above; in that case, the exclusive meaning is standard everywhere in the literature and is used in this article also.

Complement

The complement, Bijk...,pqr..., of a minor, Mijk...,pqr..., of a square matrix, A, is formed by the determinant of the matrix A from which all the rows (ijk...) and columns (pqr...) associated with Mijk...,pqr... have been removed. The complement of the first minor of an element aij is merely that element.[5]

Applications of minors and cofactors

Cofactor expansion of the determinant

The cofactors feature prominently in Laplace's formula for the expansion of determinants, which is a method of computing larger determinants in terms of smaller ones. Given an n × n matrix , the determinant of A, denoted det(A), can be written as the sum of the cofactors of any row or column of the matrix multiplied by the entries that generated them. In other words, defining then the cofactor expansion along the j th column gives:

The cofactor expansion along the i th row gives:

Inverse of a matrix

One can write down the inverse of an invertible matrix by computing its cofactors by using Cramer's rule, as follows. The matrix formed by all of the cofactors of a square matrix A is called the cofactor matrix (also called the matrix of cofactors or, sometimes, comatrix):

Then the inverse of A is the transpose of the cofactor matrix times the reciprocal of the determinant of A:

The transpose of the cofactor matrix is called the adjugate matrix (also called the classical adjoint) of A.

The above formula can be generalized as follows: Let and be ordered sequences (in natural order) of indexes (here A is an n × n matrix). Then[6]

where I′, J′ denote the ordered sequences of indices (the indices are in natural order of magnitude, as above) complementary to I, J, so that every index 1, ..., n appears exactly once in either I or I′, but not in both (similarly for the J and J′) and denotes the determinant of the submatrix of A formed by choosing the rows of the index set I and columns of index set J. Also, . A simple proof can be given using wedge product. Indeed,

where are the basis vectors. Acting by A on both sides, one gets

The sign can be worked out to be , so the sign is determined by the sums of elements in I and J.

Other applications

Given an m × n matrix with real entries (or entries from any other field) and rank r, then there exists at least one non-zero r × r minor, while all larger minors are zero.

We will use the following notation for minors: if A is an m × n matrix, I is a subset of {1,...,m} with k elements, and J is a subset of {1,...,n} with k elements, then we write [A]I,J for the k × k minor of A that corresponds to the rows with index in I and the columns with index in J.

  • If I = J, then [A]I,J is called a principal minor.
  • If the matrix that corresponds to a principal minor is a square upper-left submatrix of the larger matrix (i.e., it consists of matrix elements in rows and columns from 1 to k, also known as a leading principal submatrix), then the principal minor is called a leading principal minor (of order k) or corner (principal) minor (of order k).[3] For an n × n square matrix, there are n leading principal minors.
  • A basic minor of a matrix is the determinant of a square submatrix that is of maximal size with nonzero determinant.[3]
  • For Hermitian matrices, the leading principal minors can be used to test for positive definiteness and the principal minors can be used to test for positive semidefiniteness. See Sylvester's criterion for more details.

Both the formula for ordinary matrix multiplication and the Cauchy–Binet formula for the determinant of the product of two matrices are special cases of the following general statement about the minors of a product of two matrices. Suppose that A is an m × n matrix, B is an n × p matrix, I is a subset of {1,...,m} with k elements and J is a subset of {1,...,p} with k elements. Then

where the sum extends over all subsets K of {1,...,n} with k elements. This formula is a straightforward extension of the Cauchy–Binet formula.

Multilinear algebra approach

A more systematic, algebraic treatment of minors is given in multilinear algebra, using the wedge product: the k-minors of a matrix are the entries in the kth exterior power map.

If the columns of a matrix are wedged together k at a time, the k × k minors appear as the components of the resulting k-vectors. For example, the 2 × 2 minors of the matrix

are −13 (from the first two rows), −7 (from the first and last row), and 5 (from the last two rows). Now consider the wedge product

where the two expressions correspond to the two columns of our matrix. Using the properties of the wedge product, namely that it is bilinear and alternating,

and antisymmetric,

we can simplify this expression to

where the coefficients agree with the minors computed earlier.

A remark about different notation

In some books, instead of cofactor the term adjunct is used.[7] Moreover, it is denoted as Aij and defined in the same way as cofactor:

Using this notation the inverse matrix is written this way:

Keep in mind that adjunct is not adjugate or adjoint. In modern terminology, the "adjoint" of a matrix most often refers to the corresponding adjoint operator.

See also

References

  1. ^ Burnside, William Snow & Panton, Arthur William (1886) Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form.
  2. ^ a b Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, ISBN 978-0-02-355950-1
  3. ^ a b c "Minor". Encyclopedia of Mathematics. 
  4. ^ Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, ISBN 978-3-642-30993-9
  5. ^ Bertha Jeffreys, Methods of Mathematical Physics, p.135, Cambridge University Press, 1999 ISBN 0-521-66402-0.
  6. ^ Viktor Vasil_evich Prasolov (13 June 1994). Problems and Theorems in Linear Algebra. American Mathematical Soc. hlm. 15–. ISBN 978-0-8218-0236-6. 
  7. ^ Felix Gantmacher, Theory of matrices (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,

External links