Pengguna:Kekavigi/bak pasir

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas

Dalam aljabar linear, sebuah minor dari matriks adalah determinan dari beberapa matriks persegi kecil, yang dibentuk dengan menghapus satu atau lebih baris dan kolom matriks . Minor yang diperoleh dengan hanya menghapus satu baris dan satu kolom dari matriks persegi (minor pertama) diperlukan untuk menghitung matriks kofaktor, yang pada gilirannya berguna untuk menghitung determinan dan invers dari matriks persegi.

Definisi dan ilustrasi

Minor pertama

Jika adalah sebuah matriks persegi, maka minor dari entri dalam baris ke- dan kolom ke- adalah determinan dari submatriks dibentuk dengan menghapus baris ke- dan kolom ke-. Determinan ini juga disebut dengan minor , atau sebuah minor pertama[1]. Bilangan ini seringkali dilambangkan . Kofaktor diperoleh dengan mengalikan minor oleh .

Untuk mengilustrasikan definisi-definisi ini, tinjau matriks 3 kali 3 berikut,

Untuk menghitung minor dan kofaktor , kita perlu menemukan determinan dari matriks yang baris ke-2 dan kolom ke-3-nya telah dihapus.

Jadi kofaktor dari entri adalah

Definisi umum

Misalkan adalah sebuah matriks berukuran dan adalah sebuah bilangan bulat dengan , dan . Sebuah minor dari adalah determinan dari sebuah matriks berukuran yang diperoleh dengan menghapus baris dan kolom dari . Determinan ini juga disebut determinan minor dengan orde dari , atau jika , disebut dengan determinan minor ke- dari (kata "determinan" seringkali dihilangkan, dan kata "derajat" terkadang digunakan sebagai pengganti "orde"). Terkadang istilah ini digunakan untuk merujuk ke matriks yang diperoleh dari dengan cara di atas (yakni dengan menghapus baris dan kolom), tetapi matriks ini harus dirujuk ke determinan dari matriks ini.

Untuk matriks di atas, terdapat minor berukuran . Minor dengan orde nol sering didefinisikan bernilai . Pada kasus matriks persegi, minor ke-nol hanyalah determinan dari matriks.[2][3]

Misalkan dan adalah suatu barisan terurut[4] dari indeks, sebut mereka masing-masing sebagai dan . Terdapat beberapa notasi untuk menyebut minor

yang berkorespondensi dengan pilihan-pilihan dari indeks ini. Tergantung pada sumber yang digunakan, notasi untuk minor tersebut adalah , , , , atau (dengan melambangkan barisan indeks , dan seterusnya). Juga, terdapat dua tipe dari denotasi-denotasi digunakan dalam literaturː dengan minor dikaitkan ke barisan yang diurutkan dari indeks dan , beberapa penulis[5] bermaksud determinan dari matriks yang dibentuk seperti di atas, dengan mengambil anggota-anggota dari matriks asli dari baris yang indeksnya ada di dan kolom yang indeksnya ada di , sedangkan beberapa penulis lainnya bermaksud dengan sebuah minor dikaitkan ke dan determinan dari matriks dibentuk dari matriks asli dengan menghapuskan baris dalam dan kolom dalam .[2] Yang notasinya digunakan seharusnya selalui diperiksa dari sumber dalam pertanyaan. Dalam artikel ini, kita menggunakan definisi yang inklusif dalam memilih anggota-anggota dari baris dan kolom . Kasus luar biasanya adalah kasus dari minor pertama atau minor ke- dijelaskan di atas; dalam kasus itu, notasi yang eksklusif standar di mana-mana di literatur dan digunakan dalam artikel ini juga.

Komplemen

Komplemen, , dari sebuah minor , dari sebuah matriks persegi, , dibentuk oleh determinan dari matriks dari mana semua baris dan kolom dikaitkan dengan telah dihapus. Komplemen dari minor pertama dari sebuah anggota hanyalah anggota itu.[6]

Penerapan minor dan kofaktor

Ekspansi kofaktor dari determinan

Fitur kofaktor secara mencolok dalam rumus Laplace untuk ekspansi dari determinan-determinan, yang sebuah metode dari penghitungan determinan lebih besar dalam hal yang lebih kecil. Diberikan sebuah matriks yaitu , determinan , dilambangkan , bisa ditulis sebagai penjumlahan dari kofaktor-kofaktor dari setiap baris dan kolom dari matriks dikalikan dengan entri-entri yang dihasilkan mereka. Dengan kata lain, mendefinisikan maka ekspansi kofaktor sepanjang kolom ke- memberikanː

Ekspansi kofaktor sepanjang baris ke- memberikanː

Invers dari sebuah matriks

Salah satunya bisa menuliskan invers dari matriks invertible dengan menghitung kofaktor-kofaktor dengan menggunakan aturan Cramer, seperti berikut. Matriks dibentuk oleh semua dari kofaktor-kofaktor dari sebuah matriks persegi disebut matriks kofaktor (juga disebut matriks dari kofaktor atau komatriks

Maka invers dari transpose dari matriks kofaktor dikali kebalikan dari determinan ː

Transpose dari matriks kofaktor disebut matriks adjugat (juga disebut adjoin klasik) dari .

Rumus di atas bisa dihaislkan sebagai berikut. Misalkan dan menjadi barisan urutan (dalam urutan alami) dari indeks (disini adalah sebuat matriks ). Maka[7]

di mana dan melambangkan barisan urutan dari indeks (indeks dalam urutan besar yang wajar, seperti di atas) melengkapi , , sehingga setiap indeks muncul tepat sekali di salah satu atau , tapi tidak di keduanya (demikian pula untuk dan ) dan melambangkan determinan dari submatriks dibentuk dengan memilih baris dari himpunan indeks dan kolom dari himpunan indeks . Juga . Sebuah bukti sederhana bisa diberikan menggunakan produk wedge. Tentunya,

di mana adalah vektor basis. Tindakan oleh ada kedua sisi, salah satunya mendapatkan

Tandanya bisa berhasil menjadi , jadi tandanya dideterminasikan oleh penjumlahan-penjumlahan pada anggota-anggota di dan .

Penerapan lainnya

Diberikan sebuah matriks dengan entri-entri real (atau entri-entri dari setiap bidang lainnya) dan rank , maka terdapat setidaknya satu minor tak nol, sementara semua minor-minor yang besar adalah nol.

Kita akan menggunakan notasi berikut untuk minor. Jika adalah sebuah matriks , adalah himpunan bagian dari dengan anggota , dan adalah himpunan bagian dari dengan anggota , maka kita menulis untuk minor pada yang sesuai dengan baris dengan indeks dalam dan kolom dengan indeks dalam .

  • Jika , maka disebut minor utama.
  • Jika matriks yang sesuai dengan minor utama adalah kuadrat bagian atas-kiri dari matriks yang besar (yaitu, itu terdiri dari anggota-anggota matriks dalam baris-baris dan kolom-kolom dari hingga ), maka minor utama disebut sebuah minor utama terkemuka (dari urutan ) atau minor sudut (utama) (dari urutan ).[3] Untuk sebuah matriks persegi , terdapat minor utama terkemuka .
  • Sebuah minor dasar dari sebuah matriks adalah determinan dari sebuah submatriks persegi yang dari ukuran maksimal dengan determinan tidak nol.[3]
  • Untuk matriks Hermite, minor utama terkemuka bisa digunakan untuk menguji ketentuan positif dan minor utama bisa digunakan untuk menguji kesemitentuan positif. Lihat kriteria Sylvester untuk detail lebih lanjut.

Kedua rumus untuk perkalian matriks biasa dan rumus Cauchy–Binet untuk determinan dari produk dua matriks adalah kasus spesial dari pernyataan umum berikut tentang minor-minor dari sebuah produk dua matriks. Andaikan adalah sebuah matriks , adalah sebuah matriks , adalah himpunan bagian dari dengan anggota dan adalah himpunan bagian dari dengan anggota . Maka

di mana penjumlahan meluas ke semua himpunan bagian dari dengan anggota . Rumus ini merupakan sebuah ekstensi langsung dari rumus Cauchy–Binet.

Pendekatan aljabar multilinear

Lebih sistematis, perlakuan aljabar dari minor-minor diberikan dalam aljabar multilinear, menggunakan produk wedge, minor- dari sebuah matriks adalah entri-entri dalam pemetaan pangkat eksterior ke-.

Jika kolom-kolom dari sebuah matriks terjepit bersama pada satu waktu, minor muncul sebagai komponen-komponen dari hasil vektor . Sebagai contoh, minor dari matriks

adalah (dari dua baris pertama), (dari baris pertama dan terakhir), dan (dari dua baris terakhir). Sekarang tinjau produk wedge

di mana kedua ekspresi sesuai dengan dua kolom dari matriks kita. Menggunakan sifat-sifat dari produk wedge, yaitu bilinear dan bergantian,

dan antisimteris

kita bisa menyederhanakan ekspresi ini menjadi

di mana koefisien sesuai dengan minor-minor yang ditung sebelumnya.

Sebuah komentar tentang notasi yang berbeda

Dalam beberapa buku, daripada kofaktor , istilah adjunct digunakan.[8] Bahkan, ini dilambangkan sebagai dan didefiniskan dalam cara yang sama sebagai kofaktorː

Menggunaan notasi ini, invers matriks ditulis dengan cara ini.

Ingat bahwa adjunct bukanlah adjugat atau adjoin. Dalam termonologi modern, "adjoin" dari sebuah matriks paling sering mengacu pada yang sesuai, operator adjoin.

Lihat pula

Referensi

  1. ^ Burnside, William Snow & Panton, Arthur William (1886) Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form.
  2. ^ a b Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, ISBN 978-0-02-355950-1
  3. ^ a b c "Minor". Encyclopedia of Mathematics. 
  4. ^ dengan urutan alami, asumsi yang umum digunakan ketika berbicara tentang minor, kecuali dinyatakan lain.
  5. ^ Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, ISBN 978-3-642-30993-9
  6. ^ Bertha Jeffreys, Methods of Mathematical Physics, p.135, Cambridge University Press, 1999 ISBN 0-521-66402-0.
  7. ^ Viktor Vasil_evich Prasolov (13 June 1994). Problems and Theorems in Linear Algebra. American Mathematical Soc. hlm. 15–. ISBN 978-0-8218-0236-6. 
  8. ^ Felix Gantmacher, Theory of matrices (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,

Pranala luar


---

In linear algebra, a minor of a matrix A is the determinant of some smaller square matrix, cut down from A by removing one or more of its rows and columns. Minors obtained by removing just one row and one column from square matrices (first minors) are required for calculating matrix cofactors, which in turn are useful for computing both the determinant and inverse of square matrices. The requirement that the square matrix be smaller than the original matrix is often omitted in the definition.

Definition and illustration

First minors

If A is a square matrix, then the minor of the entry in the i th row and j th column (also called the (i, j) minor, or a first minor[1]) is the determinant of the submatrix formed by deleting the i th row and j th column. This number is often denoted Mi,j. The (i, j) cofactor is obtained by multiplying the minor by .

To illustrate these definitions, consider the following 3 by 3 matrix,

To compute the minor M2,3 and the cofactor C2,3, we find the determinant of the above matrix with row 2 and column 3 removed.

So the cofactor of the (2,3) entry is

General definition

Let A be an m × n matrix and k an integer with 0 < km, and kn. A k × k minor of A, also called minor determinant of order k of A or, if m = n, (nk)th minor determinant of A (the word "determinant" is often omitted, and the word "degree" is sometimes used instead of "order") is the determinant of a k × k matrix obtained from A by deleting mk rows and nk columns. Sometimes the term is used to refer to the k × k matrix obtained from A as above (by deleting mk rows and nk columns), but this matrix should be referred to as a (square) submatrix of A, leaving the term "minor" to refer to the determinant of this matrix. For a matrix A as above, there are a total of minors of size k × k. The minor of order zero is often defined to be 1. For a square matrix, the zeroth minor is just the determinant of the matrix.[2][3]

Let and be ordered sequences (in natural order, as it is always assumed when talking about minors unless otherwise stated) of indexes, call them I and J, respectively. The minor corresponding to these choices of indexes is denoted or or or or or (where the denotes the sequence of indexes I, etc.), depending on the source. Also, there are two types of denotations in use in literature: by the minor associated to ordered sequences of indexes I and J, some authors[4] mean the determinant of the matrix that is formed as above, by taking the elements of the original matrix from the rows whose indexes are in I and columns whose indexes are in J, whereas some other authors mean by a minor associated to I and J the determinant of the matrix formed from the original matrix by deleting the rows in I and columns in J.[2] Which notation is used should always be checked from the source in question. In this article, we use the inclusive definition of choosing the elements from rows of I and columns of J. The exceptional case is the case of the first minor or the (i, j)-minor described above; in that case, the exclusive meaning is standard everywhere in the literature and is used in this article also.

Complement

The complement, Bijk...,pqr..., of a minor, Mijk...,pqr..., of a square matrix, A, is formed by the determinant of the matrix A from which all the rows (ijk...) and columns (pqr...) associated with Mijk...,pqr... have been removed. The complement of the first minor of an element aij is merely that element.[5]

Applications of minors and cofactors

Cofactor expansion of the determinant

The cofactors feature prominently in Laplace's formula for the expansion of determinants, which is a method of computing larger determinants in terms of smaller ones. Given an n × n matrix , the determinant of A, denoted det(A), can be written as the sum of the cofactors of any row or column of the matrix multiplied by the entries that generated them. In other words, defining then the cofactor expansion along the j th column gives:

The cofactor expansion along the i th row gives:

Inverse of a matrix

One can write down the inverse of an invertible matrix by computing its cofactors by using Cramer's rule, as follows. The matrix formed by all of the cofactors of a square matrix A is called the cofactor matrix (also called the matrix of cofactors or, sometimes, comatrix):

Then the inverse of A is the transpose of the cofactor matrix times the reciprocal of the determinant of A:

The transpose of the cofactor matrix is called the adjugate matrix (also called the classical adjoint) of A.

The above formula can be generalized as follows: Let and be ordered sequences (in natural order) of indexes (here A is an n × n matrix). Then[6]

where I′, J′ denote the ordered sequences of indices (the indices are in natural order of magnitude, as above) complementary to I, J, so that every index 1, ..., n appears exactly once in either I or I′, but not in both (similarly for the J and J′) and denotes the determinant of the submatrix of A formed by choosing the rows of the index set I and columns of index set J. Also, . A simple proof can be given using wedge product. Indeed,

where are the basis vectors. Acting by A on both sides, one gets

The sign can be worked out to be , so the sign is determined by the sums of elements in I and J.

Other applications

Given an m × n matrix with real entries (or entries from any other field) and rank r, then there exists at least one non-zero r × r minor, while all larger minors are zero.

We will use the following notation for minors: if A is an m × n matrix, I is a subset of {1,...,m} with k elements, and J is a subset of {1,...,n} with k elements, then we write [A]I,J for the k × k minor of A that corresponds to the rows with index in I and the columns with index in J.

  • If I = J, then [A]I,J is called a principal minor.
  • If the matrix that corresponds to a principal minor is a square upper-left submatrix of the larger matrix (i.e., it consists of matrix elements in rows and columns from 1 to k, also known as a leading principal submatrix), then the principal minor is called a leading principal minor (of order k) or corner (principal) minor (of order k).[3] For an n × n square matrix, there are n leading principal minors.
  • A basic minor of a matrix is the determinant of a square submatrix that is of maximal size with nonzero determinant.[3]
  • For Hermitian matrices, the leading principal minors can be used to test for positive definiteness and the principal minors can be used to test for positive semidefiniteness. See Sylvester's criterion for more details.

Both the formula for ordinary matrix multiplication and the Cauchy–Binet formula for the determinant of the product of two matrices are special cases of the following general statement about the minors of a product of two matrices. Suppose that A is an m × n matrix, B is an n × p matrix, I is a subset of {1,...,m} with k elements and J is a subset of {1,...,p} with k elements. Then

where the sum extends over all subsets K of {1,...,n} with k elements. This formula is a straightforward extension of the Cauchy–Binet formula.

Multilinear algebra approach

A more systematic, algebraic treatment of minors is given in multilinear algebra, using the wedge product: the k-minors of a matrix are the entries in the kth exterior power map.

If the columns of a matrix are wedged together k at a time, the k × k minors appear as the components of the resulting k-vectors. For example, the 2 × 2 minors of the matrix

are −13 (from the first two rows), −7 (from the first and last row), and 5 (from the last two rows). Now consider the wedge product

where the two expressions correspond to the two columns of our matrix. Using the properties of the wedge product, namely that it is bilinear and alternating,

and antisymmetric,

we can simplify this expression to

where the coefficients agree with the minors computed earlier.

A remark about different notation

In some books, instead of cofactor the term adjunct is used.[7] Moreover, it is denoted as Aij and defined in the same way as cofactor:

Using this notation the inverse matrix is written this way:

Keep in mind that adjunct is not adjugate or adjoint. In modern terminology, the "adjoint" of a matrix most often refers to the corresponding adjoint operator.

See also

References

  1. ^ Burnside, William Snow & Panton, Arthur William (1886) Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form.
  2. ^ a b Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, ISBN 978-0-02-355950-1
  3. ^ a b c "Minor". Encyclopedia of Mathematics. 
  4. ^ Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, ISBN 978-3-642-30993-9
  5. ^ Bertha Jeffreys, Methods of Mathematical Physics, p.135, Cambridge University Press, 1999 ISBN 0-521-66402-0.
  6. ^ Viktor Vasil_evich Prasolov (13 June 1994). Problems and Theorems in Linear Algebra. American Mathematical Soc. hlm. 15–. ISBN 978-0-8218-0236-6. 
  7. ^ Felix Gantmacher, Theory of matrices (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,

External links