Matriisin spektrihajotus

Matriisin spektrihajotelma tai ominaisvektoreihin perustuva matriisin hajottaminen on esitys neliömatriisista kolmen matriisin tulona , ​​jossa on matriisi, jonka sarakkeet ovat matriisin ominaisvektorit , on diagonaalimatriisi vastaavilla ominaisarvoilla Päädiagonaalilla on matriisin käänteisarvo .

Tässä muodossa voidaan esittää vain matriisit, joissa on täydellinen joukko ominaisvektoreita, eli joukko n lineaarisesti riippumatonta ominaisvektoria, jossa n on matriisin järjestys .

Spektrihajotelman avulla voidaan löytää matriisin ominaisarvoja ja ominaisvektoreita, ratkaista lineaarisia yhtälöjärjestelmiä, invertoida matriisia, löytää matriisin determinantti ja laskea matriisien analyyttisiä funktioita.

Ominaisvektorien ja matriisin ominaisarvojen teoria

Nollasta poikkeava N - ulotteinen vektori on neliömatriisin ominaisvektori, jos se täyttää lineaarisen yhtälön

,

missä on skalaari, jota kutsutaan matriisin ominaisarvoksi ja joka vastaa ominaisvektoria . Eli ominaisvektorit ovat vektoreita, joita lineaarinen muunnos vain pidentää tai lyhentää, ja ominaisarvo on pituuden muutostekijä. Yllä olevaa yhtälöä kutsutaan ominaisarvoyhtälöksi tai ominaisarvoongelmaksi .

Yllä olevaa yhtälöä voidaan pitää homogeenisena lineaarisen yhtälöjärjestelmänä

,

jossa on skalaariparametri ja on ei-triviaali ratkaisu homogeenisesta lineaariyhtälöjärjestelmästä. Homogeenisen lineaarisen yhtälöjärjestelmän ei-triviaaleja ratkaisuja on olemassa vain, kun järjestelmän matriisin determinantti on nolla, ts.

Polynomia kutsutaan matriisin ominaispolynomiksi ja yllä olevaa yhtälöä ominaisyhtälöksi . Ominaisuusyhtälö on N: nnen kertaluvun polynomiyhtälö muuttujassa . Tällä yhtälöllä on eri juuret, missä . Ratkaisujoukkoa eli ominaisarvoja kutsutaan matriisin spektriksi [1] [2] [3] .

Otetaan ominaispolynomi kertoimella :

Luonnollista lukua n i kutsutaan ominaisarvon algebralliseksi monikertaisuudeksi . Jos skalaarien kenttä on algebrallisesti suljettu , algebrallisten kertoimien summa on N :

Jokaiselle ominaisarvolle ratkaistaan ​​erillinen yhtälö ominaisvektoreille:

Jokaiselle yhtälölle on olemassa lineaarisesti riippumattomia ratkaisuja. M i -ratkaisun lineaariset yhdistelmät ovat ominaisarvoon liittyviä ominaisvektoreita . Kokonaislukua m i kutsutaan arvon geometriseksi kerrannaisluvuksi . Algebrallinen monikertaisuus ja geometrinen monikertaisuus eivät välttämättä ole samat, mutta aina . Lineaarisesti riippumattomien ominaisvektorien kokonaismäärä voidaan laskea summaamalla geometriset kertoimet

Ominaisvektorit voidaan indeksoida ominaisarvoilla käyttämällä kaksoisindeksiä, joka silloin tarkoittaisi i :nnen ominaisarvon j :nnettä ominaisvektoria . Yksinkertaisempi indeksointi käyttää yhtä indeksiä , jossa .

Matriisin hajottaminen ominaisvektorien avulla

Olkoon neliömatriisi , jossa on n lineaarisesti riippumatonta ominaisvektoria q i ( ). Sitten voit hajota

,

jossa on neliömatriisi, jonka i . sarake on matriisin ominaisvektori , ja on diagonaalimatriisi, jonka diagonaaliset elementit ovat vastaavat ominaisarvot, . Huomaa, että tällä tavalla voidaan hajottaa vain diagonalisoitavia matriiseja . Esimerkiksi siirtomatriisia ei voida diagonalisoida.

Yleensä ominaisvektorit q i normalisoidaan , mutta tämä ei ole välttämätöntä, vaan myös n ominaisvektoria v i voidaan käyttää matriisisarakkeina .

Hajoaminen voidaan saada ominaisvektorien perusominaisuudesta:

Esimerkki

Todellinen matriisi

voidaan pelkistää diagonaalimuotoon kertomalla ei-yksikkömatriisilla

Sitten

jollekin todelliselle diagonaalimatriisille .

Kerrotaan vasemmalla olevan yhtälön molemmat puolet luvulla , saadaan:

Yllä oleva yhtälö voidaan jakaa kahdeksi yhtälöjärjestelmäksi :

Otetaan x- ja y - ominaisarvot :

Saamme

joka antaa meille kaksi vektoriyhtälöä:

Jälkimmäinen järjestelmä voidaan esittää yhdellä vektoriyhtälöllä, joka sisältää ratkaisut kahdelle ominaisarvolle:

,

jossa edustaa kahta ominaisarvoa x ja y ja edustaa vektoreita ja .

Siirtymällä vasemmalle puolelle ja ottamalla ulos saamme

Koska matriisi ei ole degeneroitunut, on tärkeää, että vektori ei ole nolla. Siksi,

Sitten

antaa meille matriisin ominaisarvoratkaisut muodossa tai , ja tuloksena oleva diagonaalimatriisi matriisin hajottelusta on silloin .

Jos korvaamme ratkaisut takaisin yllä olevaan yhtälöjärjestelmään, saamme

Ratkaisemalla yhtälöt, saamme

Sitten matriisi , joka tarvitaan matriisin kertoimiin, on

Tuo on:

Matriisin inversio ominaisvektorilaajennuksella

Olkoon matriisilla spektrihajotelma, eikä mikään matriisin ominaisarvoista ole nolla. Tässä tapauksessa matriisi on ei- singulaarinen ja sen käänteimatriisi löytyy kaavasta

Jos matriisi on symmetrinen matriisi , niin matriisi on taatusti ortogonaalinen , ts . Ja koska matriisi on diagonaalinen , sen käänteinen on helppo laskea:

Käytännön arvo [4]

Jos ominaisvektorihajotelmaa käytetään todellisella datalla mitatussa matriisissa , käänteismatriisi voi olla huonompi ehdollinen, jos kaikkia ominaisarvoja käytetään muuttumattomina. Asia on siinä, että kun ominaisarvot muuttuvat suhteellisen pieniksi, niiden käänteisarvojen osuus käänteismatriisissa on suuri. Näillä lähes nolla-arvoilla tai mittausjärjestelmän "kohinalla" on kohtuuton vaikutus ja ne voivat häiritä inversioratkaisua.

On ehdotettu kahta lievennysvaihtoehtoa: hylätä pienet tai nolla ominaisarvot ja kopioida pienin luotettava arvo pienempiin.

Ensimmäinen lievennysvaihtoehto on samanlainen kuin alkuperäisen matriisin harva, jossa merkityksettömiksi katsotut elementit poistetaan. Jos ratkaisuprosessin havaitaan kuitenkin olevan lähellä melutasoa, palautus saattaa poistaa komponentteja, jotka vaikuttavat haluttuun ratkaisuun.

Toinen lievennysvaihtoehto kopioi ominaisarvon niin, että pienemmät arvot vaikuttavat vähemmän inversion tulokseen, mutta vaikuttavat silti siihen, että melutasoa lähellä olevia ratkaisuja voidaan löytää.

Luotettava ominaisarvo voidaan löytää olettaen, että ominaisarvot ovat erittäin lähellä ja pieni arvo edustaa hyvin mittauskohinaa (jonka oletetaan olevan pieni useimmissa järjestelmissä).

Jos ominaisarvot on järjestetty suuruuden mukaan, luotettava ominaisarvo voidaan löytää minimoimalla lajiteltujen ominaisarvojen Laplacian [5] :

,

jossa ominaisarvot on merkitty s :llä merkitsemään lajittelua (englannista lajiteltu). Minimipaikka on pienin luotettava ominaisarvo. Mittausjärjestelmissä tämän luotettavan ominaisarvon neliöjuuri on keskimääräinen kohina suhteessa järjestelmän muihin komponentteihin.

Funktionaalinen laskenta

Olkoon neliömatriisilla hajotus . Sitten matriisin nostaminen luonnolliseen potenssiin lasketaan yksinkertaisella kaavalla:

tässä tuotteet peruutetaan välilausekkeessa . Luonnolliseen potenssiin nostaminen mahdollistaa eri funktioiden määrittämisen matriisien yli, jotka ilmaistaan ​​potenssisarjoina. Olkoon funktiolla laajennus potenssisarjassa

Matriisin hajottaminen ominaisarvojen perusteella mahdollistaa nopean tehosarjan laskemisen matriisista . Olkoon f  ( x ) potenssisarja

Yllä olevan matriisin potenssikaavan mukaisesti matriisin potenssisarja voidaan laskea kaavalla

,

missä on diagonaalimatriisin funktio , joka voidaan laskea erittäin helposti:

Tässä tapauksessa matriisin diagonaalista poikkeavat elementit ovat nolla. Eli on myös diagonaalinen matriisi. Tämän seurauksena funktion laskenta matriisista pelkistyy yksinkertaiseen funktion laskemiseen kustakin ominaisarvosta.

Samanlainen tekniikka toimii myös yleisemmin holomorfisessa funktionaalisessa laskennassa , kaavaa käyttäen

on mahdollista laskea potenssisarjoja matriiseista, jotka sisältävät negatiivisia eksponenteja. Täällä taas sitä käytetään .

Esimerkkejä

Matriisin neliöjuuri:

Nelitetään se ja varmistetaan, että se on oikein:

Matriisieksponentti määritellään samalla tavalla :

Erikoismatriisien hajottaminen

Normaalimatriisit

Monimutkainen neliömatriisi on normaali ( missä on Hermitian konjugaatti ) jos ja vain jos se voidaan hajottaa

missä on unitaarinen (mikä tarkoittaa, että ) ja on diagonaalimatriisi [6] . Matriisin sarakkeet muodostavat ortonormaalin kannan ja ovat matriisin ominaisvektoreita vastaavien ominaisarvojen kanssa .

Jos matriisien luokka on rajoitettu hermiittisiin matriiseihin ( ), sillä on vain reaaliarvot. Jos matriisien luokka on rajoitettu unitaarisiin matriiseihin, niin kaikki arvot ovat kompleksisessa yksikköympyrässä, eli .

Todelliset symmetriset matriisit

Minkä tahansa todellisen symmetrisen matriisin ominaisarvot ovat todellisia ja ominaisvektorit voidaan valita todellisiksi ja ortonormaaleiksi . Siten todellinen symmetrinen matriisi voidaan hajottaa

jossa on ortogonaalinen matriisi, jonka sarakkeet ovat matriisin ominaisvektorit , ja on diagonaalimatriisi, jonka diagonaalin arvot ovat yhtä suuret kuin matriisin ominaisarvot [7] .

Hyödyllisiä faktoja

Hyödyllisiä faktoja ominaisarvoista

  • Ominaisuusarvojen tulo on yhtä suuri kuin matriisideterminantti Huomaa, että jokainen ominaisarvo nostetaan potenssiin n i , algebralliseen monikertaisuuteen.
  • Ominaisuusarvojen summa on yhtä suuri kuin matriisin jälki Huomaa, että jokainen ominaisarvo kerrotaan n i :llä, algebrallisella monikertaisuudella.
  • Jos matriisilla on ominaisarvoja ja se on käännettävissä, niin matriisin ominaisarvot ovat yksinkertaisesti .
  • Jos matriisilla on ominaisarvoja, niin matriisin ominaisarvot ovat yksinkertaisesti yhtä suuret mille tahansa holomorfiselle funktiolle f .

Hyödyllisiä faktoja ominaisvektoreista

  • Jos matriisi on hermiittinen ja sillä on täysi arvo, ominaisvektorikanta voidaan valita keskenään ortogonaaliseksi . Ominaisarvot ovat todellisia.
  • Matriisin ominaisvektorit ovat samat kuin matriisin ominaisvektorit .
  • Ominaisvektorit määritellään vakiotekijään asti. Eli jos , niin on myös ominaisvektori mille tahansa skalaarille c ≠ 0 . Erityisesti ja (jolle tahansa ) ovat myös ominaisvektoreita.
  • Degeneroituneiden ominaisarvojen tapauksessa (ominaisarvo esiintyy useammin kuin kerran) ominaisvektoreilla on ylimääräinen kiertovapausaste, eli mikä tahansa lineaarinen (ortonormaali) ominaisvektorien yhdistelmä, jolla on sama ominaisarvo, on itsessään ominaisvektori.

Hyödyllisiä faktoja ominaisvektorien hajottelusta

  • Matriisi voidaan hajottaa käyttämällä ominaisvektoreita, jos ja vain, jos lineaarisesti riippumattomien ominaisvektorien lukumäärä on yhtä suuri kuin ominaisvektorin dimensio:
  • Jos ei ole useita juuria, eli jos , niin voidaan hajottaa.
  • Lauseesta "matriisi voidaan hajottaa" ei seuraa, että sillä olisi käänteisarvo.
  • Lauseesta "matriisilla on käänteinen" ei seuraa, että se voidaan hajottaa ominaisvektoreita käyttämällä. Vastaesimerkki on matriisi , joka on käännettävä vikamatriisi [ .

Hyödyllisiä faktoja käänteismatriisista

  • Matriisi on käännettävä jos ja vain jos
  • Jos ja , käänteinen matriisi on annettu tasa-arvolla

Numeeriset laskelmat

Ominaisarvojen numeerinen laskenta

Oletetaan, että tietyn matriisin ominaisarvot on laskettava. Jos matriisin mitat ovat pienet, ominaisarvot voidaan laskea symbolisesti käyttämällä ominaispolynomia . Tämä ei kuitenkaan usein ole mahdollista suurille matriiseille, jolloin käytetään numeerisia menetelmiä .

Käytännössä suurten matriisien ominaisarvoja ei lasketa ominaispolynomin avulla. Polynomin laskemisesta tulee itsessään aikaa ja aikaa vievää, ja korkean asteen polynomin tarkat (symboliset) juuret on vaikea laskea ja ilmaista - se seuraa Abelin lauseesta yhtälöiden ratkaisemattomuudesta radikaaleissa , että korkean asteen polynomien juuret (5 ja korkeammat) eivät yleensä voi olla, esitetään lausekkeina n :nnen asteen juurista. Tästä syystä yleiset algoritmit ominaisvektorien ja ominaisarvojen löytämiseksi toimivat iteratiivisesti .

On olemassa iteratiivisia numeerisia algoritmeja polynomien juurien approksimointiin, kuten Newtonin menetelmä , mutta yleensä on epäkäytännöllistä rakentaa karakteristinen polynomi ja sitten soveltaa näitä menetelmiä. Yksi syy on se, että pienet pyöristysvirheet ominaispolynomin kertoimissa voivat johtaa suuriin virheisiin ominaisarvoissa ja ominaisvektoreissa – juuret ovat kertoimien äärimmäisen huonosti ehdollinen funktio [8] .

Yksinkertainen ja tarkka iteratiivinen menetelmä on tehomenetelmä - valitaan satunnainen vektori ja lasketaan yksikkövektorisarja

Tämä sekvenssi lähes aina konvergoi suurinta ominaisarvoa vastaavaan ominaisvektoriin edellyttäen, että tätä ominaisvektoria vastaavalla vektorilla on nollasta poikkeava komponentti ominaisvektorien perusteella (ja myös edellyttäen, että on vain yksi suurin ominaisarvo). Tämä yksinkertainen algoritmi on hyödyllinen joissakin käytännön sovelluksissa. Google esimerkiksi käyttää sitä laskeakseen asiakirjojen linkkien sijoituksen hakukoneessaan [9] . Tehomenetelmä on myös monien muiden monimutkaisten algoritmien lähtökohta. Jos esimerkiksi tallennat sekvenssin viimeisen vektorin lisäksi katsot sekvenssin kaikkien vektorien lineaarista jänneväliä , voit saada paremman (konvergoivan nopeammin) approksimaatiota ominaisvektorista, ja tämä ajatus on Arnoldin perusta. iterointi [8] . Myös tärkeä QR-algoritmi perustuu hieman muunneltuun tehomenetelmään [8] .

Ominaisvektorien numeerinen laskenta

Kun ominaisarvot on laskettu, ominaisvektorit voidaan laskea ratkaisemalla yhtälö

käyttämällä Gaussin eliminaatiota tai mitä tahansa muuta menetelmää matriisiyhtälön ratkaisemiseksi .

Käytännön menetelmissä suurten matriisien ominaisarvojen löytämiseksi ominaisvektorit lasketaan kuitenkin yleensä muilla tavoilla ominaisarvolaskennan sivutuotteena. Esimerkiksi tehomenetelmässä ominaisvektori lasketaan yleensä ennen ominaisarvon laskemista (joka yleensä lasketaan ominaisvektorin Rayleigh-relaation mukaisesti) [8] . Hermitian matriisin (tai minkä tahansa normaalimatriisin ) QR-algoritmissa ortonormaalit ominaisvektorit saadaan matriisitulona algoritmin vaiheista [8] . (Yleisemmille matriiseille QR-algoritmi suorittaa ensin Schur-hajotelman , josta ominaisvektorit saadaan takaisinkorvauksella [10] ) Hermiittisille matriiseille hajoa ja hallitse ominaisarvon hakualgoritmi on tehokkaampi kuin QR-algoritmi, jos tarvitaan sekä ominaisvektoreita että ominaisarvoja [8] .

Muut aiheet

Yleistetyt ominaisavaruudet

Muista, että ominaisarvon geometrinen monikertaisuus voidaan kuvata siihen liittyvän ominaisavaruuden, matriisin ytimen, ulottuvuutena . Algebrallinen monikertaisuus voidaan myös ajatella ulottuvuutena - se on siihen liittyvän yleistetyn ominaisavaruuden ulottuvuus (1. merkityksessä), joka on matriisin ydin mille tahansa riittävän suurelle k :lle . Toisin sanoen se on yleistettyjen ominaisvektorien avaruus (ensimmäisessä merkityksessä), jossa yleistetty ominaisvektori on mikä tahansa vektori, josta tulee lopulta 0, jos sitä käytetään tarpeeksi monta kertaa. Mikä tahansa ominaisvektori on yleinen ominaisvektori, ja siksi mikä tahansa ominaisavaruus sisältyy siihen liittyvään yleistettyyn ominaisavaruuteen. Tämä antaa yksinkertaisen todisteen siitä, että geometrinen monikertaisuus ei koskaan ylitä algebrallista monikertaisuutta.

Tätä käyttöä ei pidä sekoittaa alla kuvattuun yleistettyyn ominaisarvoongelmaan .

Konjugoitu ominaisvektori

Konjugoitu ominaisvektori on vektori, joka lineaarisen muunnoksen jälkeen menee konjugaattiin asti (skalaarilla kertomiseen asti). Skalaaria kutsutaan sitten lineaarimuunnoksen konjugaattiominaisarvoksi . Konjugoidut ominaisvektorit ja ominaisarvot edustavat olennaisesti samaa tietoa kuin tavalliset ominaisvektorit ja ominaisarvot, mutta syntyvät käytettäessä muita koordinaattijärjestelmiä. Vastaava tasa-arvo tulee olemaan

Esimerkiksi koherentin sähkömagneettisen sironnan teoriassa lineaarinen muunnos edustaa sirottavan kohteen toimintaa, ja ominaisvektorit edustavat sähkömagneettisen aallon polarisaatiotiloja. Optiikassa koordinaattijärjestelmä määritellään aallon näkökulmasta, joka tunnetaan nimellä Forward Scattering Alignment ( eng. Forward Scattering Alignment , FSA), ja se tuottaa tavallisia ominaisarvoyhtälöitä, kun taas tutkassa koordinaattijärjestelmä määritellään tutkan puolella, se tunnetaan takaisinsirontakohdistusna ( eng. Back Scattering Alignment , BSA) ja se luo yhtälöitä konjugoiduille ominaisvektoreille.   

Yleinen ongelma ominaisarvojen löytämisessä

Yleistetty ominaisarvojen löytämisen ongelma (toisessa merkityksessä) on ongelma löytää yhtäläisyys tyydyttävä vektori

missä ja ovat matriiseja. Jos täyttää tämän yhtälön joillekin , niin kutsumme matriisien yleistettyä ominaisvektoria ja (toisessa mielessä), ja sitä kutsutaan matriisien yleistetyksi ominaisarvoksi ja (toisessa mielessä), joka vastaa yleistettyä ominaisvektoria . Mahdollisten arvojen on täytettävä seuraava yhtäläisyys

Jos on mahdollista löytää lineaarisesti riippumattomia vektoreita siten, että mille tahansa , , määritetään matriisit ja seuraavasti

Sitten seuraava tasa-arvo pätee

Todiste

Ja koska se on käännettävä, kerromme tällä käänteisellä ja saamme halutun tuloksen.

Joukkoa matriiseja muotoa , jossa on kompleksiluku, kutsutaan nipuksi . Termi matriisien nippu voi viitata myös matriisipariin [11] .

Jos matriisi on käännettävä, alkuperäinen ongelma voidaan kirjoittaa uudelleen muotoon

mikä on standardi ominaisarvoongelma. Useimmissa tilanteissa ei kuitenkaan ole toivottavaa suorittaa tämä inversio, vaan ratkaista yleistetty ominaisarvoongelma. Tämä on erityisen tärkeää, jos matriisit ja ovat hermiittisiä , koska tässä tapauksessa se ei yleensä ole hermiittistä ja liuoksen tärkeät ominaisuudet eivät enää näy.

Jos molemmat matriisit ja ovat symmetrisiä ja hermiittisiä ja on myös positiivinen määrätty , ominaisarvot ovat todellisia ja ominaisvektorit ja eri ominaisarvoilla ovat -ortogonaalisia ( ) [12] . Tässä tapauksessa ominaisvektorit voidaan valita siten, että edellä määritelty matriisi täyttää ehdot

tai ,

ja on olemassa yleistettyjen ominaisvektorien kanta (se ei ole vikamatriisi ) [11] . Tätä tapausta kutsutaan joskus hermitiläiseksi määritellyksi nipuksi [11] .

Katso myös

Muistiinpanot

  1. Golub, Van Loan, 1996 , s. 310.
  2. Kreyszig, 1972 , s. 273.
  3. Nering, 1970 , s. 270.
  4. Hayde, Twede, 2002 , s. 355.
  5. Hayde, Twede, 2002 , s. 299.
  6. Horn ja Johnson, 1985 , s. 133 Lause 2.5.3.
  7. Horn ja Johnson, 1985 , s. 136 Lause 2.5.3 Seuraus 2.5.11.
  8. 1 2 3 4 5 6 Trefethen, Bau, 1997 .
  9. Ipsen, Wills, 2005 .
  10. Quarteroni, Sacco, Saleri, 2000 , s. viisitoista.
  11. 1 2 3 Bai, Demmel, 2000 .
  12. Parlett, 1998 , s. 345.

Kirjallisuus

  • Hayde AF, Twede DR Havainnot ominaisarvojen, instrumentin kohinan ja ilmaisukyvyn välisestä suhteesta // Imaging Spectrometry VIII. / Sylvia S. Shen. - 2002. - T. 4816 . - doi : 10.1117/12.453777 . - .
  • Twede DR, Hayden AF Kovarianssimatriisin inversion laajennusmenetelmän tarkentaminen ja yleistäminen regularisoinnilla // Imaging Spectrometry IX .. - 2004. - T. 5159 . - doi : 10.1117/12.506993 . - .
  • Lloyd N. Trefethen, David Bau. Numeerinen lineaarinen algebra. - "SIAM, 1997. - ISBN 978-0-89871-361-9 .
  • Alfio Quarteroni, Riccardo Sacco, Fausto Saleri. osa 5.8.2 // Numeerinen matematiikka . - "Kevät, 2000. - ISBN 978-0-387-98959-4 .
  • Beresford N. Parlett. Symmetrisen ominaisarvon ongelma . - Uusintapainos... - Philadelphia: Society for Industrial and Applied Mathematics, 1998. - ISBN 978-0-89871-402-9 . - doi : 10.1137/1.9781611971163 .
    • Kääntäjä B. Parlett. Symmetrinen ominaisarvon ongelma. - Moskova: Mir, 1983.
  • Ilse Ipsen, Rebecca M. Wills. Googlen PageRankin analyysi ja laskeminen // 7th IMACS International Symposium on Iterative Methods in Scientific Computing, Fields Institute, Toronto, Kanada, 5.–8. toukokuuta 2005 . – 2005.
  • Yleistetyt hermiittiset ominaisarvoongelmat // Mallit algebrallisten ominaisarvoongelmien ratkaisuun: Käytännön opas / Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, H. Van Der Vorst. - Philadelphia: SIAM, 2000. - ISBN 978-0-89871-471-5 .
  • Joel N. Franklin. Matriisi teoria . Doverin julkaisut. — ISBN 978-0-486-41179-8 .
  • Gene H. Golub, Charles F. Van Loan. Matriisilaskelmat. – 3. - Baltimore: Johns Hopkins University Press , 1996. - ISBN 978-0-8018-5414-9 .
    • Kääntäjä J. Golub, C. Van Lone. Matriisilaskelmat. - Moskova: Mir, 1999. - ISBN 5-03-002406-9 .
  • Roger A. Horn, Charles R. Johnson. matriisianalyysi. - Cambridge University Press, 1985. - ISBN 978-0-521-38632-6 .
    • Käännös Horn R., Johnson C. Matriisianalyysi. - "Mir", 1989. - ISBN 978-5-458-26504-1 (YOYO Media).
  • Roger A. Horn, Charles R. Johnson. Aiheet matriisianalyysissä . - Cambridge University Press, 1991. - ISBN 978-0-521-46713-1 .
  • Erwin Kreyszig. Kehittynyt tekniikan matematiikka . – 3. - New York: Wiley , 1972. - ISBN 978-0-471-50728-4 .
  • Evar D. Nering. Lineaarinen algebra ja matriisiteoria. – 2. - New York: Wiley , 1970.
  • Strang G. Johdatus lineaarialgebraan. – 3. - Wellesley-Cambridge Press, 1998. - ISBN 978-0-9614088-5-5 .

Linkit