Springen naar inhoud

Eigenwaarden en eigenvectoren.


  • Log in om te kunnen reageren

#1

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 10 december 2005 - 18:14

Hallo,

Men wil op één of ander manier er toe komen om met zo’n eenvoudige mogelijk matrix te werken.
Daarom dat men spreekt over eigenvectoren . In mijn boek difineerd men dit als volgt:

Beschouw een lineaire afbeelding f: V V een vector U verschillend van nul en element van de ruimte V noemen we een eigenvector van f als er een landa is element van scaleiren waarvoor geld f(U)= landa U


We willen komen tot een diagonale matrix maar moet die landa dan gelijk zijn voor elke component van de vector (volgens de definitie waarschijnlijk wel maar het is toch raar vind ik)

Stel daarom het volgende voor een vector gewoon 2D met als x component 2 en als y component 5 dan kan je dit gewoon in een matrix steken en die is onmiddellijk diagonaal of toch niet (snappen jullie waar het wringt?) is die matrix diagonaal omdat enkel op zijn diagonaal getallen verschillend van nul staan of is hij dat alleen als er op die volledige diagonaal dezelfde getallen staan?

Nu probeert men hier ook te komen tot een methode om de eigenwaarde te berekenen daarom onderstelt men:
Dat V een eindigdimensionale ruimte is waarbij landa een element is van mijn scalairen dit is een eigenwaarde van de afbeelding als en slechts als det (f-landa1v)=0

Komt dit erop neer dat de matrix van eerste min de matrix van het tweede gelijk aan nul is zondanig dat bewijzen is dat ze beide het zelfde aanduiden?

Waarom haalt men dan die determinanten erbij gewoon om gemakkelijk over een getal waarde specifiek aan de matrix te beschikken?

http://expand.xs4all...?file=eigen.JPG

Groeten. Dank bij voorbaat.

Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.

#2

TD

    TD


  • >5k berichten
  • 24049 berichten
  • VIP

Geplaatst op 10 december 2005 - 18:22

Als je de matrix van een lineaire afbeelding f beschouwt dan hangt die af van de basis waarin je werkt. Het blijkt dat de vorm van die matrix sterk kan vereenvoudigen, afhankelijk van de gekozen basis. Bovendien blijkt dat bepaalde lineaire afbeeldingen (en dus bepaalde matrices) diagonaal worden ten opzichte van een zekere basis, hier de basis die bestaat uit de eigenvectoren.

Wat is nu zo'n eigenvector? Een vector die onder de lineaire afbeelding wordt afgebeeld op een (scalair) veelvoud van zichzelf. De evenredigheidsfactor wordt de bijbehorende eigenwaarde genoemd. Je kan dan aantonen (en dat gebeurt in je cursus, dacht ik) dat je de eigenwaarden van een matrix kan bepalen met behulp van een determinant die aanleiding geeft tot een karakteristieke vergelijking, waarvan de oplossingen de eigenwaarden zijn.

Je zoekt dan de bijbehorende eigenvectoren en als je er voldoende vindt (die lineair onafhankelijk dienen te zijn), dan is je matrix diagonaliseerbaar. De overgangsmatrix wordt gegeven door de matrix met in de kolom de eigenvectoren.

#3

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 10 december 2005 - 19:36

komt het erop neer dat men 2 equivalente matrixen wil hebben en daarom de determinant van beide vergelijkt maw van mekaar aftelt en gelijk stelt aan nul?

#4

TD

    TD


  • >5k berichten
  • 24049 berichten
  • VIP

Geplaatst op 10 december 2005 - 19:47

Heb je het nu over de methode om de eigenwaarden te vinden?
Dat ziet er wel uit als een verschil van matrices, maar kijk eens goed naar de notatie. Eigenlijk is het gewoon een wiskundige notatie om aan te duidelijk dat je van de elementen van de hoofddiagonaal een parameter (hier lambda) aftrekt.

#5

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 10 december 2005 - 21:04

Heb je het nu over de methode om de eigenwaarden te vinden?  


Ja en nee eigenlijk die eigenwaarde met bijbehorende vectoren is helemaal niet zo moeilijk te vinden dat is gewoon een karakterestieke vergelijking oplossen

Alleen probreer ik de redenering daar achter de doorgronde (zie ook stelling5.1.3 link)

volgens mij moeten beide matrices op één of ander manier iets equivalent hebben (waarmee ik niet bedoel dat ze het zelfde zijn maar wel hetzelfde beschrijven)
en deze zelfde tussen haken relatie beschrijven we dan met dezelde determinaten (dit is hoe ik de theorie probeer te verstaan) de oef dat is een ander zaak hier gebruik je gewoon de reken technieken en kijk je niet wat er achter zit.

#6

dr. E. Noether

    dr. E. Noether


  • >25 berichten
  • 96 berichten
  • Ervaren gebruiker

Geplaatst op 10 december 2005 - 22:17

Bert, ik zal even wat op een rijtje zetten voor je. Je gebruikt diagonalisatie voor het eenvoudig berekenen van machten van een matrix, bijvoorbeeld bij het oplossen van een stelsel differentiaalvergelijkingen.

Zij A de n bij n matrix behorende bij de lineaire afbeelding T : V --> V. Het berekenen van machten van A, zeg A^k, is normaliter een heidens rekenkarwei. Echter, als A diagonaliseerbaar is, dan is er een matrix P zo dat A = PDP* (hierin is P* de inverse van P en D de diagonaalmatrix). We krijgen dan:

A^k = (PDP*)^k = PDP*PDP*...(k maal dit opschrijven)...PDP*PDP* = P(D^k)P*

Nu is de k-de macht van een diagonaalmatrix D gewoon de k-de macht van elk van de elementen op de hoofddiagonaal. En dan nog D links en rechts vermenigvuldigen met respectievelijk P en P*. Dit is veel minder rekenwerk.

Nu zijn voor het bepalen van de diagonaalmatrix D en matrix P zekere rekentechnieken bekent, en wel die waar jij mee bezig bent, namelijk: bepalen van eigenwaarden en eigenvectoren.

Je bepaalt de eigenwaarden van A door de karakteristieke vergelijking det(A - x*In) op te lossen (hierin is x gewoon een vrij te kiezen letter, jij koos voor lambda, ik dus voor x, en In is de n bij n eenheidsmatrix). Dit is dus een polynoom in x. Vind de nulpunten van dit polynoom door gelijk te stellen aan 0. De oplossingen zijn dan de eigenwaarden, zeg x1,x2,...,xr. Hoevaak een bepaalde eigenwaarde xi oplossing is wordt aangegeven met de algebraische multipliciteit am(xi). Als b.v. x1 = 7 maar liefst drie keer voorkomt is dus am(x1) = 3.

Bij elk van de eigenwaarde xi hoort een eigenruimte Eig(xi). Die vind je door op te lossen (A - xi*In) v = 0. Zo vind je een aantal (lineair onafhankelijke) eigenvectoren, zeg v1,v2,..., vm. Het opspansel van de deze vectoren, span{v1,v2,...,vm}, heet de eigenruimte bij die eigenwaarde, dus Eig(xi) = span{v1,v2,...,vm}. Het aantal eigenvectoren in de eigenruimte wordt genoteerd met de meetkundige multipliciteit mm(xi). Als dus Eig(x1) = span{v1,v2,v3} is dus mm(xi) = 3.

Stelling: am(xi) = mm(xi), voor elke xi <==> matrix A diagonaliseerbaar.

De diagonaalmatrix D bestaat dan uit alle eigenwaarden x1,x2,...,xr op de hoofddiagonaal (zet die in een bepaalde volgorde).
De matrix P is nu de matrix die bestaat uit alle eigenvectoren (dit zijn dus de kolommen van matrix P) behorende bij de betreffende eigenwaarden, in dezelfde (!) volgorde als dat je de eigenwaarden genoteert hebt.

Welnu, het kan voorkomen dat am(xi) > mm(xi), dat wil dus zeggen dat het aantal eigenvectoren bij een eigenwaarde xi kleiner is dan het aantal keer dat xi oplossing is van het karakteristieke polynoom. Dan is de matrix dus niet langer diagonaliseerbaar! Er is echter een op-een-na-mooiste vorm: de Jordan normaalvorm, d.w.z. voor de n bij n matrix A bestaat er een Q zodat A = QJQ* (hierin is Q opnieuw een matrix van eigenvectoren, maar dit maal bevat Q ook 'gegeneraliseerde' eigenvectoren en J is de jordanmatrix van de vorm zoals D maar nu staan op de nevendiagonaal boven de hoofddiagonaal op sommige plekken 1-tjes).

Het uitrekenen gaat op een gelijke manier als de diagonaalvorm, namelijk i) karakteristiek polynoom, ii) eigenvectoren bepalen, maar nu ook iii) gegeneraliseerde eigenvectoren. Stel b.v. dat xi eigenvector is met am(xi) = 3 > 1 = mm(xi), dan los je eerst op (A - xi*In) v2 = v1 (v2 heet dan een gegeneraliseerde eigenvector) en daarna nog een keertje (A - xi*In) v3 = v2.

#7

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 11 december 2005 - 11:46

Bedankt voor het even op een rijtje zetten maar waar ik nog meer naar opzoek is een zuiver theoretische verklaring van de werkwijze om die eigenwaarden en eigen vectoren te vinden.

Daarom zie stelling 5.1.3 in de link .

http://expand.xs4all...?file=eigen.JPG

stel nu dat je een matrix A hebt deze diagonaliseer je in een matrix B
dan hebben volgens mij deze twee matrixen iets verwants.
daarom dacht ik dat beide hun determinant gelijk zijn
maw dit is mijn interpretatie van die stelling 5.1.3 in de link nu wou ik deze interpretatie eens controleren.

Klopt mijn gedachte gang? Groeten.

#8

Bert

    Bert


  • >250 berichten
  • 718 berichten
  • Ervaren gebruiker

Geplaatst op 11 december 2005 - 13:17

De verwantschap zit in het feit dat beide matrices dezelfde lineaire afbeelding beschrijven tenopzichte van verschillende bases.

#9

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 11 december 2005 - 14:07

De verwantschap zit in het feit dat beide matrices dezelfde lineaire afbeelding beschrijven tenopzichte van verschillende bases.

en drukt men dan dit verwantschap uit door te stellen dat de determinanten gelijk zijn aan mekaar?

#10

TD

    TD


  • >5k berichten
  • 24049 berichten
  • VIP

Geplaatst op 11 december 2005 - 14:16

Maar je berekent de determinant van één matrix, niet van twee!

#11

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 11 december 2005 - 14:50

Maar je berekent de determinant van één matrix, niet van twee!


In de oefeningen wel dan werk je iets karakteristieke uit aan de lopende band.

Maar als ik naar mijn stelling kijk dan stelt men toch dat een det(f-l1v)=0

Waarbij l1v staat voor wat je als gediagonaliseerde hebt.

maw als je zou zeggen dat de B de de gediagonaliseerde is van A dan heeft A en B dezelfde determinant.

Zo probeer ik die stelling te begrijpen 5.1.3 Klopt deze redenering dan niet?

Groeten.

#12

Bert

    Bert


  • >250 berichten
  • 718 berichten
  • Ervaren gebruiker

Geplaatst op 11 december 2005 - 17:09

De verwantschap zit in het feit dat beide matrices dezelfde lineaire afbeelding beschrijven tenopzichte van verschillende bases.

en drukt men dan dit verwantschap uit door te stellen dat de determinanten gelijk zijn aan mekaar?

Als je een basistransformatie op een vectorruimte toepast dan vindt je bij een matrix A tov de oude basis de matrix B ten opzichte van de nieuwe basis door een formule van de vorm B=CAC-1. Hierin beschrijft de matrix C de transformatie (de bedoeling hier is dat B een diagonaalmatrix is). De gelijkheid van de determinanten volgt direct uit het feit dat de determinant van een product gelijk is aan het product van de determinanten.

#13

TD

    TD


  • >5k berichten
  • 24049 berichten
  • VIP

Geplaatst op 11 december 2005 - 21:53

Maar als ik naar mijn stelling kijk dan stelt men toch dat een det(f-l1v)=0

Waarbij l1v staat voor wat je als gediagonaliseerde hebt.  

maw als je zou zeggen dat de B de de gediagonaliseerde is van A dan heeft A en B dezelfde determinant.

Zo probeer ik die stelling te begrijpen 5.1.3 Klopt deze redenering dan niet?

Groeten.

Nee, dat klopt niet. Het stuk vIn stelt helemaal niet de uiteindelijke gediagonaliseerde matrix voor. Het stelt de matrix voor met overal nullen, behalve de parameter v (bij jou lambda) op de diagonaal. Zoals ik al zei is de enige reden daarvoor dat dit een wiskundig correcte notatie is om aan te duiden dat je van de oorspronkelijke matrix (degene die je wil diagonaliseren) lambda van de hoofddiagonaal aftrekt.
Dat geeft dan een nieuwe matrix (één matrix!) waar je de determinant van berekent, dit is de karakteristieke determinant (van A, de oorspronkelijke matrix!). Stel deze gelijk aan 0 en je hebt je karakteristieke vergelijking.

#14

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 12 december 2005 - 17:02

nu heb ik hier een matrix
        4 2 3

          2 1 2

         -1 2 0

deze heb ik gediagonaliseerd en ik heb dus maw de drie basis vectoren namelijk (1,0,-1) (2,1,0) (1,2,-3) nu is mijn probleem hoe krijg ik die een een gediagonaliseerde matrix maw het eind antwoord zou moeten zijn

       1 0 0

         0 5 0

         0 0 -1

Hoe kom ik nu van de drie basis vectoren naar deze matrix ?

Groeten. Dank bij voorbaat.

#15

Bert F

    Bert F


  • >1k berichten
  • 2588 berichten
  • Ervaren gebruiker

Geplaatst op 12 december 2005 - 21:55

het is in orde voor de liefhebbers http://www.wisfaq.nl...d3.asp?id=38747


Had inderdaad eerst beter gezocht en dan gevraagt toch bedankt. Groeten.





0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures