Springen naar inhoud

Principal component analyse terminologie


  • Log in om te kunnen reageren

#1

Gargamel

    Gargamel


  • 0 - 25 berichten
  • 4 berichten
  • Gebruiker

Geplaatst op 09 maart 2012 - 11:48

Hallo,

Voor mijn werk aan de universiteit maak ik gebruik van PCA voor de interpretatie van grote hoeveelheden massaspectrometrie data. Ik begrijp hoe de wiskundige transformatie werkt maar als ik online de terminologie naga die bij PCA wordt gebruikt weet ik niet goed wat het allemaal betekent. Dus laat ik even schetsen waar ik mee werk en dan kunnen jullie mij waarschijnlijk wel verder helpen.

Ik beschik over een dataset van enkele honderden massaspectra. Een massaspectrum bestaat uit n aantal signalen/pieken (de variabelen) waarvan de intensiteit (of hoogte van de piek) verschilt over de verschillende spectra. Al die spectra worden voorgesteld in een n-dimensionaal assenstelsel zodat 1 massaspectrum, 1 datapunt voorstelt in dat n-dimensionaal assenstelsel. Met PCA transformeren we het originele coŲrdinatensysteem zodanig dat de nieuwe as in de richting van de grootste variatie in mijn dataset gesitueerd is, en de 2e (orthogonaal op de 1e) en geroteerd in de richting van de 2e grootste variatie, etc....

Bon tot daar ben ik mee.

Maar wat betekenen de termen eigenvectoren, eigenwaarden en covariantie matrix in bovenstaande uitleg? Component scores zijn de waarden die de datapunten (massaspectra) hebben tov de PC-as na transformatie. Maar wat zijn dan specifiek de loading factors? Ze hebben te maken met de variabelen van die massaspectra, maar wat precies?

Alvast bedankt voor de hulp!

Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.

#2

Drieske

    Drieske


  • >5k berichten
  • 10217 berichten
  • Moderator

Geplaatst op 09 maart 2012 - 13:52

Heb je die begrippen al eens opgezocht op Google? Want in eerste instantie lijkt me dat het beste vertrekpunt...
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

#3

Gargamel

    Gargamel


  • 0 - 25 berichten
  • 4 berichten
  • Gebruiker

Geplaatst op 09 maart 2012 - 14:49

Heb je die begrippen al eens opgezocht op Google? Want in eerste instantie lijkt me dat het beste vertrekpunt...


Ja uiteraard. Maar daar werd ik niet bepaald wijzer van. Ik ben tijdens mijn studies niet in contact gekomen met dat soort wiskunde. PCA is voor ons een tool om data te interpreteren en ik wil wat meer inzicht te verwerven in de achterliggende mathematische begrippen.

#4

Drieske

    Drieske


  • >5k berichten
  • 10217 berichten
  • Moderator

Geplaatst op 09 maart 2012 - 15:02

Laten we beginnen met de eerste 3 begrippen: eigenvector, eigenwaarde en covariantiematrix. Ik neem ook hun respectievelijke Wikipedia-pagina's erbij:
http://en.wikipedia....ki/Eigenvectors
http://en.wikipedia....variance_matrix
Kun je aangeven wat je daar niet aan begrijpt? Hoe je die kunt vinden? Wat hun nut is, binnen PCA, of algemeen?
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

#5

Gargamel

    Gargamel


  • 0 - 25 berichten
  • 4 berichten
  • Gebruiker

Geplaatst op 09 maart 2012 - 16:40

Laten we beginnen met de eerste 3 begrippen: eigenvector, eigenwaarde en covariantiematrix. Ik neem ook hun respectievelijke Wikipedia-pagina's erbij:
http://en.wikipedia....ki/Eigenvectors
http://en.wikipedia....variance_matrix
Kun je aangeven wat je daar niet aan begrijpt? Hoe je die kunt vinden? Wat hun nut is, binnen PCA, of algemeen?


De vectoren zijn elementen in een coŲrdinatenstelsel. Dus in dit geval de massaspectra in n-dimensionaal stelsel. De data van de variabelen wordt voorgesteld in een matrix. Dus stel dat ik 5 spectra heb met elk 6 signalen dan krijg ik een matrix A met 5 rijen en 6 kolommen.

Zoals ik het lees zijn de eigenvectoren, die als je ze vermenigvuldigt met de matrix A vectoren zijn met eigenwaarde lambda. Die transformeren de data op een bepaalde specifieke manier uniek voor die eigenvectoren (daar ga ik wat de mist in). Maar het is die transformatie die plaatsvindt in een PCA.

In context van PCA ga je eerst de covariantiematrix van je originele matrix berekenen. Dat is een matrix waarbij je diagonaal de relatie krijgt tussen 2 variabelen (ik kan het me met meerdere variabelen moeilijk voorstellen :)). + als beide variabelen gemiddeld samen groter of kleiner worden, - als ze omgekeerd evenredig veranderen, 0 als er geen relatie is. Maar ik weet niet hoe je daartoe komt.

Bij een PCA worden de eigenvectoren van die covariantiematrix berekend, maar ik begrijp nog steeds niet goed hoe de berekening/transformatie dus plaatsvindt. En de eigenvalues van die eigenvectoren stellen de grootte van de variatie voor.

#6

Gargamel

    Gargamel


  • 0 - 25 berichten
  • 4 berichten
  • Gebruiker

Geplaatst op 15 maart 2012 - 15:56

Geen reacties meer? :)





0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures