Waarom gebruikt men precies
\( z = \frac{a-\mu}{\sigma} \)
om te standardiseren? Welke redenering zit hierachter?
Totaal onwiskundige uitleg:
Stel
\(A\) is normaal verdeeld rond
\(\mu_A\) met standaard deviatie
\(\sigma_A\). Neem nu
\(Y = A - \mu_A\). Deze operatie heeft natuurlijk geen invloed op de standaard deviatie (elk element van
\(A\) wordt evenveel verschoven... de 'vorm' van de verdeling verandert dus niet).
\(Y\) is dus normaal verdeeld rond 0 met standaard deviatie
\(\sigma_A\).
Neem nu
\(Z = \frac{Y}{\sigma_Y}\). De verdeling wordt 'samengedrukt' of 'uitgerekt'. Twee elementen van
\(Y\) die
\(y_1 - y_2\) van elkaar afliggen, zullen
\(\frac{y_1}{\sigma_Y} - \frac{y_2}{\sigma_Y} = \frac{y_1 - y_2}{\sigma_Y}\) van elkaar afkomen te liggen. Alle 'afstanden' in de verdeling
\(Y\) worden dus geschaald met
\(\frac{1}{\sigma_Y}\). De standaard deviatie van
\(Z\) is dus
\(\frac{\sigma_Y}{\sigma_Y} = 1 \).
De verdeling
\(A\) wordt dus eerst zo verschoven dat zijn gemiddelde rond 0 komt te liggen en dan samengedrukt zodat zijn standaard deviatie 1 wordt.