Entropie

Moderators: dirkwb, Xilvo

Forumregels
(Middelbare) school-achtige vragen naar het forum "Huiswerk en Practica" a.u.b.
Zie eerst de Huiswerkbijsluiter
Reageer
Berichten: 4

Entropie

Een bron genereert een onafhankelijke rij symbolen uit het alfabet {0,1}. De kans

op een 0 is 0, 9, de kans op een 1 is 0, 1. De rij getallen wordt met een ‘Run-Length

codering’ gecodeerd tot een rij met symbolen uit het alfabet {a,b,c,d,e, f ,g,h, i}.

Tenslotte worden deze ‘run-length’ codewoorden weer gecodeerd met een Huffmancode.

b-code | r-code

1 | a

01 | b

001 | c

0001 | d

00001 | e

000001 | f

0000001 | g

00000001 | h

00000000 | i

Kan iemand mij misschien uitleggen welke stappen ik kan nemen om achter de entropie van de bron te komen?

Zelf dacht ik dat H(X)= -9 pi(0,9|0,1)log2(0,9)

pi = de kans/waarschijnlijkheid

alleen weet ik niet welke getal de variabel x moet zijn

Gebruikersavatar
Moderator
Berichten: 51.271

Re: Entropie

Iemand die hier een handje kan toesteken?
ALS WIJ JE GEHOLPEN HEBBEN...
help ons dan eiwitten vouwen, en help mee ziekten als kanker en zo te bestrijden in de vrije tijd van je chip...
http://www.wetenscha...showtopic=59270

Gebruikersavatar
Berichten: 10.179

Re: Entropie

Verplaatst naar Wiskunde.
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Gebruikersavatar
Berichten: 2.609

Re: Entropie

Hoeveel symbolen verzendt de bron?

Wat is de kans op elk symbool?

Wat is de definitie van entropie?

Als je de definitie en de kansen kent, dan kan je toch makkelijk de entropie berekenen?

De X duidt gewoon aan dat je de entropie van de bron wil kennen, H(Y) is de entropie van de ontvanger.

Verder heb je ook nog H(X,Y), H(X|Y) en H(Y|X) maar die definities verschillen een beetje.

Reageer