Springen naar inhoud

Entropie


  • Log in om te kunnen reageren

#1

leon86

    leon86


  • 0 - 25 berichten
  • 4 berichten
  • Gebruiker

Geplaatst op 09 februari 2012 - 18:11

Een bron genereert een onafhankelijke rij symbolen uit het alfabet {0,1}. De kans
op een 0 is 0, 9, de kans op een 1 is 0, 1. De rij getallen wordt met een ‘Run-Length
codering’ gecodeerd tot een rij met symbolen uit het alfabet {a,b,c,d,e, f ,g,h, i}.
Tenslotte worden deze ‘run-length’ codewoorden weer gecodeerd met een Huffmancode.

b-code | r-code
1 | a
01 | b
001 | c
0001 | d
00001 | e
000001 | f
0000001 | g
00000001 | h
00000000 | i

Kan iemand mij misschien uitleggen welke stappen ik kan nemen om achter de entropie van de bron te komen?

Zelf dacht ik dat H(X)= -9 pi(0,9|0,1)log2(0,9)
pi = de kans/waarschijnlijkheid
alleen weet ik niet welke getal de variabel x moet zijn

Veranderd door leon86, 09 februari 2012 - 18:12


Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.

#2

Jan van de Velde

    Jan van de Velde


  • >5k berichten
  • 44865 berichten
  • Moderator

Geplaatst op 10 februari 2012 - 21:49

Iemand die hier een handje kan toesteken?
ALS WIJ JE GEHOLPEN HEBBEN....
help ons dan eiwitten vouwen, en help mee ziekten als kanker en zo te bestrijden in de vrije tijd van je chip...
http://www.wetenscha...showtopic=59270

#3

Drieske

    Drieske


  • >5k berichten
  • 10217 berichten
  • Moderator

Geplaatst op 13 februari 2012 - 19:49

Verplaatst naar Wiskunde.
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

#4

Xenion

    Xenion


  • >1k berichten
  • 2606 berichten
  • Moderator

Geplaatst op 14 februari 2012 - 00:22

Hoeveel symbolen verzendt de bron?
Wat is de kans op elk symbool?

Wat is de definitie van entropie?

Als je de definitie en de kansen kent, dan kan je toch makkelijk de entropie berekenen?

De X duidt gewoon aan dat je de entropie van de bron wil kennen, H(Y) is de entropie van de ontvanger.
Verder heb je ook nog H(X,Y), H(X|Y) en H(Y|X) maar die definities verschillen een beetje.





0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures