Binêre entropie, ook bekend as Shannon-entropie, is 'n konsep in inligtingsteorie wat die onsekerheid of ewekansigheid van 'n binêre ewekansige veranderlike met twee uitkomste meet. Dit verskil van klassieke entropie deurdat dit spesifiek op binêre veranderlikes van toepassing is, terwyl klassieke entropie op veranderlikes met enige aantal uitkomste toegepas kan word.
Om binêre entropie te verstaan, moet ons eers die konsep van entropie self verstaan. Entropie is 'n maatstaf van die gemiddelde hoeveelheid inligting of onsekerheid wat in 'n ewekansige veranderlike vervat is. Dit kwantifiseer hoe onvoorspelbaar die uitkomste van 'n ewekansige veranderlike is. Met ander woorde, dit vertel ons hoeveel "verrassing" ons kan verwag wanneer ons die uitkomste van 'n ewekansige veranderlike waarneem.
In die geval van 'n binêre ewekansige veranderlike met twee uitkomste, kom ons dui hierdie uitkomste aan as 0 en 1. Die binêre entropie van hierdie veranderlike, aangedui as H(X), word bereken deur die formule te gebruik:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
waar p(0) en p(1) die waarskynlikhede is om onderskeidelik uitkomste 0 en 1 waar te neem. Die logaritme word na die basis 2 geneem om te verseker dat die resulterende entropiewaarde in bisse gemeet word.
Om die binêre entropie te bereken, moet ons die waarskynlikhede van die twee uitkomste bepaal. As die waarskynlikhede gelyk is, dws p(0) = p(1) = 0.5, dan word die binêre entropie gemaksimeer, wat maksimum onsekerheid aandui. Dit is omdat beide uitkomste ewe waarskynlik is, en ons kan nie voorspel watter een sal plaasvind nie. In hierdie geval is die binêre entropie H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 bis.
Aan die ander kant, as een uitkoms meer waarskynlik is as die ander, word die binêre entropie verminder, wat minder onsekerheid aandui. Byvoorbeeld, as p(0) = 0.8 en p(1) = 0.2, is die binêre entropie H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 bisse. Dit beteken dat ons gemiddeld minder as een stukkie inligting benodig om die uitkomste van hierdie binêre ewekansige veranderlike voor te stel.
Dit is belangrik om daarop te let dat binêre entropie altyd nie-negatief is, wat beteken dat dit groter as of gelyk aan nul is. Dit word gemaksimeer wanneer die waarskynlikhede van die twee uitkomste gelyk is en geminimaliseer wanneer een uitkoms 'n waarskynlikheid van 1 en die ander 'n waarskynlikheid van 0 het.
Binêre entropie meet die onsekerheid of ewekansigheid van 'n binêre ewekansige veranderlike met twee uitkomste. Dit word bereken deur gebruik te maak van die formule -p(0) * log2(p(0)) – p(1) * log2(p(1)), waar p(0) en p(1) die waarskynlikhede van die twee uitkomste is . Die gevolglike entropiewaarde word in bisse gemeet, met hoër waardes wat groter onsekerheid aandui en laer waardes wat minder onsekerheid aandui.
Ander onlangse vrae en antwoorde t.o.v Klassieke entropie:
- Hoe dra die begrip van entropie by tot die ontwerp en evaluering van robuuste kriptografiese algoritmes op die gebied van kuberveiligheid?
- Wat is die maksimum waarde van entropie, en wanneer word dit bereik?
- Onder watter omstandighede verdwyn die entropie van 'n ewekansige veranderlike, en wat impliseer dit van die veranderlike?
- Wat is die wiskundige eienskappe van entropie, en hoekom is dit nie-negatief?
- Hoe verander die entropie van 'n ewekansige veranderlike wanneer die waarskynlikheid eweredig tussen die uitkomste versprei is in vergelyking met wanneer dit bevooroordeeld is na een uitkoms?
- Wat is die verband tussen die verwagte lengte van kodewoorde en die entropie van 'n ewekansige veranderlike in veranderlike lengte-kodering?
- Verduidelik hoe die konsep van klassieke entropie in veranderlike lengte-koderingskemas vir doeltreffende inligtingkodering gebruik word.
- Wat is die eienskappe van klassieke entropie en hoe hou dit verband met die waarskynlikheid van uitkomste?
- Hoe meet klassieke entropie die onsekerheid of willekeurigheid in 'n gegewe sisteem?