Entropi (informationsteori)
For andre betydninger, se Entropi (flertydig)
- Der er for få eller ingen kildehenvisninger i denne artikel, hvilket er et problem. Du kan hjælpe ved at angive troværdige kilder til de påstande, som fremføres i artiklen.
I informationsteori er entropi (også informationsentropi eller Shannon-entropi) en måde at betegne og give værdi til evolution og vækst i viden. Især KI-applikationer gør brug af entropi til at læse informationer. De sammenligner simpelthen systemets dele og vælger det stykke data med mindst (~0) entropi.
Entropien er givet ved en sum over alle mulige tilstande:
hvor er sandsynligheden for tilstanden .[1]
Entropien opnås være at tage gennemsnittet af informationsmængden for hvert udfald:
For et system med forskellige udfald er entropien altså den gennemsnitlige informationsmængde, der opnås ved en måling. Jo højere entropien er, jo større usikkerhed er der omkring udfaldet.[2]
Inden for fysikken kaldes den tilsvarende ligning for Gibbs' entropiformel.[3]
Simpelt eksempel
I det følgende gives eksempler på beregning af entropi.
Møntkast
Når en ærlig mønt bruges til at slå plat eller krone, har den 50 % - dvs. - sandsynlighed for at lande på krone og 50 % sandsynlighed for at lande på plat. Informationsmængden for hver udfald er derfor:
Den gennemsnitlige informationsmængde - entropien - for ét mønstkast er derfor også 1:
For to mønter fordobles informationsmængden ,og derfor bliver entropien 2. Der er nemlig 4 mulige udfald med to mønter, og hvert udfald har 25 % sandsynlighed, så:
Da antallet af mulige udfald fordobles med hver mønt, må antallet af mulige udfald for et arbitrært antal mønter være . Sandsynligheden per udfald er derfor:
Og derfor er entropien:
Entropien for møntkast er altså simpelthen .
Så jo flere mønter, jo højere entropi, da hvert udfald bliver mere og mere usandsynligt, og informationen omvendt bliver større og større.
Bernoulli-proces
En Bernoulli-proces er en måling, hvor der er to mulige udfald med sandsynlighederne og
hvor er konstant. Dette er en generalisering af den ærlige mønt, hvor . Entropien er:
For er entropien 1 som før, men for - dvs. hvis udfald 1 er umuligt - bliver entropien:
Entropien ville også være 0 bit, hvis kun udfald 2 var muligt. Hvis kun ét udfald er muligt, er der ikke længere nogen usikkerhed, mens usikkerheden er størst, hvis begge udfald er lige sandsynlige (se figur).[2]
Kildehenvisninger
- ^ Pathria, R. K.; Beale, Paul (2011). Statistical Mechanics (Third Edition). Academic Press. s. 51. ISBN 978-0123821881. Arkiveret fra originalen 17. juni 2020. Hentet 16. december 2019.
- ^ a b c Blundell, Stephen J.; Blundell, Katherine M. (2006). "15.1 Information and Shannon entropy". Concepts in Thermal Physics (engelsk) (1. udgave). Oxford University Press. s. 153-155. ISBN 978-0-19-856770-7.
- ^ Blundell, Stephen J.; Blundell, Katherine M. (2006). "14.8 Entropy and probability". Concepts in Thermal Physics (engelsk) (1. udgave). Oxford University Press. s. 146-148. ISBN 978-0-19-856770-7.
Spire Denne artikel om matematik er en spire som bør udbygges. Du er velkommen til at hjælpe Wikipedia ved at udvide den. |
|
Medier brugt på denne side
Forfatter/Opretter: http://www.cngcoins.com/, Licens: CC BY-SA 3.0
Information entropy (in bits) is the log-base-2 of the number of possible outcomes. With two coins there are four outcomes HH-HT-TH-TT, and the entropy is two bits.
Forfatter/Opretter:
Newer version by Rubber Duck, Licens: CC BY-SA 3.0
en:Information entropy of a en:Bernoulli trial X. If X can assume values 0 and 1, entropy of X is defined as H(X) = -Pr(X=0) log2 Pr(X=0) - Pr(X=1) log2 Pr(X=1). It has value if Pr(X=0)=1 or Pr(X=1)=1. The entropy reaches maximum when Pr(X=0)=Pr(X=1)=1/2 (the value of entropy is then 1). The image was created in the following steps. First I have created a DVI version starting from a LaTeX/Pstricks source. Here is the code:
%Plot of information entropy of Bernoulli variable
%
%latex binary_entropy_plot; dvips binary_entropy_plot
%open .ps file in gimp, choose strong antialias in both text and graphics,
%resulution 500, color mode, crop, scale to 45%, save as .png
\documentclass[12pt]{article}
\usepackage{pst-plot}
\begin{document}
\psset{unit=4cm}
\begin{pspicture}(0,0)(1.01,1)
\psgrid[gridlabels=0pt,gridcolor=lightgray,subgriddiv=10,subgridcolor=lightgray](0,0)(0,0)(1,1)
\newrgbcolor{myblue}{0 0 0.7}
\psaxes[arrows=->,arrowsize=2pt 4,Dx=0.5,Dy=0.5](0,0)(0,0)(1.1,1.1)
\psplot[plotstyle=curve,plotpoints=100,linewidth=1.8pt,linecolor=myblue]{0.0001}{0.9999}{-1 x x log 2 log div mul 1 x sub 1 x sub log 2 log div mul add mul}
\rput(0.5,-0.22){$\Pr(X=1)$}
\rput{90}(-0.28,0.5){$H(X)$}
\end{pspicture}
\end{document}