Lemma
수학, 거꾸로

엔트로피

en · 짝 entropy

`H(X) = −Σ pᵢ log₂ pᵢ`. 어떤 결과가 나왔는지 식별하는 데 평균적으로 필요한 예/아니오 질문의 수. `N`개 결과가 모두 같은 확률이면 `log₂ N`(최대)에 도달하고, 한 결과가 확률 1이면 0(불확실성 없음)으로 무너진다. 로그 밑이 단위를 정한다: log₂ → bit, ln → nat, log₁₀ → ban. `log` 위에 서 있어서 독립인 두 확률변수의 엔트로피가 더해진다: X, Y가 독립이면 `H(X, Y) = H(X) + H(Y)`.

발명

1948 · Claude Shannon · Bell Labs, New Jersey

섀넌의 《A Mathematical Theory of Communication》(1948)이 *정보* 자체를 비트 단위로 정의했다 — 한 결과를 가리는 데 평균적으로 필요한 예/아니오 질문 수. 벨 연구소의 암호분석이 '이 신호엔 정보가 얼마나 있나'에 대한 정량적 답을 필요로 했고, 그 답이 정보이론이라는 분야 전체를 열었다.

en.wikipedia.org/wiki/A_Mathematical_Theory_of_Communication ↗

관련 용어
사용 위치 · 1