Informazioaren teorian baldintzazko entropia, baita ere nahastea deituta, kuantifikatzen du zenbatekoa den
aldagai aleatorioa,
aldagai aleatorioaren balioaren menpean dagoena, behar izan den informazio kopurua.
baldin bada
ausazko aldagairen entropia,
ausazko aldagairen menpean izanik eta hau
valioa edukiz, eta
Probabilitate-funtzio edukiz,
, bere baldintzazko entropia honela kalkulatuko da
. Hona emen formula:
ren informazio-edukia izanik
balioa hartuz.
ren baldintza entropikoa
k
balioa hartuz konditzionatuta egotea analogikoki definitituta dago baldintzazko esperantzaren bitartez:
da
batazbestekoa
ren
positibo guztiak hartuz.
eta
zorizko aldagaiak emanez, bere imajinak
eta
izanik,
ren baldintzazko entropia
emanez
ren gehiketa izango da,
ren balio positibo guztietan,
pisua bezala hartuz.
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)\ &\equiv \sum _{x\in {\mathcal {X}}}\,p(x)\,\mathrm {H} (Y|X=x)\\&=-\sum _{x\in {\mathcal {X}}}p(x)\sum _{y\in {\mathcal {Y}}}\,p(y|x)\,\log \,p(y|x)\\&=-\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}\,p(x,y)\,\log \,p(y|x)\\&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log \,p(y|x)\\&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log {\frac {p(x,y)}{p(x)}}.\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0604e1cb206a4dd659d84439d83704319feb71ec)
Oharra: Ulertzen da expresioa
eta
finkorako
erabili behar direla 0 bezala.
Ezaugarriak[editar]
Baldintzazko entropia zero bada[editar]
izango da baldin eta
koa
rekiko guztiz baldintzatuta baldin badago.
Baldintzazko entropia ausazko aldaigaia independentea bada[editar]
izango da
koa eta
aldagai independenteak baldin badira.
Kate erregela[editar]
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)&=\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log \left({\frac {p(x)}{p(x,y)}}\right)\\[4pt]&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log(p(x,y))+\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}{p(x,y)\log(p(x))}\\[4pt]&=\mathrm {H} (X,Y)+\sum _{x\in {\mathcal {X}}}p(x)\log(p(x))\\[4pt]&=\mathrm {H} (X,Y)-\mathrm {H} (X).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2baddbd85be799629ae27dd729e3b067363aac06)
Bayes-en legea[editar]
Bayesen legeak baldintzazko entropiari buruz dio
![{\displaystyle \mathrm {H} (Y|X)\,=\,\mathrm {H} (X|Y)-\mathrm {H} (X)+\mathrm {H} (Y).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/19d94407d6fcf7e76083457cd72c1c5efa049091)
Frogapena:
eta
ekuazioak ditugu, eta
simetrikoak dira.
Hortaz,
daukagunez,
lortzen degu, eta hau ordenatuz
Bayesen legea lortzen da.
koa
rekiko independentea baldin bada, eta
edukiz
![{\displaystyle \mathrm {H} (Y|X,Z)\,=\,\mathrm {H} (Y|X).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a67d62362d7e4d280e7dfc125527704259b10cad)
Beste ezaugarriak[editar]
Edozein
eta
rako:
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)&\leq \mathrm {H} (Y)\,\\\mathrm {H} (X,Y)&=\mathrm {H} (X|Y)+\mathrm {H} (Y|X)+\operatorname {I} (X;Y),\qquad \\\mathrm {H} (X,Y)&=\mathrm {H} (X)+\mathrm {H} (Y)-\operatorname {I} (X;Y),\,\\\operatorname {I} (X;Y)&\leq \mathrm {H} (X),\,\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b7c4b5411ed661515a9105888c14547b01afa021)
Non
den
eta
ren elkarrekiko informazioa
eta
elkarrekiko independenteak direnean:
and ![{\displaystyle \mathrm {H} (X|Y)=\mathrm {H} (X)\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/65d6beb9a32406a7945d075cef6c769e9a37d02d)
Naiz eta baldintza-espezifiko entropia
baino handiago ala txikiago izan daitekeen
ko
ausako algaia,
ezin du inoiz
baino probabilitate gehio eduki