Ir al contenido

Usuario:Scigfry/Taller

De Wikipedia, la enciclopedia libre

Informazioaren teorian baldintzazko entropia, baita ere nahastea deituta, kuantifikatzen du zenbatekoa den aldagai aleatorioa, aldagai aleatorioaren balioaren menpean dagoena, behar izan den informazio kopurua.

Definizioa[editar]

baldin bada ausazko aldagairen entropia, ausazko aldagairen menpean izanik eta hau valioa edukiz, eta Probabilitate-funtzio edukiz, , bere baldintzazko entropia honela kalkulatuko da . Hona emen formula:

ren informazio-edukia izanik balioa hartuz.

ren baldintza entropikoa k balioa hartuz konditzionatuta egotea analogikoki definitituta dago baldintzazko esperantzaren bitartez:

da batazbestekoa ren positibo guztiak hartuz.

eta zorizko aldagaiak emanez, bere imajinak eta izanik, ren baldintzazko entropia emanez ren gehiketa izango da, ren balio positibo guztietan, pisua bezala hartuz.

Oharra: Ulertzen da expresioa eta finkorako erabili behar direla 0 bezala.

Ezaugarriak[editar]

Baldintzazko entropia zero bada[editar]

izango da baldin eta koa rekiko guztiz baldintzatuta baldin badago.

Baldintzazko entropia ausazko aldaigaia independentea bada[editar]

izango da koa eta aldagai independenteak baldin badira.

Kate erregela[editar]


Bayes-en legea[editar]

Bayesen legeak baldintzazko entropiari buruz dio

Frogapena: eta ekuazioak ditugu, eta simetrikoak dira.
Hortaz, daukagunez, lortzen degu, eta hau ordenatuz Bayesen legea lortzen da.

koa rekiko independentea baldin bada, eta edukiz

Beste ezaugarriak[editar]

Edozein eta rako:

Non den eta ren elkarrekiko informazioa

eta elkarrekiko independenteak direnean:

and

Naiz eta baldintza-espezifiko entropia baino handiago ala txikiago izan daitekeen ko ausako algaia, ezin du inoiz baino probabilitate gehio eduki