Discusión:Entropía (información)

Contenido de la página no disponible en otros idiomas.
De Wikipedia, la enciclopedia libre

Entonces, ¿entropía es la medida de información media que entrega una fuente? Si como en el caso de la moneda H(s)= 1 hacemos lo mismo pero con un dado H(s) = 2.59, con lo cual quiere decir que a mayor cantidad de variables (considerando que son equiprobables) cada una aportará más información.

No, es una medida de la información real que se da. No es lo mismo almacenar 121212121212121 como si fueran caracteres alfanuméricos ascii donde cada uno tendría que ocupar 8 bits, que comprimirlo, ya que la entropía es H(s)=1. La mejor manera de verlo es entrar en el campo de la compresión de audio y video, en la que se hace que durante algún tiempo, cierta zona de la imagen sólo pueda tener ciertos colores, habiendo usado una medida de la entropía para e
tu crees?, estoy estudiando ingenieria de telecomunicación y aunque hemos profundizado bastante más..., lo que nos han enseñado ha sido eso.
Yo no estudio telecos, pero sí sospecho que es el logaritmo en base <N> y no precisamente 2, que es el tomado para bits (binary digits, N = 2) lo que excluye la discusion sobre si son 2 o 8 bits la longitud de representación del conjunto de señales elementales.

Sin embargo, al tomar el número de bits que se precisa para representar el repertorio de símbolos elementales distintos posibles en el mensaje, tiene validez el uso del logaritmo dual o binario, puesto que el resultado será equivalente multiplicado por una constante ('adivínese' cual)

No os parece algo sesgado el apartado de referencias? --DaturaStramonium (discusión) 15:07 1 sep 2012 (UTC)[responder]

Bueno a mí me parece incompleto, la referencia que se da no se usa en el artículo y las que se han usado no aparecen ahí, pero parece cuestión más de añadir, que otra cosa, --Davius (discusión) 22:52 1 sep 2012 (UTC)[responder]

Enlaces rotos[editar]

Elvisor (discusión) 04:55 28 nov 2015 (UTC)[responder]