Resultados de la búsqueda
Apariencia
Para más opciones de búsqueda, vea Ayuda:Búsqueda.
- En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon)…22 kB (3964 palabras) - 20:20 27 ene 2024
- La neguentropía, negentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para…9 kB (1238 palabras) - 08:32 29 jun 2024
- En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)[1][2][3] (también conocida como divergencia de la información…8 kB (1173 palabras) - 14:23 26 ago 2023
- En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias…7 kB (1320 palabras) - 08:36 21 may 2024
- La entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienen varias variables aleatorias no necesariamente…2 kB (363 palabras) - 22:22 13 dic 2022
- En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min…17 kB (2761 palabras) - 21:50 29 dic 2023
- La perplejidad es una medida de cómo de bien una distribución de probabilidad o modelo de probabilidad predice una muestra. Se puede usar para comparar…5 kB (684 palabras) - 00:43 27 may 2023
- En mecánica estadística, el principio de máxima entropía establece que la distribución de probabilidad menos sesgada que se le puede atribuir a un sistema…8 kB (1795 palabras) - 21:46 8 ene 2023
- En mecánica estadística cuántica, la entropía de von Neumann es la extensión del concepto de entropía de Gibbs clásica al campo de mecánica cuántica. Recibe…13 kB (2051 palabras) - 18:19 30 may 2024
- En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento…1 kB (213 palabras) - 00:37 11 jul 2022
- En física, la entropía de Tsallis es una generalización de la entropía estándar de Boltzmann. Es útil para estudiar los intercambios de información entre…7 kB (1124 palabras) - 21:50 29 dic 2023
- La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia…13 kB (2291 palabras) - 18:15 9 ene 2023
- El principio de Landauer es un principio físico que concierne a una cuota inferior teórica para el consumo de energía de la computación. Establece que…16 kB (1973 palabras) - 18:40 20 may 2023
- El Punto de Información Mutua (PIM) o Información Mutua Puntual, (IMP) (en inglés, Pointwise mutual information (PMI)),[1] es una medida de asociación…7 kB (943 palabras) - 19:24 18 sep 2023
- Para un cifrador la distancia de unicidad, también llamada punto de unicidad, es el valor mínimo de caracteres del texto cifrado que se necesitan para…19 kB (3113 palabras) - 11:13 1 ene 2024
- La exformación (del danés eksformation) es un término acuñado por el autor de divulgación científica Tor Nørretranders en su libro The User Illusion, publicado…4 kB (474 palabras) - 17:13 31 dic 2023
- La seguridad entrópica es una definición de seguridad utilizada en el campo de la criptografía. En general, los esquemas de cifrado modernos deben proteger…4 kB (483 palabras) - 10:45 3 ene 2024