Ir al contenido

Resultados de la búsqueda

Para más opciones de búsqueda, vea Ayuda:Búsqueda.

  • En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon)…
    22 kB (3964 palabras) - 20:20 27 ene 2024
  • La neguentropía, negentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para…
    9 kB (1238 palabras) - 08:32 29 jun 2024
  • En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)[1]​[2]​[3]​ (también conocida como divergencia de la información…
    8 kB (1173 palabras) - 14:23 26 ago 2023
  • En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias…
    7 kB (1320 palabras) - 08:36 21 may 2024
  • La entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienen varias variables aleatorias no necesariamente…
    2 kB (363 palabras) - 22:22 13 dic 2022
  • En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min…
    17 kB (2761 palabras) - 21:50 29 dic 2023
  • La perplejidad es una medida de cómo de bien una distribución de probabilidad o modelo de probabilidad predice una muestra. Se puede usar para comparar…
    5 kB (684 palabras) - 00:43 27 may 2023
  • En mecánica estadística, el principio de máxima entropía establece que la distribución de probabilidad menos sesgada que se le puede atribuir a un sistema…
    8 kB (1795 palabras) - 21:46 8 ene 2023
  • En mecánica estadística cuántica, la entropía de von Neumann es la extensión del concepto de entropía de Gibbs clásica al campo de mecánica cuántica. Recibe…
    13 kB (2051 palabras) - 18:19 30 may 2024
  • En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento…
    1 kB (213 palabras) - 00:37 11 jul 2022
  • En física, la entropía de Tsallis es una generalización de la entropía estándar de Boltzmann. Es útil para estudiar los intercambios de información entre…
    7 kB (1124 palabras) - 21:50 29 dic 2023
  • La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia…
    13 kB (2291 palabras) - 18:15 9 ene 2023
  • El principio de Landauer es un principio físico que concierne a una cuota inferior teórica para el consumo de energía de la computación. Establece que…
    16 kB (1973 palabras) - 18:40 20 may 2023
  • El Punto de Información Mutua (PIM) o Información Mutua Puntual, (IMP) (en inglés, Pointwise mutual information (PMI)),[1]​ es una medida de asociación…
    7 kB (943 palabras) - 19:24 18 sep 2023
  • Para un cifrador la distancia de unicidad, también llamada punto de unicidad, es el valor mínimo de caracteres del texto cifrado que se necesitan para…
    19 kB (3113 palabras) - 11:13 1 ene 2024
  • La exformación (del danés eksformation) es un término acuñado por el autor de divulgación científica Tor Nørretranders en su libro The User Illusion, publicado…
    4 kB (474 palabras) - 17:13 31 dic 2023
  • La seguridad entrópica es una definición de seguridad utilizada en el campo de la criptografía. En general, los esquemas de cifrado modernos deben proteger…
    4 kB (483 palabras) - 10:45 3 ene 2024