Diferencia entre revisiones de «Caché (informática)»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Muro de Aguas (discusión · contribs.)
m Revertidos los cambios de 189.166.133.230 (disc.) a la última edición de Diogeneselcinico42
Línea 2: Línea 2:


== Nombre ==
== Nombre ==
La palabra procede de la voz inglesa ''cache'' ([[Alfabeto Fonético Internacional|/kæʃ/]]; "escondite secreto para guardar mercancías, habitualmente de contrabando") y esta a su vez de la [[idioma francés|francesa]] ''cache'', ([[Alfabeto Fonético Internacional|/kaʃ/]]; "escondrijo o escondite"). A menudo, en español se escribe erróneamente con tilde sobre la "e" por pensarse que se trata de la misma palabra que "caché" ("distinción o elegancia" o "cotización de un artista"), proveniente de un étimo también francés, pero totalmente distinto: ''cachet'', ([[Alfabeto Fonético Internacional|/ka'ʃɛ/]]; "sello" o "salario"). En la literatura especializada en Arquitectura de Computadores (como, entre otros, las traducciones de los libros de William Stallings, [[Andrew S. Tanenbaum]], [[John L. Hennessy]] y [[David A. Patterson]]) se emplea siempre la palabra sin tilde.
La palabra procede de la escuela cetis 113 y es muy mala


==Memoria Cache o RAM Cache ==
==Memoria Cache o RAM Cache ==
Un cache es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de cache frecuentemente usados en las computadoras personales: memoria cache y cache de disco. Una memoria cache, llamada también a veces almacenamiento cache o RAM cache, es una parte de memoria RAM estática de alta velocidad ([[SRAM]]) más que la lenta y barata [[Memoria de acceso aleatorio|RAM]] dinámica ([[DRAM]]) usada como memoria principal. La memoria cache es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM.
Un cache es un sistema de calsetines sucios basicos

Cuando un dato es encontrado en la cache, se dice que se ha producido un impacto ([[hit]]), siendo un cache juzgado por su tasa de impactos (hit rate). Los sistemas de memoria cache usan una tecnología conocida por cache inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el cache constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias cache están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una cache L2 de 512 Kbytes.

El cache de disco trabaja sobre los mismos principios que la memoria cache, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.


== Composición interna ==
== Composición interna ==
La memoria cache está estructurada por celdas, donde cada celda almacena un byte. La entidad básica de almacenamiento la conforman las filas, llamados también líneas de cache. Por ejemplo, una cache L2 de 512 KB se distribuye en 16.384 filas y 63 columnas
La memoria cache se integra por condones sucios

Cuando se copia o se escribe información de la RAM por cada movimiento siempre cubre una línea de cache.

La memoria cache tiene incorporado un espacio de almacenamiento llamado Tag RAM, que indica a qué porción de la RAM se halla asociada cada línea de cache, es decir, traduce una dirección de RAM en una línea de cache concreta.


== Diseño ==
== Diseño ==

Revisión del 13:50 19 jun 2009

Diagrama de una memoria cache de CPU.

Nombre

La palabra procede de la voz inglesa cache (/kæʃ/; "escondite secreto para guardar mercancías, habitualmente de contrabando") y esta a su vez de la francesa cache, (/kaʃ/; "escondrijo o escondite"). A menudo, en español se escribe erróneamente con tilde sobre la "e" por pensarse que se trata de la misma palabra que "caché" ("distinción o elegancia" o "cotización de un artista"), proveniente de un étimo también francés, pero totalmente distinto: cachet, (/ka'ʃɛ/; "sello" o "salario"). En la literatura especializada en Arquitectura de Computadores (como, entre otros, las traducciones de los libros de William Stallings, Andrew S. Tanenbaum, John L. Hennessy y David A. Patterson) se emplea siempre la palabra sin tilde.

Memoria Cache o RAM Cache

Un cache es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de cache frecuentemente usados en las computadoras personales: memoria cache y cache de disco. Una memoria cache, llamada también a veces almacenamiento cache o RAM cache, es una parte de memoria RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria cache es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM.

Cuando un dato es encontrado en la cache, se dice que se ha producido un impacto (hit), siendo un cache juzgado por su tasa de impactos (hit rate). Los sistemas de memoria cache usan una tecnología conocida por cache inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el cache constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias cache están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una cache L2 de 512 Kbytes.

El cache de disco trabaja sobre los mismos principios que la memoria cache, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.

Composición interna

La memoria cache está estructurada por celdas, donde cada celda almacena un byte. La entidad básica de almacenamiento la conforman las filas, llamados también líneas de cache. Por ejemplo, una cache L2 de 512 KB se distribuye en 16.384 filas y 63 columnas

Cuando se copia o se escribe información de la RAM por cada movimiento siempre cubre una línea de cache.

La memoria cache tiene incorporado un espacio de almacenamiento llamado Tag RAM, que indica a qué porción de la RAM se halla asociada cada línea de cache, es decir, traduce una dirección de RAM en una línea de cache concreta.

Diseño

En el diseño de la memoria cache se deben considerar varios factores que influyen directamente en el rendimiento de la memoria y por lo tanto en su objetivo de aumentar la velocidad de respuesta de la jerarquía de memoria. Estos factores son las políticas de ubicación, extracción, reemplazo, escritura y el tamaño de la cache y de sus bloques.

Política de ubicación

Decide dónde debe colocarse un bloque de memoria principal que entra en la memoria cache. Las más utilizadas son:

  • Directa: Al bloque i-ésimo de memoria principal le corresponde la posición i módulo n, donde n es el número de bloques de la memoria cache.
  • Asociativa: Cualquier bloque de memoria principal puede ir en cualquiera de los n bloques de la memoria cache.
  • Asociativa por conjuntos: La memoria cache se divide en k conjuntos de bloques, así al bloque i-ésimo de memoria principal le corresponde el conjunto i módulo k. Dicho bloque de memoria podrá ubicarse en cualquier posición de ese conjunto.

Política de extracción

La política de extracción determina cuándo y qué bloque de memoria principal hay que traer a memoria cache. Existen dos políticas muy extendidas:

  • Por demanda: Un bloque sólo se trae a memoria cache cuando ha sido referenciado y se produzca un fallo.
  • Con prebúsqueda: Cuando se referencia el bloque i-ésimo de memoria principal, se trae además el bloque (i+1)-esimo. Esta política se basa en la propiedad de localidad espacial de los programas.

Política de reemplazo

(Ver también Algoritmos de reemplazo de páginas ) Determina qué bloque de memoria cache debe abandonarla cuando no existe espacio disponible para un bloque entrante. Básicamente hay cuatro políticas que son:

  • Aleatoria: El bloque es reemplazado de forma aleatoria.
  • FIFO: Se usa un algoritmo First In First Out FIFO (primero en entrar es el primero en salir) para determinar qué bloque debe abandonar la cache. Este algoritmo generalmente es poco eficiente.
  • Menos recientemente usado (LRU): Se sustituye el bloque que hace más tiempo que no se ha en la cache, traeremos a cache el bloque en cuestión y lo modificaremos ahí.

Véase también

Enlaces externos