Diferencia entre revisiones de «Arquitectura Harvard»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Sin resumen de edición
m Revertidos los cambios de 189.165.108.19 a la última edición de JAnDbot
Línea 1: Línea 1:
<nowiki>Introduce aquí texto sin formato</nowiki>[[Imagen:Architettura harvard.png|thumb|250px|Arquitectura Harvard]]
[[Imagen:Architettura harvard.png|thumb|250px|Arquitectura Harvard]]


El término '''Arquitectura Harvard''' originalmente se refería a las [[arquitectura de '''computadores|
El término '''Arquitectura Harvard''' originalmente se refería a las [[arquitectura de computadores|arquitecturas de computadoras]] que utilizaban dispositivos de almacenamiento físicamente separados para las instrucciones y para los datos (en oposición a la [[Arquitectura de von Neumann]]). El término proviene de la computadora [[Harvard Mark I]], que almacenaba las instrucciones en cintas perforadas y los datos en interruptores.
== arquitecturas de computadoras]] que utilizaban dispositivos de almacenamiento físicamente separados para las instrucciones y para los datos (en oposición a la [[Arquitectura de von Neumann]]). El término proviene de la computadora [[Harvard Mark I]], que almacenaba las instrucciones en cintas perforadas y los datos en interruptores.


Todas las computadoras constan principalmente de dos partes, la [[CPU]] que procesa los datos, y la [[memoria de ordenador|memoria]] que guarda los datos. Cuando hablamos de memoria manejamos dos parámetros, los datos en sí, y el lugar donde se encuentran almacenados (o [[dirección de memoria|dirección]]). Los dos son importantes para la CPU, pues muchas instrucciones uikygygjghja algo así como "coge los datos de ésta dirección y añádelos a los datos de ésta otra dirección", sin saber en realidad qué es lo que contienen los datos.
Todas las computadoras constan principalmente de dos partes, la [[CPU]] que procesa los datos, y la [[memoria de ordenador|memoria]] que guarda los datos. Cuando hablamos de memoria manejamos dos parámetros, los datos en sí, y el lugar donde se encuentran almacenados (o [[dirección de memoria|dirección]]). Los dos son importantes para la CPU, pues muchas instrucciones frecuentes se traducen a algo así como "coge los datos de ésta dirección y añádelos a los datos de ésta otra dirección", sin saber en realidad qué es lo que contienen los datos.


En los últimos años la velocidad de las CPUs ha aumentado mucho en comparación a la de las memorias con las que trabaja, así que se debe poner mucha atención en reducir el número de veces que se accede a ella para mantener el rendimiento. Si, por ejemplo, cada instrucción ejecutada en la CPU requiere un acceso a la memoria, no se gana nada incrementando la velocidad de la CPU - este problema es conocido como 'limitación de memoria'.
En los últimos años la velocidad de las CPUs ha aumentado ==
mucho en comparación a la de las memorias''''''Texto en negrita''' con las que trabaja, así que se debe poner mucha atención en reducir el número de veces que se accede a ella para mantener el rendimiento. Si, por ejemplo, cada instrucción ejecutada en la CPU requiere un acceso a la memoria, no se gana nada incrementando la velocidad de la CPU - este problema es conocido como 'limitación de memoria'.


Se puede fabricar memoria mucho más rápida, pero a costa de un precio muy alto. La solución, por tanto, es proporcionar una pequeña cantidad de memoria muy rápida conocida con el nombre de [[Memoria caché|caché]]. Mientras los datos que necesita el procesador estén en la caché, el rendimiento será mucho mayor que si la caché tiene que obtener primero los datos de la memoria principal. La optimización de la caché es un tema muy importante de cara al diseño de computadoras.
Se puede fabricar memoria mucho más rápida, pero a costa de un precio muy alto. La solución, por tanto, es proporcionar una pequeña cantidad de memoria muy rápida conocida con el nombre de [[Memoria caché|caché]]. Mientras los datos que necesita el procesador estén en la caché, el rendimiento será mucho mayor que si la caché tiene que obtener primero los datos de la memoria principal. La optimización de la caché es un tema muy importante de cara al diseño de computadoras.

Revisión del 13:42 28 ago 2009

Arquitectura Harvard

El término Arquitectura Harvard originalmente se refería a las arquitecturas de computadoras que utilizaban dispositivos de almacenamiento físicamente separados para las instrucciones y para los datos (en oposición a la Arquitectura de von Neumann). El término proviene de la computadora Harvard Mark I, que almacenaba las instrucciones en cintas perforadas y los datos en interruptores.

Todas las computadoras constan principalmente de dos partes, la CPU que procesa los datos, y la memoria que guarda los datos. Cuando hablamos de memoria manejamos dos parámetros, los datos en sí, y el lugar donde se encuentran almacenados (o dirección). Los dos son importantes para la CPU, pues muchas instrucciones frecuentes se traducen a algo así como "coge los datos de ésta dirección y añádelos a los datos de ésta otra dirección", sin saber en realidad qué es lo que contienen los datos.

En los últimos años la velocidad de las CPUs ha aumentado mucho en comparación a la de las memorias con las que trabaja, así que se debe poner mucha atención en reducir el número de veces que se accede a ella para mantener el rendimiento. Si, por ejemplo, cada instrucción ejecutada en la CPU requiere un acceso a la memoria, no se gana nada incrementando la velocidad de la CPU - este problema es conocido como 'limitación de memoria'.

Se puede fabricar memoria mucho más rápida, pero a costa de un precio muy alto. La solución, por tanto, es proporcionar una pequeña cantidad de memoria muy rápida conocida con el nombre de caché. Mientras los datos que necesita el procesador estén en la caché, el rendimiento será mucho mayor que si la caché tiene que obtener primero los datos de la memoria principal. La optimización de la caché es un tema muy importante de cara al diseño de computadoras.

La arquitectura Harvard ofrece una solución particular a este problema. Las instrucciones y los datos se almacenan en cachés separadas para mejorar el rendimiento. Por otro lado, tiene el inconveniente de tener que dividir la cantidad de caché entre los dos, por lo que funciona mejor sólo cuando la frecuencia de lectura de instrucciones y de datos es aproximadamente la misma. Esta arquitectura suele utilizarse en DSPs, o procesador de señal digital, usados habitualmente en productos para procesamiento de audio y video.

Véase también