Larrabee (GPU)
Larrabee | ||
---|---|---|
Información | ||
Tipo | Microarquitectura | |
Desarrollador | Intel | |
Software | ||
Sistema operativo | FreeBSD | |
Estandarización | ||
Uso | GPGPU | |
Larrabee fue el nombre en código para un chip GPGPU que Intel intentó desarrollar separadamente de su actual línea de aceleradores de gráficos integrados. El chip iba a ser lanzado en 2010 como el núcleo de una tarjeta gráfica 3D para los consumidores, pero estos planes fueron cancelados debido a los retrasos y las primeras decepcionantes cifras de rendimiento.[1] Se iban a vender como chips que prometían revolucionar el mercado, como una plataforma para la investigación y el desarrollo de los gráficos por ordenador y HPC. El proyecto se canceló, aunque se llegaron a vender prototipos de una versión posterior integrada en una tarjeta de gráficos de consumo. El nombre de Larrabee se rumorea que vino de Larrabee State Park en Washington.
Comparación con los productos competidores
[editar]Larrabee puede considerarse un híbrido entre una CPU multinúcleo y una GPU, y tiene similitudes con ambos. Su jerarquía de caché coherente y compatibilidad con la arquitectura x86 son similares a las CPU, mientras que sus amplias unidades de vectores SIMD y hardware de muestreo de textura son similares a las GPU.
Como GPU, Larrabee soporta gráficos en 3D rasterizados tradicionales (Direct3D y OpenGL) para juegos. Sin embargo, las características híbridas de CPU y GPU de Larrabee deben ser adecuadas para tareas de GPU de propósito general (GPGPU) o de procesamiento de flujo. Por ejemplo, Larrabee podría realizar trazado de rayos o procesamiento físico,[2] en tiempo real para juegos o fuera de línea para la investigación científica como un componente de un superordenador.[3]
DreamWorks Animation se ha asociado con Intel y tiene previsto utilizar Larrabee en la producción cinematográfica. El CEO de DreamWorks Animation, Jeffrey Katzenberg, afirma que "estamos en el buen camino de la mejora de nuestro software para poder aprovechar realmente Larrabee y en términos de velocidad, flexibilidad, capacidad, no solo sube el listón de lo que podemos hacer por 2 o 3 veces, sino por 20".[4]
La presentación temprana de Larrabee ha atraído algunas críticas de los competidores de GPU. En NVISION 08, un empleado de Nvidia llamó al papel del SIGGRAPH de Intel sobre Larrabee "soplo de marketing", y citó a un bloguero (Peter Glaskowsky), que especuló que la arquitectura Larrabee era "como una GPU de 2006".[5] En junio de 2009, prototipos de Larrabee se ha afirmado estar a la par con la Nvidia GeForce GTX 285.[6] Justin Rattner, CTO de Intel, hizo una apertura en la conferencia de 2009 de Supercomputación de 17 de noviembre de 2009. Durante su intervención demostró un procesador Larrabee overclockeado superando un TeraFLOPS en el rendimiento. Él dijo que este era la primera demostración pública de una solución de chip único superando un TeraFLOPS. Señaló que esto era un chip prematuro dejando así abierta la pregunta sobre el rendimiento final de Larrabee. Debido a que este era solo una quinta parte de lo que dispone las tarjetas gráficas de la competencia, Larrabee fue cancelada "como un producto independiente de gráficos discretos" el 4 de diciembre de 2009.[1]
Diferencias con las GPUs actuales
[editar]Larrabee será diferente de otras GPUs discretas actualmente en el mercado, como la serie GeForce 200 y la Radeon 4000 series, de tres formas principales: Larrabee utilizará el conjunto de instrucciones x86, con extensiones Larrabee específicas.[7] Larrabee incluirá coherencia de caché en todos sus núcleos.[7] Larrabee incluirá muy poco hardware gráfico especializado, en lugar de realizar tareas como Z-buffering, saturación, y mezcla de software, utilizando un enfoque de representación basada en azulejo.[7] Esto hace a Larrabee más flexible que las GPUs actuales, lo que permite una mayor diferenciación en apariencia entre juegos u otras aplicaciones 3D. El documento del SIGGRAPH 2008 de Intel[7] menciona varias características de representación que son difíciles de lograr en las GPUs actuales: el lectura de render target, transparencia de órdenes independientes, asignación de sombra irregular y trazado de rayos en tiempo real. A pesar de que Larrabee es mucho más flexible que las GPUs actuales, las GPU de última generación (ATI Radeon HD 5xxx y GeForce de Nvidia de la serie 300) cuentan con capacidades de computación de propósito general cada vez más amplias a través de DirectX11 DirectCompute y OpenCL, así como la tecnología patentada de NVIDIA CUDA.
Diferencias con las CPU
[editar]Los núcleos de procesador x86 en Larrabee serán diferentes en varios aspectos de los núcleos en los actuales procesadores de Intel como el Core 2 Duo o Core i7:
- Los núcleos x86 de Larrabee se basarán en el mucho más simple diseño P54C Pentium que todavía se mantiene para su uso en aplicaciones embebidas.[8] El núcleo P54C derivado es superescalar pero no incluye ejecución fuera de orden, aunque se ha actualizado con características modernas, como soporte x86-64,[7] similar a Intel Atom. La ejecución en orden supone un menor rendimiento para núcleos individuales, pero como son más pequeños, caben más en un solo chip, incrementando el rendimiento general. La ejecución es también más determinista para la instrucción y la programación de tareas se puede hacer por el compilador.
- Cada núcleo Larrabee contiene una unidad de procesamiento vectorial (SIMD) de 512-bits, capaz de procesar 16 números de precisión simple en coma flotante a la vez. Esto es cuatro veces mayor que las funciones SSE en la mayoría de los procesadores x86. Incluye además características adicionales como instrucciones scatter / gather y una máscara de registro diseñado para hacer uso de la unidad de vectores más fácil y eficiente. Larrabee deriva la mayor parte de su potencia de cálculo de estas unidades vectoriales.[7]
- Larrabee incluye una importante característica de función fija de hardware de gráficos: unidades de textura de muestreo. Estas realizan filtrado anisotrópico y trilineal y descompresión de texturas.[7]
- Larrabee tiene un bus en anillo de 1024 bits (512 bits en cada sentido) para la comunicación entre los núcleos y la memoria. [8] Este bus se puede configurar en dos modos para soportar los productos Larrabee con 16 núcleos o más, o menos de 16 núcleos.[9]
- Larrabee incluye instrucciones explícitas de control de caché para reducir la hiper paginación de caché durante las operaciones de transmisión que solo leen/escriben de datos una vez.[7] El prefetching explícito en la caché L1 o L2 también se soporta.
- Cada núcleo soporta multihilo intercalado de 4-vías, con 4 copias de cada registro de procesador.[7]
Teóricamente los núcleos de procesador x86 de Larrabee serán capaces de ejecutar software de PC existente, o incluso sistemas operativos. Sin embargo, la tarjeta de vídeo Larrabee no incluirá todas las características de una placa base compatible con PC, por lo que los sistemas operativos para ordenadores personales y aplicaciones no funcionarán sin modificaciones. Una versión diferente de Larrabee podría montarse en los zócalos de CPU de la placa base mediante QuickPath,[10] pero Intel no ha anunciado planes para ello. Aunque el compilador de C/C++ de Larrabee Nativo incluye auto-vectorización y muchas aplicaciones se pueden ejecutar correctamente después de volverlas a compilar, la máxima eficiencia puede requerir de optimización de código usando en intrínsecos de vectores C++ o el código ensamblador en línea Larrabee. [8] Sin embargo, como en todos los GPGPU, no todos los beneficios de software de la utilización de una unidad de procesamiento vectorial. Un sitio de periodismo tecnológico reclama que las capacidades de los gráficos Larrabee están siendo planificadas para ser integradas en las CPUs basadas en la microarquitectura Haswell.[11]
Referencias
[editar]- ↑ a b «Intel: Initial Larrabee graphics chip canceled». Archivado desde el original el 1 de abril de 2013. Consultado el 25 de diciembre de 2009. Texto «Nanotech - The Circuits Blog - CNET News» ignorado (ayuda)
- ↑ Stokes, Jon. «Intel picks up gaming physics engine for forthcoming GPU product». Ars Technica. Consultado el 17 de septiembre de 2007.
- ↑ Stokes, Jon. «Clearing up the confusion over Intel's Larrabee». Ars Technica. Consultado el 1 de junio de 2007.
- ↑ «Intel, DreamWorks take 3D graphics to Super Bowl». 29 de enero de 2009. Archivado desde el original el 24 de octubre de 2012. Consultado el 5 de diciembre de 2009.
- ↑ «Larrabee performance--beyond the sound bite». Archivado desde el original el 6 de septiembre de 2008. Consultado el 1 de enero de 2010.
- ↑ Intel's 'Larrabee' on Par With GeForce GTX 285
- ↑ a b c d e f g h i «Larrabee: A Many-Core x86 Architecture for Visual Computing». Intel. doi:10.1145/1360612.1360617. Archivado desde el original el 25 de julio de 2009. Consultado el 6 de agosto de 2008.
- ↑ «Intel's Larrabee GPU based on secret Pentagon tech, sorta [Updated]». Ars Technica. Consultado el 6 de agosto de 2008.
- ↑ Glaskowsky, Peter. «Intel's Larrabee--more and less than meets the eye». CNET. Archivado desde el original el 23 de octubre de 2012. Consultado el 20 de agosto de 2008.
- ↑ Stokes, Jon. «Clearing up the confusion over Intel's Larrabee, part II». Ars Technica. Consultado el 16 de enero de 2008.
- ↑ http://www.semiaccurate.com/2009/08/19/intel-use-larrabee-graphics-cpus/
Enlaces externos
[editar]- Larrabee: Next-Generation Visual Computing Microarchitecture
- Intel® Software Network
- Video of a raytracer running on one of the first Larrabee cards at IDF '09
- Whitepapers on LRBni, Physics Simulations and more using Larrabee
- Rasterization on Larrabee
- A First Look at the Larrabee New Instructions (LRBni)
- C++ implementation of the Larrabee new instructions
- Game Physics Performance on Larrabee
- Intel fact sheet about Larrabee
- Intel's SIGGRAPH 2008 paper on Larrabee
- Techgage.com - Discusses how Larrabee differs from normal GPUs, includes block diagram illustration
- Intel's Larrabee Architecture Disclosure: A Calculated First Move
- Intel kills consumer Larrabee, focuses on future variants