Unidad de procesamiento de tensor

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Las unidades de procesamiento de tensor (en inglésː tensioner processing units o TPU) son circuitos integrados desarrollados específicamente para el aprendizaje de máquinas. En comparación con las unidades de procesamiento gráfico (que a partir de 2016 se usan con frecuencia para las mismas tareas), estas unidades están diseñadas implícitamente para un mayor volumen de cálculo de precisión reducida (por ejemplo, desde 8 bits de precisión) y carecen de hardware para la rasterización/ cartografía de textura.[1][2]​ El término ha sido acuñado para un chip específico diseñado para el marco Tensor Flow de Google. Otros diseños de aceleradores de IA están apareciendo también en otros proveedores y están dirigidos a mercados de robótica e incrustados.

Google también ha utilizado TPU para el procesamiento de texto de Google Street View y ha podido encontrar todo el texto en la base de datos de Street View en menos de cinco días. En Google Fotos, un TPU individual puede procesar más de 100 millones de fotos al día. También se utiliza en Rank Brain, utilizado por Google para proporcionar resultados de búsqueda.[3]​ La unidad de procesamiento de tensores se anunció en 2016 en Google I/O, aunque la compañía declaró que el TPU había sido utilizado dentro de su centro de datos durante más de un año antes[4][5]

El tamaño del chip puede caber en una ranura de disco duro dentro de un rack de un centro de datos, de acuerdo con el Ingeniero en hardware de Google Norm Jouppi.[6]

Google ha declarado que sus unidades de procesamiento de tensor propietaria se utilizaron en la serie AlphaGo contra Lee Sedol de juegos Go hombre vs máquina.[2]

La primera generación del TPU de Google se presentó en el Google I/O del 2016 diseñado específicamente para apoyar la aplicación de redes neuronales entrenadas.[7]​ Estas TPU tienen menos precisión en comparación con las CPU o GPU normales y una especialización alcanzado por operaciones matriciales.

Arquitectura[editar]

Primera generación[editar]

En la primera generación, el TPU es un motor de multiplicación matricial de 8 bits, controlado con un juego de instrucciones CISC por un procesador host sobre un bus PCIe 3.0. Está fabricado con un proceso de 28nm en un chip con tamaño ≤ 331 mm2. Tiene un reloj a 700 MHz y un diseño térmico de potencia de 28-40 W. Tiene 28 MB de memoria en chip y 4 MB de acumuladores de 32 bits, que toman los resultados de una matriz 256x256 de multiplicadores de 8 bits. Las instrucciones transfieren datos hacia o desde el host, realizando multiplicaciones matriciales o convoluciones, y aplicando funciones de activación[8]

Segunda generación[editar]

La segunda generación de TPU de Google se presentó en Google I/O del 2017. Esto no solo va a acelerar la aplicación de redes neuronales (inferencia), sino también la formación de estas redes. Estas TPU tienen una potencia de procesamiento de 180 TFLOPS y están interconectados a un "pod" con 11,5 petaflops. La topología de la arquitectura del sistema de grupos tiene esferas en forma de red de 8 × 8 TPU.

El TPU de segunda generación forman parte del Google Compute Engine, una oferta en la nube de Google, utilizable.

Los detalles técnicos de la segunda generación actualmente (mayo de 2017) no están disponibles. Sin embargo, se supone que utiliza GDDR5 SRAM.

Ver también[editar]

  • Unidad de procesamiento de la visión un dispositivo similar especializado para procesamiento de la visión.
  • True North un dispositivo similar que simula las neuronas de punta en lugar de tensores de baja precisión.
  • Unidad de procesamiento neuronal

Enlaces externos[editar]

Referencias[editar]

  1. Armasu, Lucian (19 de mayo de 2016). «Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated)». Tom's Hardware. 
  2. a b Jouppi, Norm (18 de mayo de 2016). «Google supercharges machine learning tasks with TPU custom chip». Google Cloud Platform Blog (en inglés estadounidense). Google. Consultado el 26 de junio de 2016. 
  3. «Google's Tensor Processing Unit could advance Moore's Law 7 years into the future». PCWorld (en inglés). Consultado el 19 de enero de 2017. 
  4. Error en la cita: Etiqueta <ref> inválida; no se ha definido el contenido de las referencias llamadas :0
  5. Error en la cita: Etiqueta <ref> inválida; no se ha definido el contenido de las referencias llamadas GCP blog 2016
  6. Error en la cita: Etiqueta <ref> inválida; no se ha definido el contenido de las referencias llamadas :02
  7. «Google supercharges machine learning tasks with TPU custom chip». 
  8. «In-Datacentre Performance Analysis of a Tensor Processing Unit».