Google ha anunciado una "Edge Tensor Processing Unit" (TPU) para la computación de borde. Los circuitos integrados de aplicación específica (ASIC) son adecuados para cargas de trabajo de inferencia -no de entrenamiento de IA- en "Tensorflow Lite", una versión de baja sobrecarga de "Tensorflow", "Tensorflow Lite".
Según explica Google, no todos los ingredientes de la TPU Edge crecieron en su propio estiércol, sino que fabricantes como ARM, Harting, Hitachi Vantara, Nexcom, Nokia y NXP colaboraron con Google para desarrollar los kits. Pero ahora se supone que el momento llegará pronto: En octubre, las TPUs Edge saldrán al mercado en una placa de referencia modular compuesta por el ASIC, una CPU de NXP y un módulo Wi-Fi.
Los ASIC de las máquinas de inferencia no son tan potentes como las últimas TPUs de refrigeración líquida de Google, pero están diseñados para reducir la carga de trabajo enviada a la nube. Injong Rhee, vicepresidente de Google para IoT, dijo durante la conferencia Cloud Next celebrada en San Francisco la semana pasada: "La TPU Edge aporta un cerebro a los dispositivos de borde". Antes de incorporarse a Google en febrero, Rhee fue director de tecnología en Samsung.
Uno de los primeros clientes, sin embargo, será LG. Los nuevos dispositivos se utilizarán para comprobar la calidad del vidrio de los paneles LCD.
Google no es el único proveedor de aceleradores de IA. A principios de año, Microsoft, por ejemplo, anunció el "Proyecto Brainwave", que se basa en FPGAs para la computación de borde y que también se está utilizando en proyectos iniciales de clientes del sector manufacturero. Además, la competencia proviene de Intel, Nvidia y Xilinx.