Noticias

Google lanza en evento de San Francisco los TPU Edge, chips pensados para el aprendizaje automático con Inteligencia Artificial

Hace dos días en la conferencia del gigante de las redes, Google Cloud NeXt 2018; que se lleva a cabo en San Francisco, Estados Unidos; Google anunció el lanzamiento de su nuevo chip para la interpretación de algoritmos en el aprendizaje automatico o Machine Learning como se conoce en inglés.

single-image

Hace dos días en la conferencia del gigante de las redes, Google Cloud NeXt 2018; que se lleva a cabo en San Francisco, Estados Unidos; Google anunció el lanzamiento de su nuevo chip para la interpretación de algoritmos en el aprendizaje automatico o Machine Learning como se conoce en inglés.

Las Unidades de Procesamiento Tensorial tipo Edge; es el nombre que ha dado la compañía para que estos dispositivos puedan ser de dedicación exclusiva en los aparatos IoT con el fin de dedicarse exclusivamente a la inferencia o interpretación de información en forma local y no remota en los mismos dispositivos IoT.

Recordemos que el concepto de TPUs fue introducido hace dos años y diversas empresas la fabrican hoy en día con la finalidad de que estás unidades se dediquen exclusivamente a correr el algoritmo respectivo en los distintos sistemas actuales de Inteligencia Artificial y Machine Learning.

Este último consta de dos etapas: una el entrenamiento de los algoritmos con datos, para lo cual empresas como Qualcomm, MediaTek y ARM se dedican exclusivamente a la producción de estos hardware para satisfacer la demanda de éstos procesos; y una segunda etapa que la inferencia de la información o corrida del algoritmo; con el cual Google busca independizar dichos procesos en los distintos dispositivos IoT a través de su nuevo chip, el TPU Edge.

Vale destacar que la ventaja de resolver que estos dos procesos se ejecuten de manera independiente, sin tener que pasar por el Internet o la Cloud respectiva; permite mayor seguridad y rapidez en los procesos.

Los TPU Edge no son como los chips que aceleran los algoritmos en los centros de datos de Google: esos TPU, cuya tercera generación anunció la compañía en su conferencia I / O Developer en mayo, están refrigerados por líquido y diseñados para instalarse en bastidores de servidores. Se han utilizado internamente para alimentar productos como Google Photos, llamadas a API de Google Cloud Vision y resultados de Búsqueda de Google.

Por el contrario, los TPU Edge, que miden aproximadamente un cuarto de un centavo en tamaño, ejecutan cálculos fuera de línea y localmente, complementando los microcontroladores y sensores tradicionales. Y no entregan modelos de aprendizaje automático, sino que ejecutan la inferencia (predicción) con una versión ligera y de poca altura de TensorFlow que es más eficiente en términos de energía que el marco de pila completa.

En cuanto a su aplicación, estos nuevos chips están pensados para ser utilizados en fábricas donde, por ejemplo, se podrían automatizar procesos como el control de calidad.

Para adquirir el producto, el usuario debe tener cuenta en Google Cloud, ya que los dispositivos están pensados como parte de una solución integral para el Machine Learning.

«Los TPU Edge están diseñados para complementar nuestra oferta de TPU en la nube, para que se pueda acelerar el entrenamiento de machine learning en la nube, y luego producir inferencias más rápidas», según indica en un comunicado el vicepresidente de Google Cloud, Injong Rhee.

Deja un comentario

Loading data ...
Comparison
View chart compare
View table compare