Skip to content

Google met au point sa propre puce pour l’intelligence artificielle

Tensor Processing Unit board, Credit Google

Google vient de dévoiler l’unité de traitement Tensor Processing Unit (TPU), un ASIC créé spécialement pour la bibliothèque de logiciels open source de Google pour le machine learning (apprentissage automatique) TensorFlow. Il promet des performances de grandeur bien au-dessus des puces actuelles et c’est un bond de sept ans en avant pour la technologie.

Selon Google Cloud Platform Blog,

We’ve been running TPUs inside our data centers for more than a year, and have found them to deliver an order of magnitude better-optimized performance per watt for machine learning. This is roughly equivalent to fast-forwarding technology about seven years into the future (three generations of Moore’s Law).

Le processeur est adapté aux applications machine learning, permettant à la puce d’être plus tolérante pour une précision de calcul réduite, ce qui signifie qu’elle nécessite moins de transistors par opération.

Because of this, we can squeeze more operations per second into the silicon, use more sophisticated and powerful machine learning models and apply these models more quickly, so users get more intelligent results more rapidly. A board with a TPU fits into a hard disk drive slot in our data center racks.

Pour en savoir plus Google Cloud Platform Blog

1 Comment »