去年在Google I/O 2016揭晓旗下首款针对机器学习打造的TPU客制化处理器,Google稍早进一步揭晓此款对应TensorFlow学习框架的客制化处理器具体效能表现。
相比传统处理器或GPU元件设计,Google所提出的TPU客制化处理器除针对TensorFlow学习框架量身打造,更去除非必要的运算架构、保留对应特定演算法运作设计,借此让TPU可在深度学习等应用发挥高于处理器、GPU演算效能功耗,甚至比起两者搭配形成的平行运算架构有更低功耗表现,却能发挥更大演算效能。
根据Google公布数据,TPU约可发挥处理器、GPU约30倍或15倍运算效能,每瓦效能表现则比处理器、GPU提升约80倍或30倍,同时仅须100至1500行编码即可运作处理TensorFlow学习框架指令集,相比传统处理器、GPU或两者形成平行运算架构仍须复杂指令集才能顺利运作,Google强调将TPU用于深度学习将有更容易布署的弹性便利。
目前Google计划将TPU广泛应用在旗下应用深度学习的服务项目,其中包含Google Photos、影像搜寻,以及今年宣布开放使用的Google Cloud Vision API内容。
但相比现有学习框架所使用硬件架构,Google所提出的TPU依然锁定特定领域应用居多,意味在形式较为固定的学习模型之下,将使深度学习效率有更好表现,但以现阶段人工智能技术依然处于初期发展阶段,学习模式仍可能有高度改变情况之下,传统处理器、GPU用于学习模式建构仍有较高布署弹性,因此预期TPU导入应用还是会聚焦在特定使用模式,暂时还不会取代现行多数透过处理器、GPU进行深度学习的训练模式。