人工智慧AlphaGo的成功,过去认为来自Google擅长的大规模资料处理以及演算法计算。不过令外界意想不到的是,执行长桑德·皮查(Sundar Pichai)在今日的Google2016年开发者大会上发表一款Google自行研发的机器学习专用晶片,更是造就AlphaGo的祕密武器。
特製晶片效能为现有技术往前推进七年
皮采指出,Google在几年前就已着手研发客製化的特殊应用积体电路(ASIC),而这款专用于Google开源机器学习演算法TensorFlow、也是提升AlphaGo计算速度的特製晶片TPU(Tensor Processing Unit),用以改善机器学习相关应用,迄今已使用超过一年。
为了加速机器学习进程,TPU捨弃掉传统晶片如CPU和GPU的高精确度,减少计算需要的电晶体数量并提升每瓦效能。根据Google说法,“TPU让机器学习的每瓦效能提高一个数量级,相当于将晶片效能往前推进七年或三代的摩尔定律”。
目前,Google使用机器学习的应用超过百种,例如搜寻、语音辨识和自驾车。Google杰出硬体工程师诺曼‧约皮(Norman Jouppi)指出:“这类程式需要耗费庞大资金才能提供快速集中的运算能力和电力,自製机器学习加速器让Google可更加经济地加快产品推出。”迄今,Google已使用超过1千个TPU,运用于街景、智慧讯息回覆和搜寻,帮助改善搜寻结果相关性,以及提升地图和导航产品的精确度。
除了Google内部产品可受惠于这套最新的机器学习演算法,Google的云端机器学习服务也开放开发者利用这套演算法打造自己的应用服务。“我们的目标是引领机器学习产业,并让创新得以在顾客身上实现。透过在基础建设加入TPU,我们可以透过软体如TensorFlow和云端机器学习将Google的力量带给开发者。机器学习正在改变开发者如何打造让消费者受惠的智慧应用,我们非常高兴看到未来生活的可能性。”约皮表示。
Google并非唯一为了加快人工智慧而採用新的晶片设计的公司。《华尔街日报》指出,微软正在使用一款名为Field Programmable Gate Arrays的可编程晶片,以加速人工智慧运算,应用于Bing搜寻引擎。NVIDIA推出的GPU则被应用在人工智慧计算,这款晶片过去也被Google用于AlphaGO的早期测试。
透过自行生产客製化晶片,Google将更可掌控支出、技术规格以及未来发展蓝图。但这是否代表Google对第三方晶片供应商如Intel或Nvidia的依赖将日益降低?约皮表示,“我们依然购买大量的CPU和GPU,”但不愿透露购买数量是否较过去少。
北京金恒智能系统工程技术有限责任公司 版权所有 Copyright 2007-2020 by Create-china.com.cn Inc. All rights reserved.
法律声明:未经许可,任何模仿本站模板、转载本站内容等行为者,本站保留追究其法律责任的权利!
电话:86+10-62104277/2248/4249 传真:86+10-62104193-819 京ICP备10010038号-2网站XML
智慧机房
在线体验