智能制造全生命周期生态服务平台

首页> 全部> 资讯详情

Google与Facebook 联手做AI 究竟要搞啥

来源 : 21ic 2018-10-09 10:12    阅读量:3   

近日,Google和Facebook宣布,使开源机器学习框架PyTorch与Tensor-Processing Units(TPU)进行合作。这种伙伴关系标志着人工智能研究合作进入新时代。

"今天,我们很高兴地宣布,Google TPU团队的工程师正积极与PyTorch核心开发人员合作,将PyTorch与Cloud TPU连接起来。长期目标是让每个人都能享受PyTorch的简便性和灵活性,同时能够从Cloud TPU的性能、可扩展性和成本效益上获益。"Google产品总监Rajen Sheth说道。

PyTorch是Facebook的开源框架,可以开发人工智能研究中使用的数学程序。这样的框架允许研究人员开发任意复杂的数学计算图并自动计算衍生产物。

TPU是由Google专门为AI系统设计的计算机芯片。据Google描述,TPU比传统的图形处理单元(GPU)快15到30倍。

PyTorch有什么新功能?

近日,Facebook发布的深度学习框架 PyTorch 1.0主要有三大更新:

一是添加了一个新的混合前端,支持从 Eager 模式到图形模式的跟踪和脚本模型,以弥合研究和生产部署之间的差距。

二是一个经过改进的 Torch 分布式库,可以在 Python 和 C++环境中实现更快的训练。

三是添加了针对关键性能研究的 Eager 模式 C++接口,将在测试版中发布。

目前,研究人员和工程师必须面对许多框架和工具,以创建新的深度学习模型并将其转移到生产环境中大规模运运行,而这里多数框架和工具通常是不兼容的。如此,将会降低开发者在规模化生产中部署 AI 能力的速度。通过这个最新版本,将现有 PyTorch 框架的灵活性与 Caffe2的生产能力结合,提供从研究到生产性 AI 的无缝路径。

Google的TPU有什么优势?

虽然 TPU 是一种专用集成电路,但它运行的程序来自 TensorFlow 框架下的神经网络,驱动了谷歌数据中心的许多重要应用,包括图像识别、翻译、搜索和游戏。通过专门为神经网络重新分配芯片计算资源,TPU 在真实数据中心负载环境下效率要比通用类型的计算机高30-80 倍,目前已为全球 10 亿人提供日常服务。另外,神经网络的推理阶段通常会有严格的响应时间要求,这降低了通用计算机所使用技术的有效性;通用计算机通常运行得较快,但某些情况下也会较慢。

为什么Pytorch与TPU建立连接很重要

将GPU上的大量数据与神经网络训练结合是当前深度学习系统成功的催化剂。可能需要花费数月训练的神经网络,在使用GPU训练时,时间缩短到短短的几个小时。随着深度学习的成熟,神经网络和数据集变得越来越大,这些网络现在需要数月才能在GPU上进行训练。谷歌专有的TPU为这些庞大的系统提供了一种更快速的训练方法。更快的训练意味着研究人员可以更快地进行实验,从而提高AI研究的速度。

为什么这种伙伴关系有利于人工智能研究

传统上,Google和Facebook通过Google Deepmind,Google Brain和Facebook AI Research进行了独立的AI研究。因此,人工智能工具生态系统已经在Tensorflow(谷歌的AI框架)与Pytorch的辩论中分立,虽然竞争使得两个框架都以极快的速度发展,但其也使得研究在可重复性方面困难重重。

如果此公告标志着一种更加协作的AI研究方法,我们可能会看到这两个框架之间的互操作性得到改善。此外,这样的结果使得AI在智能手机上的部署更容易,也便于多种框架建构统一的工具生态系统,并改善研究结果的可重复性。

声明: 本网站原创内容,如需转载,请注明出处;本网站转载内容(文章、图片、视频等资料)的版权归原网站所有。如我们转载或使用了您的文章或图片等资料的,未能及时和您沟通确认的,请第一时间通知我们,以便我们第一时间采取相应措施,避免给双方造成不必要的经济损失或其他侵权责任。如您未通知我们,我们有权利免于承担任何责任。 我们的联系邮箱:news@cecb2b.com。

好文章,需要你的鼓励!
分享到:
参与评论
剩下299
热门搜索
相关问答
中发智造自媒体
微信公众号
头条公众号
微博公众号
最新最热 行业资讯
订阅栏目 效率阅读