主机论坛_虚拟主机_美国主机_美国虚拟主机_云主机技术_全球主机交流聚集地—Web Hosting Talk 中文站

找回密码
立即注册
发新帖

0

收听

3

听众

43

主题
发表于 2017-10-25 15:05:45 | 查看: 838| 回复: 1
云端还是内部?有可能是两者兼备
如今,许多大小企业正处于早期研究阶段,他们正寻找深度学习可以使自己的具体业务受益的方法。一个专门为深度学习托管基础架构的数据中心供应商告诉我们,他们的大多数客户还没有在生产中部署自己的人工智能应用程序。
这推动了Amazon Web Services、微软Azure和谷歌云平台乐于提供的云端可租借GPU的需求。通过使用他们的服务,研究人员可以访问大量的GPU,而无需花费金钱购买内部硬件。
“我们[在]云端看到了很多对GPU的需求,”巴克说。“云是所有超大型数据中心和云供应商对GPU感到兴奋的原因之一。”
然而,一种常见的方法是将一些内部系统与云服务结合起来。例如,位于柏林的人工智能初创公司Twenty Billion Neurons,通过合成视频材料来培训其人工智能算法,从而了解物理对象与其环境的交互方式。由于这些视频包含密集数据,所以,该公司利用自己多伦多实验室的内部部署计算集群来处理这些视频,同时将实际的培训工作负载外包到位于圣地亚哥以外的Cirrascale数据中心的云端GPU。
云GPU也是一个很好的方式,它可以无需大量的资金就开始为一家企业探索深度学习。“我们发现,云是一种很好的润滑剂,可以整体提高GPU的采用率。”Buck说道。
效率v. 性能
如果您的内部深度学习基础设施将进行大量培训——用于教导神经网络如语音和图像识别这类事物的计算密集型应用程序——可为每个主板上的大量GPU准备耗电量大的服务器。这意味着已经设计出比世界上大多数数据中心拥有的功率密度还要高的密度来支持这些服务器(我们指的是每个机架最高30千瓦)。
然而,这并不意味着您将需要尽可能高密度的冷却基础设施。在这里,您需在性能和用户数量或工作负载之间进行权衡,与此同时,基础设施也可以给予支持。最高性能意味着花钱可以购买到的最大功率的GPU,但这却并不一定是最有效的方法。
Buck表示,NVIDIA公司推出的最新Volta GPU预计将在第三季度上市,它可以提供300瓦时的最高性能。但是,如果您将功率降低一半的话,您仍然可以获得80%的数字计算结果。如果“您抽出一点点功率的话,还是可以维持相当大的性能。这意味着我可以增加机架中的服务器数量,并将数据中心最大化。这只是一个高效的选择。”
关于边缘?
推理工作负载是应用程序神经网络,可用于应用它们接受培训的内容,且需要的GPU和功耗都会更少,但是它们的执行速度必须非常快。(如果Alexa需要五秒才能响应语音查询,那它就不会那么好用了。)
虽然处理内部推理服务器不是特别困难,但是对于数据中心管理者们来说,关于推理服务器的一个大问题是它们要与输入数据来源所处的位置多近才行。如果您公司的数据中心位于弗吉尼亚州的阿什本,但您的机器学习应用程序得为达拉斯或波特兰的用户提供实时建议,那您就可能需要在达拉斯和波特兰附近安置一些推理服务器,才能接近实时提供建议。如果您的应用程序要处理公共安全问题,如:分析交叉路口的视频数据,来帮您浏览自动化车辆,那么您很可能需要在这些交叉路口设置一些推理马力了。
“第二个计算时代”
黄仁勋表示,亚马逊网站上的购物建议(机器学习在生产中的最早应用之一)和谷歌搜索预测这两个功能都不是由软件工程师按照特定的/然后序列编写的。他把机器学习的崛起称之为“第二个计算时代”。
而且它正在快速发展,并正渗透到所有垂直行业中,这意味着每个行业的数据中心管理者们都需要为此做一些功课了。

收藏回复 显示全部楼层 道具 举报

发表于 2017-11-13 01:28:21
不错,顶的人不多啊,快点继续













单职业传奇
zhaosf
单职业迷失传奇
haosf传奇私服

回复 显示全部楼层 道具 举报

您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版|小黑屋|WebHostingTalk中文站

GMT+8, 2024-3-29 14:45 , Processed in 0.085437 second(s), 23 queries .

Powered by Discuz! X3.4

Copyright © 2001-2024, Tencent Cloud.

快速回复 返回顶部 返回列表