来自 科技 2021-06-23 09:05 的文章

库柏手机 拥有全栈全场景 AI 的华为云,如何推动中国 AI 开发进入黄金时代?_部署

为期两天的 AICon 全球人工智能与机器学习技术大会已落下帷幕,作为一场面向各行业 AI 中高层技术人员的盛会,历年 AICon 都吸引业界顶级公司参与其中,今年也不例外,包括华为、AWS、阿里巴巴、腾讯等公司的 AI 专家们齐聚一堂,共同探讨围绕 AI 的产业变革机会与技术创新方向,

这场大会上所展示的 AI 落地案例、AI 技术实践以及 AI 的工业化应用,都在强调一个事实:站在 2019 年 11 月的时间点去看,AI 之于各个行业的意义已经不再是「是否有价值」,而是变成了「如何让 AI 变得更有价值」。

与此同时,在 5G 商用元年,全新通讯技术带来的巨大潜力,正在传递到产业的各个链条,而云计算的持续进化,已经深刻影响到了从政府到大型企业的方方面面。

这也留给行业一个命题:当 5G、AI 与云共同定义了这个时代,各个行业应用 AI 的第一步从哪里开始?

参与这场大会的华为云给出了自己的一个回答:利用华为云的全栈全场景 AI 能力,开发者、企业可以快速驶入 AI 开发、部署与应用的赛道。

据了解,此次大会上,华为云进一步展示了其全栈全场景的 AI 解决方案。具体来说,「全栈」指的是包括芯片、芯片使能、训练和推理框架和应用使能在内的全堆栈方案;「全场景」则是将公有云、私有云、各种边缘计算、物联网行业终端以及消费类终端在内的全场景纳入到 AI 的部署环境中。

那么,如何进一步理解当下 AI 开发、部署的痛点,华为云全栈全场景的 AI 能力,又对开发者、企业有何意义?

接下来,我们来一一解读。

1.AI 开发/部署所面临的挑战

对于任何一个行业来说,AI 开发、部署都是一个全新的挑战,而且这些挑战也贯穿在 AI 开发、部署的始终。

首先,AI 算力需求旺盛且多样化。自 2012 年以来,AI 计算能力需求早已超过摩尔定律,当模型越发复杂、当算力需求越来越大,开发者、企业所面临的计算成本也在大幅上升。

另一方面,随着物联网以及即将到来的 5G 时代,AI 计算的场景也将变得多元化,从大型数据中心到迷你终端设备,不同场景下的计算需求、功耗成本以及计算延时也有着不同的需求。

这意味着,AI 开发者和企业需要强大、灵活以及多场景的算力。

其次,AI 框架与一站式 AI 平台的需求。作为向下对接芯片、向上承载应用的 AI 框架,业界目前流行的 TensorFlow 等,多为美国公司研发并开源出来的产品,且不说会不会受到国际大环境的影响,只谈开源产品的本地化后续服务,TensorFlow 等都很难直接适应中国开发者的需求。

而面对 AI 人才短缺的现实,如何进一步降低 AI 开发门槛成为行业的迫切需求。更进一步,开发者和企业也需要一站式的 AI 开发环境,从而快速完成从数据标注到模型部署的一整套工作流程。

第三,云、边、端的训练和部署如何协同。这是一个摆在全行业面前的共同挑战, 相比于 AI 模型训练为数不多的技术选型(GPU,数据中心),AI 模型部署对于开发者、企业而言更复杂。这是因为,AI 部署所面临的是纷繁复杂的设备环境,特别是在移动设备、边缘设备交织的业务场景里,如何高效完成模型从快速训练到快速部署,成为各行各业 AI 从业者关注的命题。

2.华为云如何破解算力难题?

在 ICT 领域耕耘多年的华为,面对 AI 领域开发、部署的难点、痛点,提出了自己的一番思考。

正如上文所言,AI 计算需求在过去七年里迎来大爆发,根据 OpenAI 的统计,自 2012 年至今,AI 算力需求增长了 30 万倍。

这带来两个显著变化:其一,传统的 CPU 已经无法承担起 AI 计算的需求;其二,业界对于 GPU、FPGA 与 NPU 的需求开始上升。

这正是华为昇腾芯片出现的行业背景。通过底层创新性的「达芬奇架构」,使得华为昇腾芯片具备了在端边云上拥有统一的计算架构,由此带来了不仅是计算能力的大幅提升,而且还可以实现算法一次开发,再顺利迁移到其他场景上芯片的能力。

以今年正式发布的昇腾 910 芯片为例,其主要面向数据中心的云端AI训练,半精度 (FP16)算力达到256 Tera-FLOPS,整数精度 (INT8) 算力达到512 Tera-OPS,达到规格算力所需功耗仅310W,无论计算能力还是功耗,都属业界领先水平。

})();