《电子技术应用》
您所在的位置:首页 > 模拟设计 > 业界动态 > 边缘智能化是物联网发展的必然趋势

边缘智能化是物联网发展的必然趋势

2018-08-07
关键词: 英特尔 AI 互联网 FPGA

  AI的热度似乎压过了物联网,但是两者有着必然的联系,那就是物联网设备收集了大量数据,才为AI进行计算分析打下了基础。根据IDC预测,到2020年全球会有超过500亿的智能设备,超过2120亿个传感器。有研究机构预测,随着物联网的快速发展,到2020年每个互联网用户一天将产生大约1.5GB的数据,每个智能医院每天将产生超过3TB的数据;每辆自动驾驶汽车每天将产生超过4TB的数据,一架联网飞机每天将产生超过40TB的数据;一家智慧工厂,每台设备上有很多个传感器,时时刻刻都会产生数据,按照一千台设备计算,那么整个工厂每天产生的数据量将是1PB,到2020年全世界每天产生的数据总量将是44ZB(注意:1ZB=1x1012 GB)。

  可见未来的世界就是一片数据的海洋,我们周围都充斥着海量的数据。然而数据的价值在于分析利用,而非简单存储。数据量在不断在增长,我们不可能把所有数据都通过网络传到云端,带宽增长的速度是慢于数据增长的速度。对于实时性要求较高的应用场景,我们需要在边缘对数据进行判断,比如自动驾驶、无人驾驶等领域。对于隐私保护要求比较高的场景,比如医疗信息或者用户不愿意进行云端分享的数据,需要在本地进行存储。因此数据处理从云端转移到边缘端是一种必然趋势。

  数据处理从云端向边缘迁移

  英特尔副总裁兼物联网事业部中国区总经理陈伟博士分析,“传统的物联网更多是线性思维,物体产生数据,通过互联网传到云端,分析产生价值,而如今的物联网完全是立体三维的概念。现在产生的数据90%被浪费了,有的数据产生以后从排气管里面漏掉了,有的数据没法挖掘,这是因为存储和分析要有一个分布。如今分布式计算的概念已经比较成熟,现在全球讲物计算,就是云要抛到物里面,做云的人要把它的架构切到边缘来,以解决边缘的问题,所以业界对边缘计算完全有共识。关于应用,一是实时应用;二是成本问题;三是分析和预测,过去只能是分析已经发生的事件,那么怎么通过发生的事件了解预测未来?四是精准性的问题,涉及信息安全、信息保密。”

5b681da166db7-thumb.jpeg

  英特尔副总裁兼物联网事业部中国区总经理陈伟博士

  带宽、存储、延迟和安全性是边缘计算的驱动因素,预计2018年50%的物联网部署将受到网络瓶颈的限制,到2019难45%的数据将在边缘进行存储、分析和处理,因此深度学习的采用率不断增长,2016年深度学习收入为6.55亿,预计到2025年将增长到350亿美元。

  在边缘进行数据处理也同样需要人工智能算法,现在来看这一条件已经成熟。英特尔中国区物联网事业部首席技术官兼首席工程师张宇博士分析,“从人工智能演进过程中可以看到,从最早的人工智能计算,不管是训练还是推理都发生在数据中心,这是因为深度学习需要大量的计算,只有在数据中心运用一些通用的处理器才能够提供如此巨大的计算量,以及提供这些计算所需要的能耗。近年来随着人工智能技术的发展,无论在算法方面还是在芯片方面,人工智能都达到了一个很高的水平。在算法方面,很多网络压缩的算法已经被广泛使用,从而降低了人工智能的计算量,同时用于人工智能专用的芯片以及FPGA,使一些深度学习的运算可以从云端推送到边缘,所以市面上出现了智能摄像机、智能网络视频存储器、NVR等产品。”

  注重视频,OpenVINO助力边缘侧实现深度学习开发

  英特尔将视频称为“眼睛AI”,也就是眼见为实,是因为视频的数据量最大,也最复杂,浓度也最高,确实挤压到了端到端的架构,人脑就在不断处理通过眼睛看到的视频内容,在AI领域就是机器视觉处理。对比边缘设备和云端设备,边缘设备能够承载的功耗,能够支持的操作系统,能够提供的内存容量都不同,所以在边缘运行的算法要进行特定优化,因此对工具也有特定的要求。英特尔收购了 Movidius和Altera将FPGA等产品引入进来,性能和功耗比通用处理器表现更好。从硬件的角度来讲,可以勾勒出一个功耗、成本最优化的解决方案。有灵活、有多元、有高质量的硬件是一个必要的条件,但是要将这些硬件直接应用到人工智能的应用上,还有很多的壁垒。

  在整个系统端到端的网元里面,不同的网元所提供的计算量不同,支撑的操作系统不同,适合的芯片架构也不同。比如一个摄像机功耗大概15W,提供给智能运算的能量2-3W,选用ASIC架构最合适;数据中心对灵活度要求较高,适合采用通用的处理器。而不同的芯片往往有不同的开发方法,也就是说当工程师针对某一种芯片所开发的软件换一个架构就可能无法使用,这无形中就增加了开发难度。为了帮助客户更好地进行视频处理,英特尔面向中国市场推出了专注于加速深度学习并将视觉数据转换为业务洞察的OpenVINO工具包,这将充分帮助企业在边缘侧快速实现高性能计算机视觉与深度学习的开发,为智能视觉开辟了一条坚实的创新路径。

  陈伟博士介绍,“OpenVINO工具包包括英特尔深度学习部署工具包,具有模型优化器和推理引擎,以及面向OpenCV*和OpenVx*的优化计算机视觉库。模型优化可以把开发者基于一些开放的深度学习的框架所开发的网络模型,针对开发者所选用的目标平台进行优化,把这些优化的结果转换成一个中间表示文件,建成IR文件。下一步,推理引擎会去读取IR文件,然后利用相应的硬件插件把这些IR文件下载到相应目标平台上进行执行,所以这是当前的部署工具套件能够解决的问题。OpenVINO工具包可通过基于英特尔架构的处理器(CPU)及核显(Integrated GPU)和深度学习加速器(FPGA、Movidius VPU)的深度学习加速芯片,增强视觉系统功能和性能。”

  在计算机视觉领域,业界有两类方法被广泛的使用。一类是深度学习,另一类是传统的计算机视觉的方法。深度学习在做物体检测、目标识别方面具有优势,在替代传统的计算机视觉。另外一些应用的场景,计算机视觉仍然有自己的用武之地,比如一些光流的计算或者图像的增强,利用均衡的方式去做图像的增强,传统计算机视觉仍然是适用的,这是因为深度学习的基础是卷积神经网络,卷积神经网络对于目标检测和目标识别比较有效,但是对于图像增强并不十分适用。陈伟博士强调,“在OpenVINO里面,我们对这两类方法都有很好的支持,OpenVINO包含一个深度学习的部署工具套件,可以帮助开发者把已经训练好的网络模型部署到目标平台之上进行推理操作,因此,OpenVINO是帮助大家做推理的,而不是帮助大家做训练的。”

  OpenVINO与Movidius SDK的本质区别

  英特尔以前也推出了SDK,这款OpenVINO和它们有什么区别?张宇博士解释,“英特尔物联网事业部以前也推出过其它SDK,比如Movidius SDK,主要做媒体处理。OpenVINO实际上包含了Movidius SDK,我们在这个基础之上做了进一步的功能扩充,功能的扩充主要体现在几个方面:一是增加了对深度学习功能的支持,其中包含一个深度学习的部署工具套件,里面包括了模型优化器和推理引擎;另外,我们在Movidius SDK基础之上,增加了对OpenCV、OpenVX等这些在传统计算机视觉领域用的比较普遍的函数库的支持,而且这些函数库都在英特尔的CPU上做了优化。与Movidius SDK相比,原来只是做编码、解码的加速,现在不仅能做编解码的加速,也能做一些视频处理工作,我们把MovidiusSDK结合在一起的目的是,我们看到一个完整的视频处理系统,从它的处理流程来看,第一步要做编解码,解码以后,把解码的图片交给相应的处理引擎做深度学习或者是传统的计算机视觉的一些处理操作,得到最终的结果。我们把在整个流水线里面所用到的所有工具打在一起放到OpenVINO里面,让开发者只用一个工具把所有的需求都能满足。”

  张宇博士强调,“OpenVINO具有两个优势,第一可以通过一次训练来满足不同的硬件平台,节约成本;第二可以加速产品化的过程,从芯片到做出产品,中间的周期变短了,产品可以更快的上市加速流转。”


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。