《电子技术应用》
您所在的位置:首页 > 嵌入式技术 > 业界动态 > 嵌入式视觉处理器常见问题

嵌入式视觉处理器常见问题

2015-04-20

1.Synopsys将发布什么?

        Synopsys将发布的是DesignWare嵌入式视觉(EV)处理器系列产品。EV52 和EV54视觉处理器是完全可编程和可配置的视觉处理器IP核,它们结合了软件解决方案的灵活性与专用硬件的低成本和低功耗特性。EV处理器实现了一种可 以以超过1000  GOPS/W性能工作的卷积神经网络(CNN),从而能够仅以其他视觉解决方案一小部分的功耗,实现对一系列多样化的目标(如面部、行人和手势)进行快速 而准确的监测。

2. 什么是嵌入式视觉?

        嵌入式视觉指的是将计算机视觉集成到SoC当中。嵌入式视觉是SoC器件能够在视频帧中识别目标和手势,并在发现对象或手势时能够进行适当响应的能力。

3. 实现嵌入式视觉的关键支撑是什么?

        计算机视觉已经在实验室中存在了60年。但直到过去的几年,微处理器才具有足够的性能来将计算 机视觉嵌入到SoC中。嵌入式视觉进步的另一个因素是功耗的降低——这也只有得益于先进的工艺节点和诸如ARC等更加高度优化的处理器架构。更高的处理器 性能加上更低的功耗(更好的性能效率),使设计人员能够在包括便携式应用在内的、范围不断拓展的设计当中集成嵌入式视觉。

4. DesignWare EV嵌入式视觉处理器的目标应用有哪些?

        设计DesignWare EV52和EV54处理器的目的,是为了满足视频监控、安防、手势识别以及对象监测、跟踪和分类等领域中不断增长的市场需求。最终应用包括摄像头、可穿戴设备、家庭自动化、数字电视、虚拟现实、游戏设备、机器人、数字显示屏、医疗电子以及汽车信息娱乐系统等。

5. 为什么视觉处理需要用特殊的处理器?

        虽然视觉算法可以在大多数处理器上运行,但是这类算法牵涉到许多的复杂数学运算和数据迁移。通 用处理器(GPP)可以用来做视觉处理,但是这样的处理器缺少复杂数学运算资源,运行起来速度会非常慢。在一些视觉应用中,采用的图形处理器(GPU)虽 然具有许多的运算资源,但是却缺乏高效移动视觉数据的能力,因此其视觉性能相对较低,并且其功耗也非常的高。视觉处理器是专为视觉处理而设计,因此它们拥 有所需的复杂数学运算能力,并且它们还具有精密的数据迁移能力,能够有效地处理视觉帧数据。此外,要能够在嵌入式视觉应用中得到使用,它们也需要满足低功 耗要求。DesignWare EV处理器的高运算处理能力、优异的视觉数据迁移性能和非常低的功耗,使其成为了在SoC当中实现视觉处理的极佳选择。

6. DesignWare嵌入式视觉处理器系列与其他的EV解决方案相比有怎样的不同?

        市场上现有的可编程视觉处理器都太大且功耗很高,这在使用通用图形处理器(GP  GPU)时尤其如此。同时,市场上还有基于硬接线来实现的解决方案,这类解决方案有着非常好的性能和功耗,但是它们非常不灵活且不能编程,因此仅适用于非 常小范围的应用。DesignWare  EV处理器系列用一款产品就同时提供了这两个领域的最优性能,使其不仅可编程,而且还包含了一个性能非常高的对象监测引擎。这使得用户能够针对其具体应用 对DesignWare EV嵌入式视觉处理器进行全面编程,并且能够在需要时获得硬件加速的优势。对于目标和手势识别应用,DesignWare EV处理器具有优异的性能,而且其功耗等级比其他视觉解决方案低5倍。

7. 客户能够从DesignWare嵌入式视觉处理器系列中获得哪些好处?

        ·高性能、高精度目标监测

        ·低功耗:较现有的视觉解决方案效率高5倍

        ·灵活的可编程特性能满足多种现有和新兴嵌入式视觉应用的需求

        ·基于OpenCV和OpenVX业界标准的高生产率编程环境

        DesignWare  EV嵌入式视觉处理器为应对多样化的应用和满足各种嵌入式视觉应用的需求而提供了可编程能力,并为视觉引领的卷积神经网络(CNN)算法提供了无缝的硬件 加速。DesignWare EV也能够根据需求来编程以支持其他的嵌入式视觉算法。因此,DesignWare  EV处理器提供了非常好的性能和灵活性,而其面积和功耗等级却是可用解决方案中最低的。DesignWare  EV嵌入式视觉处理器由一套完整的工具提供支持,包括MetaWare、OpenCV库以及OpenVX运行库和内核,从而能够减轻编程工作。

8. 什么是CNN?

        卷积神经网络(CNN)模拟我们大脑处理视觉时的工作状态。它们将图像分解成若干部分,并逐步 找到其被训练去识别的目标。CNN已经存在了20多年,但直到近年这些算法才有了实质上的改进,并且目前在目标识别方面较其他可用算法甚至是人类专家更 好。CNN是一种深度学习算法,其训练方式与我们的大脑采用目标的多幅图像来进行训练差不多,它基于这些图像归纳出能够被算法利用、用以在图片或视频中找 到目标的一幅图形。

        Nvidia、CEVA、Microsoft以及其他公司近期的发布强调了嵌入式视觉向CNN的迁移。其实,Microsoft和Google最近都已在高端应用中采用了CNN,其所得的精度超过了95%,较人类专家还要更高。CNN目前是获取高质量和高精度结果的最佳视觉算法,其性能比Viola-Jones、HOG、SIFT和SURF等其他算法更胜一筹。

9. EV52和EV54之间有哪些不同?

        EV52具有一个工作频率高达1GHz的双核ARC处理器(28nm),而EV54带有一个性 能较EV52更高的四核ARC处理器实现。两者都具有一个可编程的目标监测引擎,该引擎可配置并能以较竞争性解决方案低5倍的功耗等级提供快速、精确的目 标监测。目标监测引擎运行一个CNN可执行文件,并由2、4或8个处理单元(PE)组成。PE的个数由用户在构建时配置,PE之间的流互连网络也是如此。 该互连网络在所有的PE之间具有灵活的点到点连接,可根据目标监测引擎上执行的CNN图形动态改变。

10. DesignWare嵌入式视觉处理器可监测哪些种类的目标?

        DesignWare EV处理器能够监测包括风景地形在内的任何类型的目标。目标监测引擎是可训练的,但首先提供的是为人脸监测、限速标志监测和人脸跟踪而预先优化的内核。

11. 嵌入式视觉处理器解决方案的编程环境是什么?

        DesignWare EV嵌入式视觉处理器采用MetaWare工具套件以C/C++语言进行编程,并且它提供了广泛使用的开源视觉编程软件工具OpenCV和OpenVX支持。

        OpenCV(一个开源计算机视觉库)是一种可与MetaWare一起使用的、包含2500个函数的软件库,它为嵌入式视觉应用提供了一个软件架构。OpenCV可用于监测和识别目标,以及一系列完整的机器视觉功能。

        OpenVX是一种针对嵌入式视觉算法加速的开源标准。DesignWare  EV嵌入式视觉处理器由OpenVX框架和43种主内核提供支持。对于DesignWare  EV嵌入式视觉处理器而言,已可提供用于人脸监测、速度标志监测和人脸跟踪的内核。用户也可以创建其专有内核用于DesignWare EV处理器。

        OpenCV和OpenVX互为补充,并能够同时用于视觉应用中。

12. EV处理器如何集成到SoC中?

        DesignWare EV嵌入式视觉处理器在交货及配置时都附带ARChitect工具,它支持快速实现内核并输出可综合的RTL(寄存器传输级)。DesignWare  EV嵌入式视觉处理器的目标是为主处理器提供支持,能够与包括ARM、Intel、Imagination  MIPS和PowerPC等等在内的所有主处理器一起工作。EV处理器具有许多能够让主处理器便利的控制和卸载的功能,包括内存空间对主处理器可见,能够 通过信令传递同步彼此的工作。EV处理器通过连接到AXI总线,实现了与SoC其余部分的接口。

        视频帧内存可以直接连接到DesignWare  EV嵌入式视觉处理器,或是处理器能够通过AXI总线对它进行访问。DesignWare  EV嵌入式视觉处理器能够通过编程,独立于主处理器自主工作,或者用户可以在EV处理器和主处理器之间选择执行同样多的控制和功能共享。为了加速软件开 发,可提供EV处理器的虚拟原型设计模型,也提供基于FPGA的HAPS® 原型设计解决方案,从而能够在芯片流片之前就支持软硬件协同设计。

 13. 哪里能够获得有关嵌入式视觉处理器系列(包括定价在内)的更多信息?

        在3月30日产品发布之后,有关EV处理器的信息将可以在Synopsys网站http://www.synopsys.com/dw/ipdir.php?ds=arc-ev52-ev54上查看。

Synopsys的政策是不公开价格。由于我们IP客户独特的商业模式需求,我们将针对每家客户提供定制化的报价。


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。