《电子技术应用》
您所在的位置:首页 > 模拟设计 > 业界动态 > Wave Computing推出从云端到边缘的计算平台-TritonAI™ 64 IP平台

Wave Computing推出从云端到边缘的计算平台-TritonAI™ 64 IP平台

2019-07-02
关键词: 云端 人工智能

  中国·上海,2019年7月1日- Wave Computing(以下简称Wave),是一家位于美国硅谷、致力于推动人工智能深度学习从边缘计算到数据中心的计算加速方案的公司,近日于深圳参加了由电子发烧友网举办的2019人工智能技术峰会。本次大会,以“加速中国 AI 落地” 为主题,旨在为人工智能产业上下游搭建一个技术交流、资源对接和产品落地的平台。Wave CompuTIng中国区总经理熊大鹏博士应邀出席本次大会,与人工智能芯片、算法、系统和平台供应商与系统集成商等厂商分享了Wave服务于AI边缘计算的芯片设计——TritonAI? 64 IP平台。

o4YBAF0ZyQeATDdyAAFw9Sk2_WA384.png

  Wave CompuTIng成立于2010年,其核心产品数据流处理器单元(DPU)采用非冯诺依曼(von Neumann)架构的软件可动态重构处理器CGRA(Coarse grain reconfigurable array/accelerator)技术,适用于大规模异步并行计算问题。其主要优势是使得硬件更加灵活地适配于软件,在可编程性(或通用性)和性能方面达到很好的综合平衡,降低AI芯片开发门槛,不会受到GPU等加速器中存在的内存瓶颈的影响。独创的“软件可动态重构处理器架构(CGRA)以及数据流(Data Flow)计算”正成为AI计算领域具有革命性意义的处理器架构。它旨在通过基于数据流架构的一系列产品改变传统的人工智能计算。

  2019 年,Wave CompuTIng针对边缘计算市场的算力需求,将MIPS技术与Wave旗下WaveFlow?和WaveTensor?技术相结合,推出TritonAI? 64 IP平台,该平台融合了Wave CompuTIng旗下的几大核心技术,MIPS 高性能、多线程、低功耗 IP、WaveFlow?、WaveTensor?等先进技术,具有高可扩展性、高兼容性、可客制化的特点,为产品提供高效、低耗的AI计算加速能力。

  

2.png

  作为一款高度灵活的软件平台,TritonAI? 64 IP平台灵活适配到AI加速引擎WaveFlowTM 和WaveTensorTM,满足不断变化的AI计算需求。这些加速引擎被一个异构编程平台管理,该编程平台由一个统一的API平台管理,即Wave Run-Time (WaveRTTM)平台。WaveRT平台在 MIPS 上运行, 并帮助对 WaveFlow 和 WaveTensor 运行引擎进行编程, 以分析和执行恰当的 AI任务;这种软件集中管理的方式,可以很好地把AI应用、AI框架和 AI算法从它们依赖执行的目标计算单元抽象出来,从而可以把算法按并行执行的方式匹配到Wave相应的计算单元上去,从而提升SoC 的AI计算性能。

  “TritonAI? 64 IP平台继承了DPU对神经网络强大的原生表示和支撑能力,适配多种神经网络,对于今天各种变化不断的算法,都可以很容易地部署在TritonAI? 64 IP平台上。这体现了Wave Computing对众多AI领域应用的深刻理解,和对客户需求的全方位考虑。”熊大鹏博士介绍道。

  

3.png


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。