《电子技术应用》
您所在的位置:首页 > 人工智能 > 业界动态 > 人工智能遇上物联网会擦出怎样的“火花”!

人工智能遇上物联网会擦出怎样的“火花”!

2023-02-12
来源:互联网综合

若干年来,科技界反复在讨论两件事:一是第四次科技革命可能在中国发生,二是AI将成为第四次科技革命的核心驱动技术。

如果我们把两件事融合在一起,就能够很简单的推理出一个结论:中国必须结合自身的实际情况,发展出一条前所未有,且其他国家和地区难以复刻的AI之路。只有如此,才能解释AI技术带来的新科技革命,为什么将会在中国而不是其他地方完成。

就像第一台简单的蒸汽机是在1688年由法国人德尼斯·帕潘发明,却在近百年后的英国成为驱动科技革命的通用性技术。如何将AI转化为新的通用性、底座型技术,是中国经济发展遇到的历史性机遇。

自深度学习技术为代表的第三次AI兴起进入中国后,中国AI产业经历了十余年探索。结合中国实际,面向第四次科技革命的AI之路,开始逐渐由懵懂走向清晰。

1月10日,百度Create AI开发者大会于线上召开。期间,百度CTO王海峰发表了《“深度学习+”,创新发展新引擎》主题演讲,提出人工智能的技术创新和产业发展,进入“深度学习+”阶段。

对于很多朋友来说,深度学习这个概念或许并不陌生。但“深度学习+”应该还是首次听到。这个新的概念背后,却是中国AI十余年的积累,AI底层技术与基础设施的漫长凝聚,以及千行百业应用深度学习技术的锐意探索。

这些因素融合起来,让中国AI技术与产业智能化发展得以百尺竿头更进一步,中国智能化的新转折点,也正酝酿在这个新的阶段。

2019 年 3 月,强化学习之父 Richard Sutton 发文表示:" 短期内要使 AI 能力有所进步,研究者应寻求在模型中利用人类先验知识;但之于 AI 的发展,唯一的关键点是对算力资源的充分利用。"

神经网络模型在上世纪 90 年代出现,但在 2010 年前,基于统计的学习模型仍是主流,所以在打败人类象棋高手多年后,迟迟无法攻克变数近乎宇宙级的围棋。

后来得益于 GPU 算力的高速进步与深度神经网络、卷积神经网络等等算法的进步,深度学习模型逐渐成为主流,摆脱了穷举法的限制,AI 能够用来学习训练的参数也越来越多,充分利用了 GPU 擅长并行计算的能力,基于庞大的数据集、复杂的参数结构一次次刷新人类对 AI 智力天花板的想象。

简单来说,早期的 AI 就像个刚出生的小婴儿,什么也不懂。爸爸妈妈就要拿着一张 " 猫 " 的图片然后跟他说 " 这是一只猫 ",建立起图像和语言的联系。AI 也是如此,我们需要大量的 " 识图卡 " 来训练 AI。

在十年前,由于芯片的算力有限,人类使用的方法非常笨拙:

找出一张主体是猫的图片,然后人工打上 " 猫 " 的标签,喂给 AI 来学习,效率非常低下,而且训练出来的 AI 只能识别特定的物种。经过大量的训练,AI 虽然能识别几千类物品,可一旦遇到复杂的情况就蒙了。比如给一只狗带上猫猫的头套,AI 大概率就出错了,因为它只认识 0 和 1,但不认识 0.5。

物联网的广泛的应用场景也给AI提出了新的需求。

IoT技术更加强调“物与物”之间的互联,连接更为广泛并对时间敏感。且大多终端设备都工作内容简单,算力要求小,工作时间长,续航要求高的特点。

这些要求让终端设备不得不考虑功耗问题,甚至有许多终端设备由电池供电,在物联网设备中部署人工智能算力时还要考虑对电池供电的支持。

AlphaGo等传统中心化的人工智能核心虽然算力更高,但在更为碎片化的物联网中,算力更多时候受到客观条件制约,无法肆意驰骋,必须戴着“镣铐”跳舞。

为了适应实际应用中分散式,碎片化的需求,人工智能逐渐与边缘计算相结合,将算力从云端迁移至边缘。

IoT时代,MCU再进化

边缘端AI的要求与云端不同。边缘端AI只处理由边缘产生的数据,主要面向图像分析、声音分析、波形识别等工作。对于终端单一应用来说,算力要求不会很高。

但在另一方面,在物联网环境中计算对功耗和成本则更加敏感。

处于边缘的物联网设备对功耗非常敏感,如传感器、安防摄像头等设备要求长期在线工作,但提供传统人工智能算力的FPGA或GPU在边缘端很难满足这样的工作要求。




更多信息可以来这里获取==>>电子技术应用-AET<<

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。