《电子技术应用》
您所在的位置:首页 > 人工智能 > 业界动态 > Gartner:Deepfake和生成式AI让我们进入零信任世界

Gartner:Deepfake和生成式AI让我们进入零信任世界

2021-01-26
来源:雷锋网
关键词: AI 零信任

  Gartner发布了一系列《Predicts 2021》研究报告,其中一份报告概述了人工智能(AI)将在未来几年引发的重大影响,包括广泛的道德和社会问题。

  Gartner的五位分析师在《2021年预测:人工智能对人类和社会的影响》的报告中预测了2025年将会产生的变化,该报告特别关注了所谓的人工智能的二级后果,这种后果是非预期的新技术的成果。

  例如,生成式AI现在可以创建出实际上并不存在的人物和物体的非常逼真的照片。

  Gartner:Deepfake和生成式AI让我们进入零信任世界

  Gartner预测,到2023年,将有20%的账户被这种由AI产生的Deepfake接管。报告指出:“可以创建和生成超逼真的内容的AI能力,将对人们相信自己的眼睛所看到的产生变革性的影响。”

  该报告从AI市场的5个角度进行了预测,并就企业如何应对和适应这些未来的挑战提出了建议:

  到2025年,预先训练的AI模型将主要集中在1%的供应商中,这将使AI的负责任地使用成为社会关注的问题

  在2023年,成功的账户接管攻击将有20%使用Deepfake,它将会成为社会工程学攻击的一部分

  到2024年,将有60%的AI提供商会将缓解危害/滥用行为作为其软件的一部分

  到2025年,将有10%的政府通过使用合成AI来避免隐私和安全问题

  到2025年,工作场所75%的对话将被记录和分析,以用于增加组织价值和评估风险

  这些分析中的每一个都足以使AI观察者引起足够的关注,如果将这些预测结合起来时,就可以勾勒出未来的严峻形势,其中涉及道德问题,潜在的AI滥用以及工作场所隐私的丧失。

  如何应对

  如果Gartner的分析师的预测准确无误,那么关于AI带来的隐私和真相的影响的担忧必将成为未来几年的主要话题,成功的企业将需要准备迅速适应这些担忧。

  该报告中的一个重要的主题是,在依赖AI的公司(无论是服务还是产品)中建立道德委员会。Gartner说,对于计划记录和分析工作场所对话的企业,尤其要注意这一点,应建立具有员工代表的董事会,以确保公平使用对话数据。

  Gartner还建议企业建立负责任的AI使用标准,并优先考虑“可以证明AI能够清晰发展和解决相关社会问题”的供应商。

  至于围绕Deepfake和生成式AI的安全问题,Gartner建议组织安排有关Deepfake的培训。报告说:“我们现在正在进入零信任的世界。除非使用加密的数字签名证明它是经过认证的,否则任何事物都不能被信任。”

  该报告有很多内容值得关注,有数据说,最好的Deepfake检测软件从长期来看将以50%的识别率达到顶峰。还预测到2023年,一家大型美国公司将采用对话分析来确定员工薪酬。这些分析中有很多需要担心的地方,也包括潜在的解决方案。

  

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。