《电子技术应用》
您所在的位置:首页 > 通信与网络 > 业界动态 > 微软开源人工智能安全测试工具:Counterfit

微软开源人工智能安全测试工具:Counterfit

2021-07-31
来源:安全牛
关键词: 人工智能 黑客 攻击

  根据Adversa的最新研究,人工智能行业还没有做好防御黑客对AI系统攻击的准备。

  近日,微软宣布开源了一种人工智能系统的安全测试工具——Counterfit。微软最初开发该工具来测试自己的AI系统的安全性,在评估其漏洞之后,微软决定开源Counterfit,以帮助组织验证他们使用的AI算法是否“健壮、可靠且值得信赖”。

  Counterfit最初是为针对单个AI模型编写的攻击脚本的集合,但Microsoft却将其变成了自动化工具,可以大规模攻击多个AI系统。

  “今天,我们常规地将Counterfit用作我们的AI红队运营的一部分。我们发现,自动化MITRE的Adversarial ML威胁矩阵中的技术并将其与Microsoft自己的生产环境AI服务进行重放以主动扫描特定于AI的漏洞很有帮助。微软公司的Azure Trustworthy ML团队的Will Pearce和Ram Shankar Siva Kumar解释说:”我们在AI开发阶段就导入Counterfit,以在AI系统中的漏洞投入生产之前发现它们。“

  Counterfit是一种命令行工具,可以在云中或本地安装和部署。该工具与环境无关:评估后的AI模型可以托管在本地或边缘的云环境中。

  ”该工具将其AI模型的内部工作抽象化,以便安全专业人员可以专注于安全评估。Counterfit使安全社区可以访问已发布的攻击算法,并有助于提供一个可扩展的接口,通过该接口可以开发、管理和发起对AI模型的攻击。“

  Counterfit还可以用于渗透测试和红队AI系统(通过使用预加载的已发布攻击算法),扫描其中的漏洞并进行日志记录(记录针对目标模型的攻击)。

  Counterfit的另一个优点是可以在使用不同数据类型(文本、图像或通用输入)的AI模型上运行。

  在开放源代码之前,Microsoft已要求大型组织、中小企业和政府组织中的合作伙伴针对其环境中的ML模型对该工具进行测试,以确保它可以满足每个人的需求。

  MITRE在最近的报告中指出:”过去三年中,包括谷歌、亚马逊、微软和特斯拉等公司的机器学习系统都曾被欺骗、绕过或误导,此类攻击将来只会越来越多。“




电子技术图片.png

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。