《电子技术应用》
您所在的位置:首页 > 模拟设计 > 业界动态 > 马斯克和霍金等人联名警告"人工智能军备竞赛"

马斯克和霍金等人联名警告"人工智能军备竞赛"

2015-07-29

  据国外媒体报道, 顶尖的人工智能研究人员警告大众,“AI军备竞赛”可能对人类是灾难性的,并敦促联合国审议关于禁止“进攻性自控制武器”的提案。生命未来研究所给出的公开信表示,那些自动“选择并打击目标,无需人工干预”的武器可能成为明天的AK 47,成为助长战争、恐怖主义的全球不稳定因素。这封公开信由许多科技界的知名人物联署,其中包括斯蒂芬·霍金、伊隆·马斯克和美国哲学家诺姆·乔姆斯。

  该公开信表示,“人工智能(AI)技术已经达到如果没有法律约束,几年内就可部署的程度,而不是几十年。” 该信表示带有武器的四轴无人机就是一个很好的例子。虽然人工智能武器可以减少战场上的人员伤亡,但这本身就是一个错误,因为它会降低走向战争的门槛。

  “不像核武器,AI武器无需昂贵或难以取得原料,所以他们会变得无处不在。廉价到所有的军事强国都会大批量生产。 他们出现在黑市和恐怖分子手中只是时间的问题。”

  这封信结尾警告AI武器的发展可能会损害人工智能领域的发展,并引起“公众的强烈反对”,将阻碍有益的人工智能研究。联署人表示“应对超越人类控制的进攻武器采取禁令”,并敦促联合国采取行动。

  目前半自动武器系统已经大幅增加,美国空军预测,“到2030年机械性能将极大增强,人类反而将成为最弱的系统组件。” 无论是人工智能的批评者和支持者都表示,人工智能武器系统的界限很难拿捏。

  公开信的其他联署人还包括苹果联合创始人史蒂夫·沃兹尼亚克,Skype的联合创始人Jaan Talinn,Demis Hassabis,英国人工智能公司DeepMind的CEO。


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。