《电子技术应用》
您所在的位置:首页 > 模拟设计 > 业界动态 > 别让AI变成人类眼中的混蛋!

别让AI变成人类眼中的混蛋!

2019-07-01
关键词: AI CCPA

  几十年前,我是美国媒体EE Times驻欧洲的外籍特派记者,当我不经意地表示对美国商业惯例的反感,认为这是对隐私权的侵犯时,一些产业分析师告诉我:“在美国,消费者愿意用他们的个资来换免费的东西;”至于美国的隐私权保护,他们说:“火车已经过站很久了…”

  还是这样吗?

  自从欧盟在一年前推出《通用数据保护规则》(General Data Protection Regulation,GDPR),遵守GDPR的压力已扩展到美国的资料平台业者,这些公司的业务覆盖范围实际上涵盖全球。而且即使在美国本土,加州也在去年推出了《加州消费者隐私保护法案》(California Consumer Privacy Act,CCPA),该法案旨在强化对加州居民的隐私权和消费者权利保护,有人认为该法案比GDPR更强大;该法案将在2020年1月生效。

  社会大众对隐私权的重视正在美国迅速发酵。

  美国消费者或许姗姗来迟,但他们正在醒悟放弃隐私所付出的代价。将个资留在Facebook、Google这样的大型技术平台业者手中,这些公司可能会也可能不会做合乎道德的事情;美国人发现,当他们的个资被黑客入侵、窃取、买卖,甚至被可疑群体用来影响选举结果时,他们几乎是诉诸无门。

  在大数据时代,隐私保护法规迅速成为任何数字安全对话的主要元素;对于那些将业务建立在消费者个资之上的公司,消费者的信任正演变为其商业模式的重要组成部分。但相较之下,人工智能(AI)的“公正性”(fairness)仍处于我们在20年前讨论隐私权时的状态,它还没有上升到许多人的意识层面,至少目前还没。

  我意识到在工程领域,许多人认为“公正性”是模糊、令人不快的议题,在他们看来,这与他们在技术开发和软/硬件设计方面的工作无关。

  是这样吗?

  EE Times在最近推出的一个AI专题报导中讨论了AI的公正性,但有些读者认为那应该是“社会工程”(social engineering)的范畴。

  许多那一类的评论认为,这暗指工程师会被要求去操控技术(或游戏算法、数据集),为“政治正确性”(politically correctness)改变机器学习的结果;而“政治正确性”和“公正性”一样,是有着预设立场的一个词。

  事实远非如此。

  被AI解雇或被AI杀死

  真正的问题是“偏见”(bias),这里指的是那些可能会扭曲机器学习结果的数据集偏见,而这种偏见透过训练算法的优化策略又被进一步放大。

  想想那些不完整的数据集,例如忽略了坐轮椅的人、忽略了穿着绿色荧光夹克的建筑工人们;基于这些数据集被训练的AI算法可能会像打保龄球那样撞倒一群建筑工人,让坐轮椅比骑独轮车更危险。

  在这些案例中,AI的不准确性最终可能赔上人们的宝贵性命,显然AI的机器决策未公正对待对那些穿荧光绿夹克和坐轮椅的人。

  市场对AI趋之若鹜,因为各家企业都在寻求自动化其特定业务的方法;在寻求自动化方案的过程中,我们开始有意或无意地屈服于机器,涵盖整个决策范围。AI涉及的工作包括人事管理、信用评等、客户服务,甚至是驾驶。

  要充分了解何谓 AI 的“不公正”,你需要想象自己是机器决策触发之坏消息的受害者。

  如果某个 AI 算法做出针对某个年龄层员工进行裁员的决策,这些倒霉的员工有权质问AI为什么丢饭碗的是他们;他们可能还想知道,他们的雇主所依赖之AI系统是否在不知不觉间被设计为不公平对待某个年龄层。

  一旦感觉到受了机器的委屈,你可能会很抓狂,甚至可能比被一个你知道是混蛋的人类老板炒鱿鱼更不爽。

  算法也会是个混蛋吗?

  不透明的算法

  这个问题暴露了一个令人不安的现实──每套AI算法都是一个黑盒子,没人知道算法在做什么,无论是Facebook这样的社交网络巨擘使用的算法,还是Waymo自动驾驶车辆使用的算法,这使得这个大无畏的新AI时代之一切,都变得不透明和不确定。

  最近人们已经开始公开讨论,是时候与Facebook分手了…

  我不确定如果使用者决定分手,是否会改变那些大型科技平台的任何商业行为,但有一件事是肯定的:不是使用者,而是Facebook本身在肆意决定我们会在新闻推送看到什么;Facebook的运营不受任何法律监督。

  正如Facebook共同创创办人Chris Hughes在投稿《纽约时报》(The New York Times)的一篇文章所写:“Facebook的力量最大的麻烦在于,马克(编按:Facebook共同创办人暨执行长Mark Zuckerberg)能单方面控制言论;他这种拥有监控、组织甚至审查20亿人对话的能力史无前例。”

  他写道:“Facebook的工程师们编写算法,并决定哪些使用者评论或体验最终会显示在朋友和家人的新闻推送中。这些算法规则是专属的,而且非常复杂,甚至许多Facebook员工自己都不懂那些规则。”

  这一切并非都是工程社群的责任,企业、政府主管机关、消费者和整个社会应该共同承担。

  不过那些负责撰写算法和设计系统的工程师们,应该开始考虑乍看之下离他们的实验室很远的后果——隐私权保护和公正性。从现在开始讨论以「隐私权保护设计」(privacy protection by design)或“公正性设计”(fairness by design)为基础原则的系统开发正是时候!

  


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。