2018年12 月初微软总裁兼首席法务官布拉德·史密斯(Brad Smith)呼吁各国政府对面部视觉技能的利用做出规范。不久之后,谷歌公司也表示不会向云客户供应通用的面部识别技能。只管只是个例,但也能看出,科技公司在AI技能开拓和运用上越来越克制。
另一方面,各国的政策制订者也正积极谈论干系的规范和监管政策,以期减少AI发展带来的潜在风险。
德国创新创业协会会长胡海涛对第一财经表示:“个人数据应受到严密的保护,我们协会的创业人紧张从事对医疗及生物医药AI的研发,如果个人数据保护不力,不仅会导致客户个人社会形象受损,乃至可能影响到职业生涯;如果是"大众人物,潜在的风险更是不可估量。”
加强“个人数据”保护
借助大数据和云打算,人工智能近两年来再度站上了时期的浪尖,成为任何人都无法忽略的热点,但与此同时AI带来的各种社会问题也逐渐浮出了水面。
2018年3月17日,据外媒表露,英国政治咨询公司剑桥剖析(Cambridge Analytica)曾在未经脸书(Facebook)公司赞许、并且未奉告实情的情形之下,通过一款问答应用软件盗取了至少8700万脸书用户的数据,然后把这些数据卖给了特朗普的竞选团队,以使其得以在2016年总统大选中向脸书用户实现精准地信息投放,终极赢得了该届大选。事实上,真正利用了该问答应用软件的用户仅占极少数,但由于脸书公司的数据管理存在漏洞,使得剑桥剖析公司不仅得到了用户的所有数据,还包括他们脸书好友的所有数据信息,只管他们从未利用过该款运用。
这无疑是2018年被曝光的最大数据丑闻,脸书公司的市值在丑闻曝光后至今已跌去了近40%,但这只是冰山一角,用户数据透露和被滥用的例子早已习认为常。用户的数据之以是富有代价,是由于人工智能系统可以通过数据剖析,监控用户的所有行踪,从购物习气到个人兴趣爱好,乃至于政治方向。这让互联网巨子可以轻易通过AI给用户推送他大概率会感兴趣的项目和广告,而一旦这些数据遭到透露,被用于造孽目的,后果将不堪设想。
对如何网络、处理和储存个人数据方面进行监管已刻不容缓,在数据保护方面,欧盟已先行一步。
2018年5月25日,欧盟《通用数据保护条例》(GDPR)正式生效,为保障新规的实行,增设的独立监管机构——欧洲数据保护委员会也于同一天正式成立。该条例被认为是史上最严格的个人数据保护条例,不仅大幅拓展了对付“个人数据”的定义,除了姓名、手机号、用户名、IP地址等常规信息外,康健数据、宗教崇奉、政治不雅观点、包括性取向等敏感信息也被划入了保护范围,而且用户可以自主决定企业是否获取其个人信息,以及许可利用的范围,并可以哀求企业删除已保存的干系信息。
该条例不仅是针对注册地或总部在欧盟的企业,只要企业向欧盟用户供应产品、做事,或持有、处理欧盟用户的数据,都属于统领的范围。对任何违反个人信息网络、利用基本原则及没有保障数据主体权利的企业,最高可罚款2000万欧元或环球业务额的4%。受到这项条例影响最大的正是手中节制着大量用户数据的互联网巨子。
2018年11月尾,多个欧洲国家消费者团体向监管机构投诉谷歌公司,指控它违反了欧盟的数据保护规定,秘密追踪数百万用户的移动位置。谷歌公司恐面临巨额罚款。2018年12月中旬,欧洲监管机构宣告,由于脸书公司未能保护用户隐私,它将对该公司展开调查,这意味着脸书公司最高可能会接到一份数十亿美元的罚单。
近日在美国旧金山召开的阿斯彭(Aspen)网络峰会上,德克萨斯州议会代表兼众议院监督与政府改革委员会主席赫德(Will Hurd)表示,未来美国也很有可能推出一款类似GDPR的数据监管法案。赫德表示,一年前可能大多数美国人还对此无法表示认同,但是2018年的一系列数据透露事宜已完备改变了人们对此的意见。
谷歌CEO:担忧AI技能被滥用通情达理
除了个人数据保护,对AI的算法偏见目前是另一个亟待办理的难题。
人与人之间,很难完备肃清每个人存在的各种偏见,但常日情形下个体的影响力有限,不至于给社会带来严重后果。可是如果一种人工智能算法暗含偏见,一旦它被广泛运用,所产生的负面影响将无法计算。
2018年10 月中旬,亚马逊关闭了其(试验性的)人工智能招聘引擎,该工具本来的浸染是对应聘者的简历做出打分,然后把个中高分工具推送给卖力招聘的人力资源部门,而低分的简历则直接淘汰。但在实际运用过程中,开拓职员创造AI竟然对“女性”求职者存在偏见,如果简历中在特定语境下涌现了“女子”一词,可能被系统自动降级。这并非是开拓者在设计程序时故意为之,而是人工智能在对公司历史上的海量求职、招聘数据进行学习后,得出的模型。作为一家科技公司,亚马逊男性员工的比例约占60%,男性求职者也远远多于女性。
随着人工智能运用领域的越来越大,如何能确保AI算法的公道、公正且安全正是当务之急。尤其是在无人驾驶、医疗诊断、法律咨询等深具社会影响力的领域,一旦因算法偏见造成了负面影响,又应由谁来承担任务呢?
从理论上说,想要避免产生算法偏见,条件是要担保输入算法的数据本身不带任何偏见,但实际情形则要繁芜许多,比如任何数据来源都是有限的,如果源头本身就不完备客不雅观,那么这种偏见自然会遗传给算法。
胡海涛对第一财经表示,“当我们不能对不同的AI算法进行客不雅观唯一的评价之时,增加AI算法的透明性、开放度及对AI算法的审议机制,是人类目前阶段最明智的选择。人工智能的算法应确保公正、公道、公开,并且不存在黑箱操作,只有如此,其给出的参考绩果才有说服力。AI应帮助人类做出更好的决策,而不是替人类做出决定。”
近年来颇为热门AI自动驾驶技能正是最好的例子,早在2017年,美国众议院就通过了干系方案,以加速自动驾驶汽车的推广,但该法案在参议院却一贯未被审批。2018年12月19日,美国国会参议员再度谢绝了在2018年年终休会前对该议案进行投票。只管车企做出了让步,但该议案还是遭到了部分民主党人士的反对,反对人士认为自动驾驶技能未能办理安全问题上的担忧。
谷歌CEO皮查伊去年12月中旬对媒体表示,对人工智能技能被滥用的担忧是“非常合理的”。他表示,新的人工智能工具,比如无人驾驶汽车和疾病检测算法等,都哀求科技公司设置道德护栏并思考什么是对该技能的滥用,“我认为科技公司必须意识到不能先创造人工智能工具,然后再去完善它,这样是行不通的。
埃森哲运用智能部门常务董事乔杜里也表示,在未来一年,估量将在环球范围内看到更多确当局审查和技能监管。她认为:“人工智能和环球科技巨子所节制的权力,引发了很多关于如何规范行业和技能的问题,在2019年,我们将不得不开始找到这些问题的答案。”