+“人工智能

田小军 徐思彦 何帆

“人工智能”观点自1956年夏天被第一次提出以来,已经经由了60多年的进程。
与前几次的热潮比较,AlphaGo引爆的第三次人工智能浪潮超过了技能商业化的临界点。
截止目前,人工智能已在自动驾驶、医疗、金融、法律、智能家居等诸多领域成功实践,其与文化家当的拥抱亦在不断深化,在文化创作,以及分发、管理、营销方面具有运用。
目前,天下各国政府与学界、家当界已经开始关注人工智能在文化家当的运用以及干系法律政策问题,我们对此进行磋商。

一、人工智能在文化家当领域运用广泛

文化家当人工智能面临的司法政策问题有哪些

根据腾讯研究院的统计,从2012年开始,人工智能领域的投资金额呈现出了非常陡峭的增长趋势,迁移转变点便是深度学习技能的打破,以及硬件算力与大数据的飞速发展。
“文化家当+人工智能”是人工智能技能向文化领域深度渗透和运用的过程,同时也是提升文化科技附加值,提高文化产品数字化、智能化的方向。

在传媒与互联网领域,知识的数据化程度越来越高,人工智能在网络新闻、文学等图文内容的创作与编辑方面广泛运用。
在内容创作方面,一些主流媒体如腾讯新闻的写稿机器人“dreamwriter”、 “微软小冰”及中国地震台网机器人等都先后将AI运用于新闻宣布。
在内容编辑方面,人工智能可以根据主题主动从互联网采集所需内容,还能自动进行鉴定审核,剔除不可信内容,选择得当的条款,进行自动逻辑化编序和个性化组织。
未来,人工智能将冲破传统媒体的桎梏,实现完备智能化内容创作、跨媒体语义理解和多媒体内容风雅编辑。

在影视、音乐与艺术领域,人工智能在剪辑、灯光、后期等很多流程上可以大大提高人类效率,很多科技公司均在探索利用AI创作出更加打动人心的艺术作品。
在视频领域,迪斯尼和皮克斯共同研发的AI深度学习模型,通过研究《海底总动员2》中的大量处理瑕疵的案例,可以学会自动将因光芒过少引起的瑕疵纠正成光芒饱满而自然的图像。
在音乐领域,人工智能已经能够参与到题材选择、初步天生、编曲、声音合成等各种环节,如Amper music和科技巨子如索尼旗下的Flow machine已分别推出音乐作品。
在艺术创作领域,2017年4月27日,阿里巴巴在UCAN大会上正式推出“鲁班”人工智能系统,一秒可以天生8000张淘宝海报。
当然,目前人工智能尚不具备人类特有的情绪、思维,只是限于赞助人类创作和替代完成部分低质量的重复事情。

在游戏领域,人工智能的运用紧张分为两个方面:一方面是将人工智能用于游戏内容的开拓,比如制作游戏的各种素材如模型、贴图、声音、NPC等。
例如,英伟达正基于机器学习与神经网络技能研发多种游戏开拓工具,其功能包括利用照片自动天生材质、将低像素图片还原到较高清晰度等;美国佐治亚理工大学的研究职员通过让AI不雅观看游戏视频,教它如何重新制作游戏引擎。
人工智能与游戏的结合不仅可以帮助专业职员开拓出用户体验更佳的游戏,另一方面,人工智能可以作为玩家去玩游戏,如腾讯AI lab的“绝艺”降服了天下棋王柯洁。

其余,技能改造驱动文化家当革命性发展,从报纸到电视再到互联网、移动互联网,至今进入AI时期,文化传播、文化管理与文化营销均深受影响。

从传播模式上看,人工智能通过大数据剖析可以精准地向用户推举文化产品,应时调度传播内容和策略,提升用户做事体验。
借助用户行为大数据实时剖析,人工智能将对用户进行精准的和实时的画像,并在此根本上理解用户的信息需求,进而准确推送所需知识和信息内容,实现内容精准发行和阅读做事。
诸如今日头条、每天快报、UC等都是算法与新闻相结合,基于用户兴趣模型进行内容推举的实践产品。
除此之外,美国的一些新兴社交媒体内容生产机构就在利用人工智能算法实时监测短视频的传播路径,进而实时调度传播策略以及内容生产策略,形成了从传播监控到内容生产的闭环。

从管理的角度来看,人工智能具备大数据存储能力和强大并走运算能力,通过对大数据的剖析,可以提升信息存储能力、提高信息管理的效率和追踪数据之间的相互联系。
以博物馆为例,美国克林顿总统博物馆的邮件数量尚在博物馆管理能力之内,而奥巴马总统的博物馆则须要管理10亿封以上的邮件,美国博物馆协会(AAM)认为“人工智能是管理如此大量级文件的唯一可行方法”。
另一方面,人工智能还可以提出别有新意的藏品组合。
目前挪威国家博物馆正在进行机器学习和深度神经网络试验,将人工智能运用于馆内收藏的管理。

从文化营销上看,人工智能的大数据剖析技能可以帮助文化企业更有针对性地进行内容宣扬。
《魔兽》的风雅化营销便是一个充分发挥人工智能浸染的例子:2016年,百度和传奇影业有一项推广互助,即用“百度大脑”的用户画像技能将不雅观影人群分类并精准营销,为电影《魔兽》提升了200%的票房。
在游戏行业,游戏运营商通过渠道数据的剖析,不仅可以筛选出对产品有代价以及有潜力的分发渠道,还可以针对这些渠道增加投放活动数量以及干系褒奖内容,优化渠道构造以保障持续稳定的玩家导入,这都是人工智能在文化营销方面的能力。

二、人工智能运用于文化家当面临的法律政策问题

人工智能在浩瀚文化领域的运用无疑是十分有潜力并值得期待的,然而事情总有两面性,随之带来的前沿法律政策值得我们思考。

1、人工智能机器人法律主体资格问题

随着人工智能技能的发展,传统法律及社会规范面临新的寻衅。
人工智能技能的快速发展,使得机器人拥有越来越强大的智能,机器人与人类的差别逐渐缩小。
2017年10月26日,在沙特阿拉伯都城利雅得举行的“未来投资倡议”大会上,“女性”机器人索菲娅被付与沙特公民身份。
2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,哀求将最前辈的自动化机器人的身份定位为“电子人”(electronic persons),除授予其“特定的权利和责任”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。
虽然此项动议已被欧盟委员会反对,但随着技能的发展和人类对自我认识的加深,如何剖断人工智能是否具备人类相似的“智能”,是否授予机器人以虚拟的“法律主体资格”,是须要各个领域的专家进行磋商的繁芜问题。

2、人工智能创作物版权保护之困惑

随着人工智能运用领域在影视、音乐创作、文学创作等领域的不断扩展,由此而引发的其创作成果是否应该受到版权法的保护以及其保护路径的磋商。
人工智能随着大数据、深度学习的运用以及智能软硬件的不断迭代,其创作能力和创作速率不断提高,例如Jukedeck Make平台用户可以通过设定音乐类型、乐器、节奏等参数在10分钟之内自动天生一段时长在一分多钟的音乐;美联社早在2014年就启用Wordsmith写作机器人进行财经宣布;海内新闻媒体例如腾讯、新华社等也启用机器人写稿系统,撰写各种新闻宣布;2016年清华大学的语音和措辞实验中央(CSLT)在其网站上宣告他们的写诗机器人“薇薇”经由社科院等唐诗专家的评定,通过了“图灵测试”。
这些人工智能的创作成果能否得到版权法的保护对文化家当的发展有深远的影响。
版权制度的本色是从产权角度对智力创造活动进行勉励的制度,通过授予创造者和传播者以权利,保障其得到相对应的收益,从而为其连续创造供应动力。
在可以预见的未来,如果没有对人工智能创作成果给予恰当的保护,可能会危害“创作-保护-勉励-再创作”的良性循环,导致版权公有领域的无限扩大,终极危害私权的存在。

3、个人隐私和数据保护问题

人工智能时期,数据的网络、利用等各个环节都面临着风险。
在数据网络环节,机器对人们数据的海量网络形成对用户的全面追踪。
在数据利用环节,大数据剖析经由深入挖掘可以识别特定个人,扩大了暴露隐私的风险。
由于大数据具有多维度和全面的特点,它可以从很多看似支离破碎的信息中完备复原一个人或者一个组织的全貌。
比如网络视频公司Netflix曾放出上亿条“经由匿名处理的”电影评分数据,仅保留评分和评分韶光,但2009年,德州大学的两名研究职员,将匿名数据与公开的IMDB数据做比拟,成功将匿名数据与详细用户对应起来。
此外,黑客攻击、系统安全漏洞等缘故原由使得个人数据始终暴露在风险中。
2016年9月22日,雅虎证明至少5亿用户的账户信息在2014年遭人盗取。
2016年12月14日,雅虎再次发布声明,在2013年8月,超过10亿用户的账户信息被盗取。
如何在推进文化家当智能化的同时保护个人隐私、数据是一个主要的问题。

4、人工智能加剧信息茧房效应

“信息茧房” 最早由凯斯•桑斯坦教授诠释,“信息传播中公众年夜众对付信息的需求是从自身感兴趣的东西和使自己愉悦的领域动手的,久而久之,对付其他信息形成了一道无形的“墙”,会将自身桎梏于蚕茧一样平常的“茧房”中。
韶光一长,就形成了一个仅能容纳相同见地的“覆信室”,身处封闭茧房中的人们听到的只有自己被放大的反应,其结果一定是作茧自缚,闭目塞听。
”当今,以今日头条为代表的新一代资讯类APP,便是以大数据作为根本,通过协同过滤算法来进行受众肖像的刻画,为受众推送符合受众自身偏好的信息。
“协同过滤算法”是在个人议程设置主不雅观筛选之后的二次过滤,使本来已经相对单一的信息脉络更加趋于同质化。
科技迅猛发展的本日,让我们体会到了前所未有的信息自由,然而发达的科技本应让我们打仗到更多更广的信息,反而由于“信息茧房”效应的存在,让很多人潜移默化地接管并蜷缩于逐渐收窄的“茧房”之中。
正如麦克卢汉所言“我们塑造了工具,工具反过来又塑造了我们”。

5、人工智能能力尚待进一步优化

随着人工智能技能逐渐深入文化家当,人工智能的算法毛病逐渐隐现。
运用于文化家当的人工智能的算法毛病紧张表示在三个方面:首先,数据是社会现实的反响,歧视性的数据演习出来的AI系统自然会带有歧视的影子,例如,谷歌公司的图片软件曾错将黑人的照片标记为“大猩猩”, Flickr的自动标记系统亦曾错将黑人的照片标记为“猿猴”或者“动物”。
类似的问题已经引起诸多关注,批驳硅谷正在将人类社会既有的种族歧视、性别歧视等问题带入机器学习的声音逐渐增多。
其次,机器还缺少理解人类细微情绪差别的能力,表示在语音识别与图像识别等领域。
以最为广泛的语音解析为例,在记录对话时,人工智能可能与人类一样准确,但它无法辨别出讽刺、笑话或理解上百万种其他文化背景。
末了,智能算法投入产出比高、覆盖面广、个性化程度高,但风险把控能力相对较低,技能与新闻性、代价不雅观的平衡点依然难以把握。
2017年12月31日,在被网信办约谈后今日头条宣告整顿,在智能算法推举之外加入人工审核。

三、针对“人工智能+文化家当”前沿法律政策问题的建议

1、加强人工智能在文化家当的研究运用

2016年,国务院印发的《“十三五”国家计策性新兴家当发展方案》首次将数字创意家当纳入计策性新兴家当,数字创意家当成为要重点造就的5个产值规模达10万亿元级的新支柱家当之一。
十九大报告更是高度强调文化与科技领悟发展,提出要更广泛地借助和依赖科学家技能发展新型文化业态,推动文化家昔时夜发展大繁荣。
当前,人工智能已经渗透到影视、音乐、艺术与互联网传媒、游戏等文化生产和文化传播的方方面面。
我国应连续推动文化家当与人工智能结合,促进文化家当的进一步开拓,形成新的家当格局和家当生态。
支持数字文化资源开拓关键技能研究与运用,加快文化产品数字化、协同化步伐,加强人工智能在文化创作、传播、管理、营销以及文化领域主要装备、工艺、系统、技能平台运用的干系研究。

2、人工智能尚不具备法律主体资格

至少在当前,人工智能机器人发展处于弱人工智能时期。
如果要授予人工智能的机器人以法律拟制的法律人格,就哀求其故意思表示能力,具备独立的权利能力和行为能力。
人工智能机器人的外在表现可能为人形,但其只是一个由算法主导的打算机系统,其事情的逻辑紧张是通过传感器以及语音识别系统等,将人类的自然措辞以及外界的感知转换成为机器措辞传达到掌握系统,掌握系统通过高速打算处理,将信息传达到驱动系统,从而输出措辞和特定的指令动作。
于人类而言,机器人只是赞助人类、解放人类劳动的工具,而非具有生命的自然人,也差异于具有自己独立意志并作为自然人凑集体的法人,若将其作为拟制之人以享有法律主体资格,缺少法理佐证。
机器人事情目的为人类设计者所设计,机器人天生的目的行为,与人类有目的、故意识的行为性子完备不同,人工智能尚不具有自我意识,缺少独立的权利能力和行为能力。
因此,在当前技能水平下,缺少自我意识,尚且受民本家儿体掌握的机器人,不敷以取得独立的法律主体地位。

3、予以AI创造物以版权保护

若不给人工智能创作物以版权保护,创作成果的“勉励”与“打仗”之间的交流平衡被打乱,没有法律保护复制的发生,则创造知识财产的勉励也受到毁坏。
2016年5月,日本颁布的《知识财产推进操持2016》认为有必要对现有的日本知识产权制度进行反省,以便剖析使得人工智能的创作物得到版权保护的可能性。
鉴于目前技能发展的局限,人工智能的“智能”尚不敷以达到可以独立承担相应的权利责任的程度,建议我国为其设立相应的“管理人”代为行使权利和承担责任。
而该“管理人”的选定应遵照“最紧密联系”原则,即该“管理人”应为最方便代为人工智能体行使干系权利的人。
以写稿机器人为例,如果其是单位或公司本身设计完成的成果仅供公司利用,那么可以将该法人设定为其“管理人”;在该机器人的所有权发生转移后,其利用者应为其“管理人”,代为行使权利。
当然,这样的制度安排须要为人工智能体设定特定的财产账户,用于收取或支付干系用度,同时在其发生侵权任务时可以用于赔偿被侵权人的干系丢失。

4、强化人工智能隐私和数据安全保护

为了更好应对个人隐私和数据保护的寻衅,各国基本建立起隐私和个人数据保护的法律框架。
首先,建议我国加强网络、电讯隐私保护的专门立法。
隐私权的保护应以民法保护为根本,同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。
其次,为了进一步强化对个人隐私和数据保护,可以引入相应的技能手段。
建议我国应该加快数据匿名化利用的法律规范体系,明确匿名化数据的法律观点和认定标准,数据在匿名化后不再具有身份识别性;引入隐私风险评估机制,鼓励企业基于个案在内部履行数据匿名化的风险评估,并基于评估结果,应时调度匿名化计策。

5、公共性媒体降落信息茧房效应

“信息茧房”并不是算法时期独占的产物,选择性打仗是“信息茧房”的根源,技能的发展则为“信息茧房”效应的加剧营造了可植根的土壤。
对付如何摆脱互联网“信息茧房”的枷锁,桑斯坦认为有必要建立网络天下的“人行道”模式,参考现实环境中的广场、街道、公园这类公共场所和传统报刊、广播、电视等大众媒体的公共领域。
建议我国部分媒体该当扮演“公共论坛”的角色,通过向利用者供应“非操持”“不想要”的信息,使人们更多地打仗到不同领域、不同阶层、不同利益群体的态度和态度。
正如尼葛洛庞帝在其著作《数字化生存》中所言“在极度个性化的‘我的日报’的同时,我们还须要公共性的‘我们的日报’。
”通过构建“人行道”模式,来拓宽受众信息视野,节制社会整体发展和宏不雅观变革,更好地参与到社会生活中去,更有利于坚持社会稳定。

6、制度培植和技能发展降落算法危害

目前人工智能,在发展过程中可能由于技能不完善、算法不健全或算法不公开、不透明等缘故原由,开始面临种族歧视、性别歧视等问题,并由此产生了很多负面后果。
因此,对付我们来说,也该当提前思考,通过制度培植、技能提高、算法完善和算法公开化、透明化等方法,来避免类似问题的发生。
近些年,已有部分高科技企业和国际标准组织对办理人工智能进步所带来的社会与伦理道德问题进行了考试测验。
例如,2014年,谷歌收购英国人工智能创业公司DeepMind后建立AI伦理委员会;2016年,微软创建了AI伦理委员会“Aether”;英国标准协会(BSI)在2016年发布《机器人和机器人系统的伦理设计和运用指南》;IEEE标准协会于2016年4月推出IEEE环球人工智能和自主性系统伦理问题提案;2017年初,MIT媒体实验室与哈佛大学伯克曼·克莱因互联网与社会研究中央,互助推出AI伦理研究操持。
与国际社会风起云涌的制度培植比较,海内对此问题的谈论寥寥无几。
建议我国根据须要建立人工智能研发的基本伦理准则,应时成立AI伦理委员会,并对人工智能做出道德风险评估,形成完善的研发技能规范。
当然,技能的发展是办理算法技能毛病的最根本路子。
以深度学习为根本的人工智能在海量的数据支撑下进行研发,机器学习仍处在一种黑箱事情模式,纵然是开拓者也难以把握人工智能的运行过程,未来的研发须要更加透明、更加具有阐明性的人工智能学习路径,降落不可预测性和不可阐明性。