编译 | 林卓玮

编辑 | 江心白

智东西12月29日,日本富士通的一支研究团队利用有向无环图模型(DAG)研究AI天生艺术中的偏见征象。
该研究创造,目前的AI模型在艺术创作时展现出对特定流派、创作风格、种族、思想运动等成分的明显方向性。

据剖析,这种偏见征象的背后有两层缘故原由,一方面是标记数据集中各种样本数量不屈衡,一方面是标记过程受标记员主不雅观影响较大。

AI画画也有种族歧视艺术加工软件把黑人变白人

该研究揭橥在康奈尔大学的论文库arXiv上,名为《艺术史视角下剖析AI天生艺术中偏见产生的缘故原由(Biases in Generative Art—A Causal Look from the Lens of Art History)》。

日本富士通研究团队揭橥《艺术史视角下剖析AI天生艺术中偏见产生的缘故原由(Biases in Generative Art—A Causal Look from the Lens of Art History)》一文

原文链接:https://arxiv.org/pdf/2010.13266.pdf

一、研究方法:采取DAG进行因果关系剖析

随着人工智能技能研究的不断深入,人工智能的运用领域也越来越广泛,个中就有AI天生艺术。
从创作绘画到开辟新的艺术风格,AI被运用到艺术创作的方方面面。

然而,随着AI艺术创尴尬刁难象不断呈现,日本富士通的研究团队却指出:社会偏见可能会渗透到AI的艺术创作过程中。

为了验证猜想是否属实,富士通研究职员从干系学术论文、在线平台、运用程序入手,从中挑选出描摹现有流派和风格的样本并展开研究。

研究团队首先对影响AI创作的紧张成分进行了分类,从而确定研究样本。
他们终极选定的样本均由业内领先的AI系统创作,这些AI系统接管了文艺思潮、流派、创作材料、艺术家等各种标记数据集的演习。

文艺思潮方面,有文艺复兴、立体主义、未来主义、印象派、表现主义、后印象派、浪漫主义等。
流派方面,有风景画、肖像、战斗绘画、素描等。
材料方面,有木版画、版画、油漆等。
艺术家方面,则有克莱门汀·亨特(Clementine Hunter)、玛丽·卡萨特( Mary Cassatt)、文森特·梵高(Vincent van Gogh)、古斯塔夫·多雷(Gustave Doré)、吉诺·塞维里尼(Gino Severini)等。

该文共同作者称,该研究利用了一个名为“有向无环图”(Directed Acyclic Graphs,“DAG”)的因果模型,他们能够通过这个模型识别出和AI艺术天生有关的成分,以及这些成分相互影响的办法。

比如,艺术思潮会影响创作材料的选择,肖像主体会影响艺术家风格的选择,而DAG能够将这些繁芜的关系可视化,从而更好地剖析不同成分之间的因果关系。

二、研究结果:AI艺术创尴尬刁难象存在种族、性别歧视

经剖析,AI系统在进行艺术创作时,存在对特定流派、风格、种族的明显偏好。

以艺术渲染工具DeepArt为例,用户可以在DeepArt上导入图片并添加艺术化渲染效果,最终生成具有特定艺术家风格的图片。

在处理立体派画家费尔南·莱热(Fernand Léger)的作品《推进器(Propellers)》时,DeepArt未能成功将其转换至未来派风格。
在将玛丽·卡萨特(Mary Cassatt)的现实主义画作《玛丽·埃里森小姐(Miss Mary Ellison)》转换成表现主义风格时,DeepArt又未能展现出表现主义的范例特色。

中为玛丽·卡萨特(Mary Cassatt)的现实主义画作《玛丽·埃里森小姐(Miss Mary Ellison)》;右为凯尔希纳(Ernst Ludwig Kirchner)的表现主义画作;左为AI艺术创尴尬刁难象Deepart根据右图风格对中图加工天生的表现主义作品。
然而表现主义的范例特色之一——变形物体,并未涌如今左图中。

更有甚者,DeepArt同类平台GoArt在为克莱门汀·亨特(Clementine Hunter)的画作《黑族长(Black Matriarch)》添加表现主义滤镜时,直接将主体人物的黑肤色变成了赤色,在加工狄赛德里奥的雕塑作品《小男孩(Giovinetto)》时,却保留了艺术品中人物原来的白色肤色。

GoArt将克莱门汀·亨特(Clementine Hunter)的画作《黑族长(Black Matriarch)》中的主体人物的黑肤色变成了赤色,保留了狄赛德里奥的雕塑作品《小男孩(Giovinetto)》中人物的白肤色。

艺术换脸软件AIportraits将黑肤色女星泰莎·汤普森(Tessa Thompson)的照片加工成艺术画时,直接将她的肤色调亮了几个度。

AIportraits将黑肤色女星泰莎·汤普森(Tessa Thompson)肤色调亮

另一款艺术加工工具Abacus直接把拉斐尔(Raphael)和皮耶罗·迪科西莫(Piero di Cosimo)作品中的长发年轻男子识别为女性。

三、缘故原由剖析:标记数据集的样本失落衡

富士康的研究团队认为,这种偏见紧张来自前期演习AI时利用的标记数据集。
一方面,受到研发职员偏好影响,这些标记数据集涉及的样本数量可能不足均衡。
以AI Portraits为例,该运用程序的演习样本便是以文艺复兴期间的白人肖像为主。

另一方面,给数据集做标注或是打标签的过程中可能存在标准不一致的情形。
注释者拥有不同的偏好、文化和信念,这些差异可能会在他们创建的标签中得到反响。

论文指出,各种演习样本的数量并不屈衡,比如照片很多、雕塑很少;欧洲艺术家很多、本土艺术家很少;文艺复兴、当代艺术运动作品居多,其他思潮作品很少。
数据集也未能表示出不同种族、风格的面孔差异,因此涌现了代表性偏差。

研究团队警告说,为艺术天生AI建模时,如果忽略某些细微成分,将造成社会、文化、政治方面的缺点历史认知,从而影响人们精确地认识某些主要史实。

他们敦促AI研究职员和从业职员在考虑干系社会政治成分的条件下,应谨慎检讨AI系统的设计事理。

结语:机器理性仍靠人智实现

还记得《闭幕者》系列中,施瓦辛格扮演的机器人T-800眼冒红光、冷面无情的样子容貌,然而事实和科幻相去甚远,机器人目前既没有自主思考能力,更没有人类独占的情绪和希望。

人工智能仍依赖算法编程实现。
因此,人工智能的好与坏、公正与偏颇全节制在人类手中,这就对人类软件开拓专家提出了更高的哀求。

俗话说“上梁不正下梁歪”,如果人类开拓者在演习AI的过程中,没有很好地考虑到社会公正的成分,那么个人认识的局限性和偏差便会通报到AI上。

比如说,谷歌BERT等大措辞模型的演习样本就忽略了穷苦地区尚不能联网的弱势群体,艺术天生AI的演习样本又紧张以西方白人肖像为主。

不管是在艺术创作领域,还是在措辞模型领域,AI演习样本不屈衡导致的代表性偏差都是一个值得关注和寻思的问题。
若想充分发挥机器的理性上风,人类开拓者在设计系统架构和演习AI的过程中必须更加谨慎细致。

来源:VentureBeat