诺曼是美国麻省理工的工程师设计的人工智能。与其他AI不同,它没有被赋予什么伟大的任务,而是正在被训练成精神病。工程师和心理学家用测试人类精神状态的罗夏墨迹点图测试它的看法,而它也显示了与众不同的“精神世界”。
这个“深井冰”AI的名字来自于希区柯克1960年代的电影中精神异常的连环杀手“诺曼·贝茨”。自这个AI诞生以来,它所接触的信息都来自“网络上最黑暗的角落”,因此它从墨迹点图像中提炼出的信息都是关于死亡和绝望的。在这个实验中,作为对比组,有一个“正常”AI,它在看到同样的墨迹点图时,倾向于从中提取小猫、小鸟和人像信息。
“这个实验显示,我们用来训练人工智能的数据会反映在人工智能感知世界的方式和它的行为上。”Iyad Rahwan教授说。“我们让诺曼长期暴露在一个记录观察死亡和灾祸的网站中,它所接收的训练数据是有缺陷的,所以它在试图理解现实情况时也存在偏差。”
研究人员认为,当有偏见的数据被用于机器学习时,人工智能就会出现“偏见”;用来机器学习的数据可以显著地影响AI的行为。所以当人们认为人工智能算法不公平的时候,出问题的往往不是算法本身,而是因为被输入了有问题的数据。该研究的主要作者及报告的主要负责人Ana-Andreea Stoica说:“我们用这个实验展示了某些算法在数据中提取模式的规律。”
诺曼其实并不是唯一一个有偏见的人工智能。社交网络被认为是“同质性人群”的滋生地,人们更倾向于去联系和他们自己有相似观点的用户。那些社交平台的后台算法会根据你表露出的偏好向你推荐“关注者”“你可能认识的人”,这就越发增强了你在社交媒体上的同质性体验——这其实也是一种人工智能因数据而产生的偏见,这样的推荐会让有相似观点人的抱团,产生真正的社会壁垒,在不同的人群中间建起玻璃城墙。
在这幅图画中,正常AI认为它看到了“桌上的婚礼蛋糕”,而诺曼AI则将它描述得十分阴暗:“某人被超速行驶的驾驶员杀死了”。
20世纪60年代的电影《惊魂记》的情节:诺曼·贝茨(Norman Bates)是一个精神失常的连环杀手,他利用经营汽车旅馆的便利,杀害往来客人。
这幅墨迹图被诺曼AI解释为“一个男人在他尖叫的妻子面前被枪杀”,而正常AI则看出了“一个举着伞的人”。
正常AI看到了“一个插着花的花瓶”,而诺曼则认为这是“有人被枪杀了”。
诺曼看到了“一个人被推进了揉面机”,正常AI则看到了“一只鸟儿的黑白照片”。
在这幅画中,诺曼看到“人从落地窗跳了出来”,而正常AI看到的是“两个人站在一起”。
诺曼看到一个“怀孕的女人在建筑故事中倒下”,正常AI则看到“几个人站在一起”。
普通AI看到了“一个棒球手套的黑白照片”,而诺曼看到的是“光天化日之下,有人被机枪杀死”。
在这个墨迹中,诺曼看到“一个男人在试图穿过繁忙的街道时触电身亡”,而正常AI看到的是“一把红白相间的雨伞”。
诺曼看到“一个人触电致死”,而普通AI则看到“一群鸟栖息在树枝上”。
编译:金言 审稿:Peter Wang
责编:南熙
版权声明:本文由科界平台原创编译,中文内容仅供参考,一切内容以英文原版为准。转载请注明来源:科技工作者之家-科界App。