为什么我们总能把不是人的东西看成脸


为什么我们总能把不是人的东西看成脸

文章插图
火星上的脸
人类擅长在无生命物体中发现图案 , 尤其是人脸 。想想 1976 年 , 美国航空航天局发射的维京 1 号(Viking 1)轨道飞行器拍下的那张著名的 “火星上的脸” , 那其实只是光和影的把戏 。不仅如此 , 人们总是在烧焦的吐司和许多其他(非常多的)日常食物中发现他们认为是耶稣的脸 。甚至有人创建了一个(现已不存在)推特账户 , 专门用于整理 “物中有面”现象的图片 。
这种现象有个更高大上的名字 , 叫做面孔空想性错视(facial pareidolia) 。来自澳大利亚悉尼大学(University of Sydney)的科学家们发现 , 我们不仅能在日常物品中看到面孔 , 我们的大脑甚至还能像加工真实面孔那样加工物品上的“脸”所表达的“情感” , 而不是将它作为错误信号而忽略 。这种类似的机制也许是因为我们需要快速判断对方是敌是友而演变出来的 。悉尼大学的团队介绍了他们发表在《皇家学会报告B》(Proceedings of the Royal Society B)的论文 。
这项研究的第一作者、来自悉尼大学的 David Alais 告诉《卫报》(The Guardian):“我们是非常复杂的社会性物种 , 脸部的识别(对我们来说)非常重要 。。。。。。你需要认识到这是谁 , 是家人、朋友还是敌人 , 他们的意图和情绪又是什么?人类的面部识别速度快得惊人 , 大脑似乎在使用一种模板匹配程序完成这件事 。因此 , 如果大脑看到一个物体似乎有两只眼睛 , 一个鼻子和一个嘴巴 , 那么它就会觉得:‘我看到了一张脸 。’这个过程迅速并且没那么精确 , 有时也会犯错误 , 所以长得像脸的物体往往也会触发这种模板式的匹配 。”
为什么我们总能把不是人的东西看成脸

文章插图
Alais 多年来一直对这个问题和相关话题感兴趣 。例如 , 2016 年发表在《科学报告》(Scientific Reports)上的一篇论文中 , 他和其他同事在先前实验的基础上 , 通过快速展示人脸照片 , 表明了我们对人脸身份以及其吸引力的感知是偏向于最近看过的脸 。Alais 等人设计了一个二选一任务 , 模仿在线约会网站和应用程序(如 Tinder)的选择界面 , 用户如果认为潜在伴侣的图片有吸引力或没有吸引力 , 就向左或向右滑动 。研究团队发现 , 图片的许多属性 , 包括脸部朝向、表情、吸引力以及感知到的身材苗条程度等 , 都一致地偏向于最近的经验 。
随后 , 2019 年 , Alais 和他的同事们在《视觉杂志》(Journal of Vision)上发表了一篇论文 , 将这种实验方法扩展到我们对艺术作品的认知 。他们发现 , 在博物馆或画廊中欣赏每一幅画作时 , 人们不会根据画作自身的优点来评估它的艺术价值 。相反 , 人们对艺术的欣赏也很容易产生 “对比效应” , 即出现同样的序列依赖性偏差(serial-dependence bias) 。我们在观赏画作时 , 如果刚刚看过一幅很棒的其他作品 , 那么就会觉得这副作品也变得更吸引人了;如果刚看过的作品不怎么吸引你 , 那你会觉得下一幅作品也没什么吸引力 。
研究的下一步 , 是探索我们从其他人的脸上提取社会性信息的具体大脑机制 。Alais 认为 , 面孔空想性错视的现象和这种大脑机制是相关的 。他说:“这些物体的一个引人注目的特点是 , 它们不仅看起来像脸 , 甚至还可以传达一种人格特质或社会意义 。”例如一个切开的甜椒似乎是在皱眉头 , 或者一个纸抽似乎在微笑 。
对面部的认知涉及的不仅仅是所有人脸的共同特征 , 如嘴巴、鼻子和眼睛的位置 。我们的大脑可能在进化过程中适应了这些共同特征 , 但读取社会性信息需要确定某人是否快乐、愤怒或悲伤 , 或者是否在关注我们 。根据去年发表在《心理科学》(Psychological Science)杂志上的一篇论文 , Alais 的小组设计了一个感官适应实验 , 并表明了我们确实用与加工真实面孔大致相同的方式来加工面孔空想性错视 。
为什么我们总能把不是人的东西看成脸

文章插图
不过 , 这项最新研究的样本量很小 , 只有 17 名大学生 。他们在实验前完成了 8 张真实人脸和 8 张错视图像的练习(这些数据并没有被记录) 。正式实验则使用了 40 张真实人脸和 40 张错视图像 , 图像的表情分为从愤怒到快乐的四个不同级别:高度愤怒、轻度愤怒、轻度快乐和高度快乐 。在实验过程中 , 每张图像被短暂地呈现在受试者面前 , 他们需要在愤怒/快乐的评分表上对图像中表达的情绪进行评分 。
第一个实验测试了序列效应(serial effect) 。受试者完成了一个包含 320 次测试的试验 , 其中每张图像会随机显示 8 次 。其中一半的受试者先完成了真实面孔的部分 , 然后再进行评测错视图像的部分 。另一半的受试者则顺序相反 。第二个实验类似于第一个实验 , 但真实面孔和错视图像会被随机地分配到每次测试中 。每个受试者需要对一个给定的图像评 8 次分 , 然后再算出平均值作为对该图像情绪表达的平均估计 。
Alais 告诉《卫报》:“我们发现 , 实际上这些错视图像的加工机制和我们平时加工真实脸部情感的机制是相同的 。你在某种程度上无法完全关闭脸部反应和情感反应 , 将其完全视为一个物体 。它可以同时是一个物体和一张脸 。”
具体来说 , 实验结果显示 , 受试者可以准确地对错视图像的面部表情进行评分 。受试者还表现出与 Tinder 用户或画廊顾客一样的序列依赖性偏差 。也就是说 , 物体中快乐或愤怒的错视脸会被认为与之前出现的表情更相似 。而在第二个实验中 , 当真实面孔和错视图像混合在一起时 , 若错视图像先于真实人脸展示给受试者 , 这种序列依赖性更加明显 。Alais 等人总结道 , 这表明两者之间有一个共同的潜在机制 , 意味着 “表情的处理并不与人类的面部特征紧密绑定” 。
【为什么我们总能把不是人的东西看成脸】Alais 表示:“这种‘交错’条件很重要 , 因为它表明 , 一个人无论看到的图像是人还是物 , 这都涉及相同的面部认知过程 。这意味着 , 在云中看到人脸不仅仅是孩子的幻想;当物体不管怎么看都像一张脸时 , 这也不仅仅只是一种演绎 , 因为这些物体真的在驱动大脑的面部识别网络 。而看到皱眉或微笑正是表明大脑的面部表情系统在工作 。因为对大脑来说 , 不管是真的还是假的 , 面孔都是以相同的方式被加工的 。”

    推荐阅读