偏见,这关乎性别、年龄、种族与社会阶层。如果我们要扫除通向平等的障碍,就必须直面我们固有的以及系统性的偏见。

—— 梅琳达·盖茨

(本文根据2019的“目标守卫者”大会“正视偏见”论坛的嘉宾发言编译整理而来)


上世纪50年代,波士顿交响乐团100多人的团队中,只有一个女性。团长意识到面试时可能存在性别偏见。于是他推行了盲测:让应聘的音乐家藏在帘后演奏,结果中选的多数仍是男性。有人借此认为这表明“他们”确实比“她们”技高一筹。然而,有人很快意识到这个盲测依然有问题:评委听得见高跟鞋的声音,他们在潜意识中就在辨认性别,并自带了性别偏见。后来的解决办法就是在屋里铺上地毯或让大家都脱鞋演奏,这种误差就消失了。到今天,波士顿交响乐团里女性音乐家的比例已经占到了46%。这个故事说明,偏见根深蒂固,可能在潜意识中就会影响我们的判断和决策。

 梅琳达·盖茨:正视偏见 

偏见影响着我们生活中的方方面面。最近我读到一则新闻,一位肯尼亚女议员因为将孩子带到议会而遭到了驱逐;在科技行业,获得风险投资的每100家创业公司中,只有3家由女性掌舵;黑人女性和拉丁裔女性加起来只占到了硅谷科技公司全部职位的4%。偏见正以某种方式影响着每个人的生活。我们要么是偏见的受害者,要么就自带着某种偏见伤害了别人。我们如何才能开始就这个大胆而艰难的话题展开一场富有成效的讨论?我们又如何找到解决问题的方案?

首先,需要对“偏见”进行区分。有一类偏见非常显而易见,比如种族偏见和性别偏见。在某些国家和地区,女童仍然无法正常接受教育,无法拥有基本的银行帐户,甚至无权驾驶汽车等等;而另一种偏见,则是像刚才波士顿交响乐团的故事所呈现的那样,是广泛存在而无意识的偏见。从有意识到无意识,从“善意”到恶意,将偏见分类,认识到不同偏见的性质,是我们认识偏见的途径之一。

而我最近一直在思考另一种认识偏见的方式。我曾接受过程序员培训,对“源代码”有很多思考,这是我们操作软件所使用的语言。源代码就是一个对我们非常有启发的隐喻,偏见就是无意间被编码的东西。我们的组织机构、各个行业、政府、社区,都在按照代代相传的规范和协议在运作。我们就生在这些代码和协议的包围之中,当你开始研究它们,就能发现偏见已经以各种形式嵌入到了生活中的每个细枝末节。

因此,回头再看看我刚刚提到的关于科技行业的那两个性别失衡的统计数据,是什么造就了这个局面?其中一个原因可以追溯到1960年代的科技公司,当时他们以一种称为Canon Perry测试的方式面试程序员,这是一种测试新员工是否合适并找到最佳程序员的方法。两位心理学家 —— 凯里和佩里(Carry and Perry)设计了这个测试办法。他们对1400位程序员的简历进行了评估,可问题在于,这1400个样本中,只有186个是女性。从最开始,这个领域对人的筛选就是性别失衡的。

让我们再看看另一个古老的行业 —— 农业。几年前,与我们合作的一个非营利组织提出了向莫桑比克的小农场捐赠母牛的计划。后来他们注意到,尽管付出了极大努力,这些母牛却一直病怏怏的。进行调查时,他们发现问题在于:在莫桑比克,真正在家照顾牲畜的是女性,但这个组织在捐赠时只要求每家来一个人领牛,并同时在现场培训。来领牛的几乎总是所谓的“一家之主” —— 男性,导致真正照顾牛的女性根本没有机会接受培训。所以这里有个重要的教训:在一个男性占支配地位的领域,即使没有有意识的性别歧视,但如果我们忽视了潜藏的一些传统和性别问题,问题就会一直存在。

可见,这个世界的许多领域都存在着被“设计”出来的偏见。这个问题令人胆寒,但我不得不说,它也让我充满希望。因为如果这些偏见是被人为“设计”出来的,那我们就有了再设计和改变它的希望 —— 我们可以“编辑”这个代码。当然,这并不总是像一个组织改变培训方式和对象那么简单,也不像科技行业改变或放弃旧的能力测试方法那样直截了当。很多习惯行为已经扎了根。在某些地方,偏见被错综复杂地嵌入了整个社会体系,很难根除。它们在一代代的人之间,以习俗和传统的方式顽固地流传了下来。

过去的几年,我们的基金会一直试图去了解人和机构都在如何对抗偏见,因为这是一项为我们消除各个领域的不平等所必需的基础工作。尽管花了很多力气,仍没有找到许多问题的答案。但我们正为此努力,我们也确实知道答案将来自何处 —— 对各种故事的认真倾听,并且让我们勇敢地审视自己的内心,评估偏见,然后努力做出改变。纵然它根深蒂固,但我认为解决偏见问题就应该从现在开始,从这里开始,从进行勇敢的对话开始。

 詹妮弗博士:有大脑,就会有偏见 

 ——关键是我们对此做了什么 

人天生会对本民族、本文化的人抱有更强的认同感和亲近感,对越陌生的人和事就会感到越危险。我们甚至很难区分不同种族人的脸孔。其实,我们大多数人只是缺乏与其他种族的人接触的经验。但这不仅仅事关我们身处的环境,“种族效应”实际上跟我们的大脑感知区域有关:对人脸的识别能力是我们人类至关重要的能力之一。

位于大脑靠后底部的大脑的“纺锤状人脸识别区”(fusiform face area ,FFA)能帮助我们区分人,区分熟悉和不熟悉的朋友或是敌人。在过去的几年里,我们的团队发现了这样一个有趣的联系:当人们看到自己种族的人时,FFA区域的神经元就会变得更活跃;而看到其他种族的面孔,相关的神经元就相对比较“冷静”。所以我们的感知,实际上是由我们的神经元和周围的情况所建立的一种连接。我们会自觉地将我们熟悉、喜欢的以及陌生与讨厌的东西进行归类,同时在后来的经历中不断强化这些感觉,并由此形成我们的观念、信念,乃至“刻板印象” —— 这就是“无意识偏见”形成的过程,就像那个波士顿乐团的故事表现的那样。

这样的案例还有很多。比如,提到“警官”,我们的脑海中自然就会浮现出一个男性形象。后来当我们每一次看到某个男警官的照片时,都会在脑海中加深男性应该成为警官的观念。而当我们的刻板印象以这种简单微妙的方式不断被强化时,人的表现就会受到潜移默化的影响。

举个例子,现在假设有个名叫乔伊的亚裔女孩,她正准备参加一场很难的数学测试。而在测试开始之前,她被刻意提醒了其女孩子的性别身份,结果她的成绩就会比正常情况下低很多。有趣的是,当乔伊被着重提醒了其亚裔身份时,同样的考试,她的成绩却比正常状态下好很多,偏见带来的影响由此可见一斑。

同样的,当提到总统、律师或是银行家的时候,你的脑海中会浮现男性还是女性的形象?说到做饭呢?那个做饭的人,TA是什么性别,什么肤色?—— 人们常说眼见为实,反过来,我们其实更容易选择性地“看见”我们所相信的。

人的一生中,这些大脑中被不断强化的“连接”,会成为我们内在的一部分,这些当然对我们接受和处理庞杂的信息有很大的帮助,可以帮我们节约处理信息的精力和时间,给信息进行排序和分类,给我们混乱的世界带来安全感和连贯性。但与此同时,这也给我们带来了偏见。一言以蔽之:有大脑,就会有偏见。

如果不加以识别和抑制,偏见就会束缚我们的眼光和观念。有意和无意的偏见都会给他人,给我们共享的这个世界带来伤害。

“解码”偏见,创造一个更公平的世界 

关于“偏见”的讨论,这对我们所有人都是一个强有力的提醒,不是吗? 偏见是人性的一部分,而问题的关键在于,我们将如何对待偏见,我们会为此做些什么。不加抑制的偏见不仅会在大脑中扎根,还会在我们设计和制造的几乎所有产品里嵌入偏见的代码。比如我们之前在《看不见的女性》中提到的诸多产品设计的案例:无法准确识别女性声音的语音识别软件;按一个“普通男性”的身材数据做的汽车安全设计;药物反应测试中女性数据的缺失;没有考虑到女性特殊需求的厕所等等。

还有,这两天正是2019诺贝尔奖各个奖项依次揭晓的时间。据统计,截至2018年,诺贝尔奖共授予了853名男性,而只授予了51名女性 (其中居里夫人获奖两次)和24个组织。在对抗贫困,获得教育等等问题上,女性不成比例地成为遭遇不公的一方。性别平等,这个问题没有简单的答案,但所有这些被“默认”的偏见和问题,都会带来真实的后果和影响。

如果要消除各个领域的不平等,必要的一步就是对我们自身都会有的以及整个社会体系中广泛存在、潜藏的偏见“代码”保持清醒的认知与反思,并一一找到“解码”或改变这些代码的方案。这也是我们要守卫的目标之一,是实现一个更健康、更公平的世界的必经之路。


文章来源 | 盖茨基金会

图片来源 | 盖茨基金会

网站编辑 | 卢玢妤