在大数据与算法主导的时代,我们常以为自己接收的信息客观公正,做的决策理智无误。但《偏见的本质》这本社会心理学经典,会无情打破这种幻想,揭示隐藏在算法和日常行为中的 “隐形偏见” 。
书中指出,偏见是人类认知结构和社会组织形态的必然产物 。从认知层面看,人类大脑为了高效处理海量信息,会不自觉地对事物进行分类、贴标签 。这在大数据算法里体现得淋漓尽致 。图像识别系统中,算法可能习惯性给图像人物打上 “农民”“流浪汉” 等标签,却常与事实不符 。国外部分图像识别系统甚至把黑人识别为 “大猩猩”,聊天机器人会输出种族、性别歧视语言,社交媒体给男性推送高薪招聘多于女性,对女性简历权重降级 。这些看似客观的算法,实则映射出社会文化中惯有的偏见 。
因为算法的数据集和训练集依赖海量数据,而这些数据本身就带有偏见 。就拿众包劳动力为图像分类打标签来说,亚马逊公司人工数字服务平台上,远程工作者在给图片分类时,会无意识带入自身偏见,这些偏见被算法继承,便产生了 “算法偏见” 。
日常行为中的隐形偏见同样普遍 。生活里,我们可能因一个人的穿着、口音,就对其性格、职业、能力妄下判断 。看到穿着朴素、操着外地口音的人,下意识觉得对方没文化、收入低;遇到穿着时尚、打扮精致的人,就默认其生活优渥、能力出众 。这种基于刻板印象的判断,往往忽略了个体差异,也是一种隐形偏见 。
《偏见的本质》还提到,偏见不仅是个人认知偏差,社会结构也在其中推波助澜 。在资源竞争激烈、社会阶层差异大的环境下,群体间更容易滋生偏见 。例如不同行业从业者,因资源分配不均,可能互相瞧不上,觉得对方工作轻松、收入不合理 。
认识到隐形偏见的存在,是改变的第一步 。我们要警惕大数据算法带来的信息茧房,主动拓宽信息渠道,接触多元观点,避免思维固化 。在日常生活中,学会换位思考,克服刻板印象,不以偏概全 。《偏见的本质》犹如一面镜子,照出我们习以为常却又危害重重的隐形偏见,提醒我们,追求公平公正,需从打破这些偏见开始 。