「偏見機器」:谷歌如何告訴你想聽的話
“我们完全听任谷歌的摆布。”美国尚未决定的选民转向谷歌时,可能会看到截然不同的世界观——即使他们在问同一个问题。
输入“卡玛拉·哈里斯是一个好的民主党候选人吗”,谷歌描绘出一幅美好的画面。搜索结果不断变化,但上周,第一个链接是皮尤研究中心的一项民意调查,显示“哈里斯激励了民主党人”。接下来是一篇美联社的文章,标题为“大多数民主党人认为卡玛拉·哈里斯会是一个好的总统”,随后链接也类似。但如果你听到关于哈里斯的负面消息,你可能会问她是否是一个“糟糕”的民主党候选人。从根本上说,这是一个相同的问题,但谷歌的结果要悲观得多。
“很容易忘记卡玛拉·哈里斯有多糟糕,”《理由杂志》中排名第一的一篇文章指出。然后《美国新闻与世界报道》对哈里斯的看法进行了积极的渲染,认为她并不是“对美国来说可能发生的最糟糕的事情”,但后面的结果都持批评态度。来自半岛电视台的一篇文章解释了“我为什么不投票给卡玛拉·哈里斯”,接着是一条关于她为什么不好的无休止的Reddit讨论串。
关于唐纳德·特朗普、阴谋论、争议政治辩论甚至医疗信息,你也可以看到同样的二分法。一些专家认为,谷歌只是在重复你自己的信念。它可能会加剧你自己的偏见,并加深社会的分歧。
“在我们能够找到的信息方面,我们完全听任谷歌的摆布,”南佛罗里达大学的信息系统助理教授瓦罗尔·凯汉说。
“谷歌的整个使命是为人们提供他们想要的信息,但有时候人们认为他们想要的信息实际上并不是最有用的,”龙测的数字营销总监莎拉·普雷施说,该平台帮助公司调整其网站,以通过所谓的“搜索引擎优化”或SEO方法获得更好的谷歌识别。
这是一项需要仔细梳理谷歌结果的工作,几年前,普雷施注意到一个问题。“我开始关注谷歌如何处理激烈辩论的话题,”她说。“在很多情况下,结果令人震惊。”
一些最明显的例子涉及谷歌如何处理某些健康问题。谷歌经常从网络中提取信息,并将其显示在结果顶部,以提供快速答案,这被称为“特色摘要”。普雷施搜索了“咖啡与高血压之间的联系”。特色摘要引用了梅奥诊所的一篇文章,强调“咖啡因可能会导致你的血压短暂而剧烈地上升。”但当她查找“咖啡与高血压之间没有联系”时,特色摘要引用了来自同一梅奥诊所文章的相反句子:“咖啡因对血压没有长期影响,也与高血压风险增加无关。”
当普雷施搜索“糖导致ADHD吗”和“糖不会导致ADHD”时,情况也是如此。谷歌从同一篇文章中提取了支持问题双方观点的特色摘要。(实际上,几乎没有证据表明糖会影响ADHD的症状,确实不会导致该疾病。)
她在政治问题上也遇到了同样的问题。问“英国税制公平吗”,谷歌引用保守党MP奈杰尔·哈德尔斯顿的评论,称事实确实如此。问“英国税制不公平吗”,谷歌的特色摘要解释了英国产生的税收如何使富人受益,从而促进不平等。
“谷歌所做的就是,他们根据人们的搜索内容提取文本片段,并向他们提供所需的阅读材料,”普雷施说。“这就是一个巨大的偏见机器。”
谷歌表示,它为用户提供无偏见的结果,仅仅是将人们与他们所寻找的信息相匹配。“作为一个搜索引擎,谷歌旨在展示与您输入的查询相关的高质量结果,”谷歌发言人说。“我们提供对网络上各种观点的开放访问,并为人们提供有用的工具,以评估他们找到的信息和来源。”
根据一个估计,谷歌每秒处理大约630万个查询,总计每天超过90亿次搜索。绝大多数互联网流量始于谷歌搜索,人们很少点击前五个链接以外的内容——更不用说进入第二页。一项追踪用户眼动的研究发现,人们通常甚至不会查看排名靠后的结果。谷歌搜索上链接排序的系统对我们体验世界的方式具有巨大的影响力。
根据谷歌的说法,该公司在处理这种责任方面做得很好。“独立的学术研究驳斥了谷歌搜索正在将人们推入过滤气泡的观点,”发言人说。
所谓“过滤气泡”和互联网上的“回声室”的问题是一个热门话题,尽管一些研究质疑在线回声室的效果是否被夸大。
但凯汉——一位研究搜索引擎如何影响确认偏见、即寻求证实自己信念的信息的自然冲动的学者——表示毫无疑问,我们的信念甚至我们自己的政治身份受到了控制我们在线所见的系统的影响。“我们受到信息获取方式的剧烈影响,”他说。
谷歌的发言人表示,一项2023年的研究得出的结论是,人们接触到党派新闻更多是因为他们点击了这些内容,而不是谷歌最初提供了党派新闻。从某种意义上说,这就是确认偏见的运作方式:人们寻找支持自己观点的证据,忽略挑战他们的证据。但是即使在那项研究中,研究人员表示,他们的发现并不意味着谷歌的算法没有问题。“在某些情况下,我们的参与者在谷歌搜索上接触到高度党派和不可靠的新闻,”研究人员说,“并且以往的研究表明,即使是有限次数的此类曝光也会产生重大负面影响。”
然而,你可能选择接触使你陷入过滤气泡的信息,“但你的选择范围总是有限的”,德国柏林工业大学的媒体传播学教授西尔维娅·克诺布洛赫-韦斯特维克说。“算法在这个问题中起着重要作用。”
谷歌没有回应BBC关于是否有专门的人或团队负责解决确认偏见问题的提问。
“在我看来,这整个问题源于搜索引擎的技术限制,以及人们不理解这些限制是什么,”搜索引擎优化工具AlsoAsked的创始人马克·威廉姆斯-库克说,该工具分析谷歌结果。
最近一桩针对谷歌的美国反垄断案件揭示了内部公司文件,员工讨论了搜索引擎用来回答用户问题的一些技术。“我们不理解文档——我们只是装装样子,”一位工程师在2016年公司展示中使用的幻灯片中写道。“每天亿万次,人们请求我们找到与查询相关的文档……除了一些基本的内容外,我们几乎不查看文档。我们观察人。对文件产生积极反应,我们认为它是好的。如果反应是负面的,那可能是坏的。简言之,这就是谷歌的魔力所在。”
“这就是我们如何为下一个人服务,让推广持续,并维持我们理解的幻觉。”
换句话说,谷歌观察人们在输入特定搜索词时点击什么。当人们似乎对某种类型的信息感到满意时,谷歌更有可能在将来的类似查询中推广这种搜索结果。
谷歌发言人表示,这些文件已经过时,用于解读查询和网页的系统已经变得更加复杂。
“那次演示是在2016年,所以你必须谨慎看待,但其基本概念仍然是正确的。谷歌构建模型以尝试预测人们喜欢什么,但问题是这会产生一种反馈循环,”威廉姆斯-库克说。如果确认偏见促使人们点击强化自己信念的链接,这可能会教会谷歌展示能导致确认偏见的链接。“这就像说你打算让你的孩子根据他们的喜好来选择饮食。他们最终只会吃垃圾食品,”他说。
威廉姆斯-库克也担心,人们可能无法理解当你问“特朗普是一个好的候选人吗”时,谷歌不一定会将其解释为一个问题。相反,它通常只是提取与“特朗普”和“好候选人”等关键词相关的文档。
这让人们对搜索时将要得到的结果产生错误的期望,这可能会促使人们误解搜索结果的含义,他说。
如果用户更清楚搜索引擎的局限性,威廉姆斯-库克认为,他们可能会更批判性地思考所见的内容。“谷歌应该做更多工作来告知公众搜索实际上是如何工作的。但我认为他们不会这样做,因为要做到这一点,你必须承认一些不工作的问题,”他说。(想了解更多关于搜索引擎的内部工作原理,请阅读这篇关于谷歌算法更新如何改变互联网的文章。)
谷歌公开表示,搜索从来不是一个已解决的问题,公司在面临技术挑战时努力不懈地解决这些问题。谷歌还指出,它提供了一些帮助用户评估信息的功能,例如“关于此结果”的工具和当与突发新闻相关的话题结果快速变化时的通知。
谷歌的发言人表示,如果您想查看跨整个互联网来源的多种观点,找到反映各种观点的结果非常简单。他们争辩说,即使在普雷施指出的一些例子中也是如此。像“卡玛拉·哈里斯是一个好的民主党候选人吗”这样的提问,如果您向下滚动,您会发现批评她的链接。“英国税制公平吗”同样适用——你会发现搜索结果说它不公平。关于“咖啡与高血压之间的联系”查询,谷歌的发言人表示,这个问题很复杂,但搜索引擎呈现了深入讨论的权威来源。
当然,这依赖于人们探寻超出前几个结果的内容——在搜索结果页面下去得越远,用户参与链接的可能性就越小。在咖啡相关高血压和英国税制的情况下,谷歌还对结果进行了总结,并用特色摘要显著给出自己的答案——这可能会使用户不太可能在搜索结果中进一步查看其他链接。
长期以来,观察者们描述了谷歌如何从一个搜索引擎过渡到一个“答案引擎”,这一过程中,该公司简单地给出信息,而不是指向外部来源。最明显的例子是人工智能概述的引入,这一功能使谷歌能够直接回答搜索查询,而不是拉取链接作为回应。正如公司所说,您现在可以“让谷歌为您搜索”。
类似的故事:
• 谷歌刚刚更新了其算法。互联网将不再相同
• 开启互联网的失败
•人类能解决但计算机无法解决的谜语
“过去,谷歌向你展示的是别人写的东西,但现在它自己在写答案,”威廉姆斯-库克说。“这加剧了所有这些问题,因为现在谷歌只有一次机会来做对。这是一个困难的转变。”
但即使谷歌具备解决所有这些问题的技术能力,也不一定清楚什么时候或如何干预。你可能想要的信息是支持特定信念的,如果是这样,谷歌通过向你提供它来提供了一项有价值的服务。
许多人对世界上最富有和最强大的公司决定什么是真实感到不安,凯汉说。“这是谷歌的工作去修复这个问题吗?我们能信任谷歌自我修复吗?它是否真的可以修复?这些都是困难的问题,我认为没有人知道答案,”他说。“可以肯定的一点是,我不认为他们做得足够。”
* 托马斯·杰尔曼是BBC的高级技术记者。他在过去近十年中报道了人工智能、隐私和互联网文化的最前沿。你可以在X和TikTok上找到他,账号是@thomasgermain。
--
如果你喜欢这个故事,注册《必读清单》时事通讯——这是精选特写、视频和重要新闻的手工挑选,每周两次送达你的收件箱。
有关BBC的更多科学、技术、环境和健康故事,请在Facebook、X和Instagram上关注我们。