一项来自哥伦比亚新闻评论 Tow 数字新闻中心的最新研究显示,尽管 AI 驱动的搜索引擎承诺将彻底改变我们获取信息的方式,但在正确引用新闻来源方面存在严重问题。这项研究发现,生成式 AI 搜索工具不仅会虚构引用,还会削弱原创内容发布者的流量——这对新闻业和公众对新闻的信任度带来严重影响。
📝 研究背景
研究员 Klaudia Jazwińska 和 Aisvarya Chandrasekar 联合撰写的 CJR 文章于 3 月初发表,阐述了他们的研究见解。为了公平评估 8 个大语言模型,他们将来自 20 家出版商的 10 个文章片段分别输入每个 AI 搜索模型。随后,他们手动评估了全部 1600 个查询结果,以评估每个大语言模型搜索在以下方面的表现:
正确命名文章发布者
识别摘录片段所属的正确文章
准确引用文章 URL
📊 结果分析
根据各种可能结果的组合,使用评分标准对每个结果进行评分。结果显示,Perplexity 和 Perplexity Pro 返回的结果最为准确,而两个 Grok 模型和 Gemini 似乎难以返回正确答案。生成的可视化图表显示了更多的红色和粉色,而不是绿色色调——显示出令人困惑的不准确倾向。
🤖 AI 搜索引擎越自信越不准确
最令人惊讶的发现之一是,这些被评估的 AI 搜索工具宁愿产生虚假结果,也不愿承认它们无法找到正确信息。研究人员解释说:“聊天机器人通常不善于拒绝回答它们无法准确回答的问题,而是提供不正确或推测性的答案。生成式搜索工具经常捏造链接,并引用文章的联合发布版本和复制版本。”
更令人震惊的是,付费版本的 AI 聊天机器人表现比免费版本更差。研究人员指出:“付费聊天机器人提供的错误答案比它们的免费版本更加自信。”这让人质疑付费服务是否真的能提供更高的准确性和可信度。
🔗 虚构链接和缺乏透明度
除了单纯的事实错误之外,生成式 AI 搜索工具在引用方面也存在问题。研究发现,这些服务经常虚构链接或引用文章的发布副本,而不是直接链接到原始来源页面。这种做法不仅模糊了信息的来源,还减少了原始发布者的流量。随着时间推移,页面流量的减少可能会影响独特页面浏览量、订阅者注册、广告收入和出版物相关性。
研究还强调了所有 AI 搜索引擎存在的一个令人担忧的趋势——普遍缺乏对用于生成响应的内容的透明度。没有任何聊天机器人明确表示它们能否访问某些内容来回答问题;它们都营造出可信度的假象,即使它们的答案是不准确的。
📞 寻求 AI 搜索提供商的答案
鉴于这些发现的关键性,研究人员试图联系研究中涉及的 AI 搜索工具背后的公司。然而,回应寥寥无几。“我们联系了报告中提到的所有 AI 公司。只有 OpenAI 和 Microsoft 做出了回应,虽然他们确认了我们的询问,但都没有针对我们提出的具体发现或关切做出回应。”
🌟 总结
这些问题不仅仅停留在学术层面——它们对新闻业和公众获取可靠信息造成实际影响。AI 生成的摘要剥离了关键背景,同时未能对作者和发布者给予适当的信誉。这可能直接影响依赖网络流量获取收入的新闻机构。如果用户无法验证来源,或者 AI 搜索引擎歪曲信息,虚假信息就更难以对抗。
🌟 【省心锐评】
当AI把'不确定'伪装成'绝对正确',技术便利就成了信任毒药。拯救搜索,先从教会AI说'我不知道'开始。
评论