聊天机器人优化游戏:我们能信任人工智能网络搜索吗?

电脑作者 / 花爷 / 2025-04-18 11:10
"
      阿斯巴甜会致癌吗?这种广受欢迎的人工甜味剂的潜在致癌性已经争论了几十年,它被添加到从软饮料到儿童药物的所有东

  

  

  阿斯巴甜会致癌吗?这种广受欢迎的人工甜味剂的潜在致癌性已经争论了几十年,它被添加到从软饮料到儿童药物的所有东西中。1974年,美国对它的批准引发了争议;本世纪初,几家英国超市禁止在产品中添加它;同行评议的学术研究长期以来一直存在争议。去年,世界卫生组织(World Health Organization)得出结论,阿斯巴甜对人类“可能致癌”,而公共卫生监管机构建议,少量食用阿斯巴甜是安全的。

  虽然我们中的许多人可能希望通过快速谷歌搜索来解决这个问题,但这正是那种可能给未来的互联网带来问题的有争议的辩论。随着人工智能聊天机器人在过去几年中迅速发展,科技公司迅速将其宣传为各种工作和服务(包括互联网搜索引擎)的乌托邦式替代品。他们的想法是,人工智能聊天机器人可以为你在互联网上搜索相关信息,为你的问题编写一个简短的答案,而不是在网页列表中滚动查找问题的答案。谷歌(Google)和微软(Microsoft)在这个想法上押下了重注,并已经在谷歌搜索(Google Search)和必应(Bing)中引入了人工智能生成的摘要。

  但这种被标榜为更方便的在线查找信息的方式,引发了人们对这些聊天机器人如何以及在哪里选择它们提供的信息的审查。加州大学伯克利分校(University of California, Berkeley)的三位计算机科学研究人员对大型语言模型(llm,构建聊天机器人的引擎)最具说服力的证据进行了研究,发现目前的聊天机器人过度依赖于信息的表面相关性。他们倾向于优先考虑包含相关技术语言或充满相关关键词的文本,而忽略了我们通常用来评估可信度的其他特征,例如包含科学参考文献或没有个人偏见的客观语言。

  对于最简单的查询,这样的选择标准足以产生令人满意的答案。但在更复杂的辩论中,比如围绕阿斯巴甜的辩论,聊天机器人应该怎么做,就不那么明确了。“我们是想让他们简单地为你总结你的搜索结果,还是想让他们充当迷你研究助理,权衡所有证据,然后给你一个最终答案,”本科生研究员、该研究的合著者亚历山大·万(Alexander Wan)说。后一种选择将提供最大的便利,但使聊天机器人选择信息的标准变得更加重要。如果一个人能以某种方式绕过这些标准,他们能保证聊天机器人将信息呈现在数十亿互联网用户面前吗?

  这个问题困扰着动画企业、内容创作者和其他想要控制自己在网络上的形象的人,并催生了一个新兴的营销机构行业,提供被称为生成引擎优化(GEO)的服务。这个想法是,在线内容可以以这样一种方式编写和呈现,以提高聊天机器人的可见性,从而使其更有可能出现在聊天机器人的输出中。这样做的好处是显而易见的:比如说,如果有人让聊天机器人推荐最好的吸尘器,一家家电制造商可能会希望聊天机器人指着自家的最新款吸尘器,夸夸其谈。

  基本原理类似于搜索引擎优化(SEO),这是一种常见的做法,即网页的构建和编写是为了吸引搜索引擎算法的注意,当你在谷歌或必应上进行搜索时,将它们推到返回结果列表的顶部。GEO和SEO共享一些基本技术,已经针对搜索引擎进行了优化的网站通常有更大的机会出现在聊天机器人的输出中。但那些想要真正提高人工智能可见性的人需要更全面地思考。

  Google AI’s repo<em></em>nse to the question ‘Is aspartame banned in Europe?’

  营销公司Flow Agency的创始人维奥拉?伊娃(Viola Eva)表示:“在人工智能搜索引擎和法学硕士课程中排名,需要在相关的第三方网站(如新闻媒体、列表、论坛和行业出版物)上获得特色和提及。”该公司最近进行了品牌重塑,从搜索引擎优化专业扩展到GEO。“我们通常把这些任务与品牌和公关团队联系在一起。”

  游戏聊天机器人是可能的,但并不简单。虽然在过去的几十年里,网站所有者和内容创造者已经得出了一个不断发展的基本SEO做什么和不做什么的清单,但对于操纵人工智能模型,却没有这样一套明确的规则。“生成引擎优化”这个术语是去年在一篇学术论文中才被创造出来的,该论文的作者得出结论,使用权威语言(不管表达的是什么,也不管信息是否正确)和参考文献(即使是不正确的或与他们被用来引用的内容无关的)可以提高聊天机器人回应的可见性,最高可提高40%。但他们强调,这些发现并不是指令性的,确定控制聊天机器人的确切规则本身就很棘手。

  “这是一场猫捉老鼠的游戏,”新泽西州普林斯顿大学的博士生、该论文的合著者阿米特·德什潘德说。“因为这些生成引擎不是静态的,它们也是黑盒子,我们不知道它们在关起门来使用什么(来选择信息)。它的范围可能从复杂的算法到潜在的人类监督。”

  那么,那些想要更牢固地控制聊天机器人的人,可能不得不探索更多的不正当技术,比如哈佛大学的两位计算机科学研究人员发现的技术。他们已经展示了如何通过部署一些简单的东西来战术控制聊天机器人,比如精心编写的一串文本。这个“策略文本序列”看起来像一串毫无意义的字符——都是随机的字母和标点符号——但实际上是一个微妙的命令,可以强迫聊天机器人产生特定的反应。它不是编程语言的一部分,而是使用一种算法派生出来的,该算法迭代地开发文本序列,鼓励法学硕士忽略他们的安全护栏,并引导他们走向特定的输出。

  例如,将字符串添加到咖啡机的在线产品信息页面,它将增加发现该页面的任何聊天机器人在其响应中输出机器名称的可能性。在整个目录中部署这种技术,可以给精明的零售商——以及那些有足够资源投资于理解棘手的法学硕士架构的零售商——一种简单的方式,将他们的产品推向聊天机器人的答案。与此同时,互联网用户不会知道聊天机器人向他们展示的产品是经过选择的,不是因为它们的质量或受欢迎程度,而是聊天机器人巧妙的操作。

  研究助理和该研究的合著者Aounon Kumar说,法学硕士可以在未来设计为对抗这些战略文本序列,但其他操纵它们的卑鄙方法可能还会被发现。“挑战在于预测和防御不断发展的对抗性技术,”库马尔说。“llm是否能够对所有潜在的未来攻击算法都具有鲁棒性仍然是一个悬而未决的问题。”

  当前的搜索引擎和围绕它们的实践并非没有自己的问题。搜索引擎优化是现代互联网上一些最不利于读者的做法的罪魁祸首:博客大量炮制几乎重复的文章,以瞄准同样的大流量查询;为谷歌的算法而不是读者量身定制的文章。任何在网上查找菜谱的人,如果发现自己在找到配料表之前,都要费力地浏览几段与菜谱无关的背景信息,那么你就会非常清楚,为了搜索引擎算法而优化内容的尝试是如何阻碍了良好的写作实践。

  A computer generated image of abstract AI chat icons over digital surface.

  然而,一个由柔韧的聊天机器人主导的互联网提出了一个更关乎生存的问题。向搜索引擎提问,它会返回一长串网页。大多数用户会从排名靠前的几个网站中挑选,但即使是那些排名靠后的网站也会获得一些流量。相比之下,聊天机器人只会提到4到5个它们从中获取信息的网站作为参考。这让少数被选中的幸运儿成为了众人关注的焦点,而其他没有被选中的网站几乎看不见,导致它们的流量直线下降。

  “这显示了这些系统的脆弱性,”德什潘德说。制作高质量在线内容的创作者会因为被聊天机器人引用而受益匪浅。他说:“但如果是一个不写高质量文章的对抗性内容创作者,并试图玩弄系统,那么大量的流量将流向他们,而0%的流量将流向优秀的内容创作者。”

  阅读更多

  对于读者来说,聊天机器人的反应也只会让他们更容易被操纵。“如果法学硕士对一个问题给出了直接的答案,那么大多数人可能甚至不会去看潜在的来源是什么,”万说。这种想法指向了一个更广泛的担忧,被称为“直接答案的困境”:如果一个人对一个问题只有一个答案,而且没有其他选择可供考虑,他们会努力寻找其他观点来权衡最初的答案吗?可能不会。更有可能的是,他们会接受它并继续前进,对可能围绕它的细微差别、争论和不同观点视而不见。

  莱比锡大学(Leipzig University)智能语言技术系主任、创造该术语的三位计算机科学家之一马丁?波塔斯特(Martin Potthast)表示:“我们相信,直接答案的困境一直存在于生成式搜索中。”“底层检索系统可能只检索指向一个方向的文档,因此生成的答案将只反映该方向。实际上,用户可能会认为这是唯一、最权威的答案。”

  今年早些时候,当谷歌宣布将人工智能生成的摘要整合到其搜索引擎中时,它挥舞着一个大胆的口号:“让谷歌为你做搜索。”这是一个吸引人的想法,利用了我们对便利科技的喜爱,这些科技可以简化我们的生活。然而,如果你是那种想要确保自己获得最公正、准确和有用信息的互联网用户,你可能不希望把搜索工作交给如此易受影响的人工智能。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读