共计 786 个字符,预计需要花费 2 分钟才能阅读完成。
如果你在过去的一周里上过社交媒体,你可能会看到它们。谷歌的新人工智能搜索摘要的截图迅速走红,主要是因为谷歌据称会给出一些荒唐的建议,比如把胶水加到比萨上、用汽油煮意大利面,或者建议你吃石头以达到最佳健康状态。这些截图引发了公众对谷歌人工智能搜索摘要功能的广泛关注和讨论。
这只是个开始。
还有其他一些特别严重的例子也迅速走红,似乎是这个人工智能功能建议使用漂白剂和醋来清洗洗衣机,这会产生潜在致命的氯气;或者在回答“我感到沮丧”的问题时建议跳下金门大桥。这些例子进一步加剧了人们对谷歌人工智能搜索摘要功能的担忧。
那么发生了什么,为什么谷歌的人工智能摘要会推荐这些东西呢?
谷歌表示,首先,“大部分走红的内容都是假的”。许多截图只是虚假的:“其中一些虚假的结果显而易见且愚蠢,其他的则暗示我们在跟留狗在车里、怀孕时吸烟和抑郁等话题相关的阅读结果是危险的。”谷歌表示,这些 AI 摘要从未出现过。
其次,许多截图来自于想要获取愚蠢搜索结果的人——比如关于吃石头的结果。“在这些截图走红之前,谷歌说,“几乎没有人向谷歌提出这个问题。”如果没有人在搜索某个话题,这可能意味着关于它的信息并不多,即数据空白。在这种情况下,只有像讽刺内容那样的被 AI 视为准确的内容。
谷歌承认确实会出现一些奇怪或不准确的结果。即使这些结果是关于不寻常的问题的,但它们还是揭示了一些需要改进的地方。该公司能够确定出了一些问题,进行了十几项技术改进,包括:
- 更好地检测那些不应该显示 AI 摘要的荒谬查询,并限制幽默内容和讽刺内容的使用
- 在回答中限制用户生成的内容,这些内容可能提供误导性的建议
- 对于 AI 摘要无法提供帮助的查询,采取触发限制
- 不在新闻话题和大多数健康话题上显示 AI 摘要,因为新鲜度和准确性很重要
每天有数十亿个查询进入谷歌,谷歌表示,有时会发生奇怪的事情。该公司表示正在从错误中学习,并承诺继续努力加强 AI 摘要功能。