检索增强生成(RAG):企业AI的新前沿

87次阅读
没有评论

共计 2946 个字符,预计需要花费 8 分钟才能阅读完成。

在生成式人工智能(Gen AI)快速发展的背景下,大型语言模型(LLMs)如 OpenAI 的 GPT-4、Google 的 Gemma、Meta 的 LLaMA 3、Mistral.AI、Falcon 等 AI 工具正成为不可或缺的商业资产。

检索增强生成(RAG):企业 AI 的新前沿

该领域最令人期待的进展之一是检索增强生成(RAG)。但 RAG 究竟是什么,如何将其与企业文档和知识整合?

什么是 RAG?

RAG 是一种结合了生成式 AI LLMs 与信息检索技术的方法。本质上,RAG 使 LLMs 能够访问存储在数据库、文档和其他信息库中的外部知识,从而增强其生成准确且上下文相关响应的能力。

ABBYY 的 AI 战略高级总监 Maxime Vermeir 解释道:“RAG 使你能够将向量存储与 LLM 本身结合。这种结合使 LLM 不仅基于其预先存在的知识进行推理,还能基于通过特定提示提供的实际知识进行推理。这一过程产生了更准确且上下文相关的答案。”

为什么 RAG 对您的组织重要?

传统的 LLMs 在庞大的数据集上进行训练,通常称为“世界知识”。然而,这种通用训练数据并不总是适用于特定的商业环境。例如,如果您的业务处于一个利基行业,内部文档和专有知识远比泛化信息更有价值。

Maxime 指出:“在为您的业务创建 LLM,特别是旨在提升客户体验的 LLM 时,模型对特定业务环境的深入了解至关重要。这就是 RAG 发挥作用的地方,因为它使 LLM 能够访问并基于真正与您的组织相关的知识进行推理,从而生成准确且高度相关的响应,满足您的业务需求。”

通过将 RAG 整合到您的 AI 战略中,您确保您的 LLM 不仅是一个通用工具,而是一个理解您业务运营、产品和服务的专业助手。

RAG 如何与向量数据库协同工作

RAG 的核心是向量数据库的概念。向量数据库以向量的形式存储数据,这些向量是数值数据的表示。这些向量通过嵌入过程创建,其中数据块(例如文档中的文本)被转换为 LLM 能够理解和检索的数学表示。

Maxime 进一步解释:“使用向量数据库首先需要摄取和结构化您的数据。这涉及将结构化数据、文档和其他信息转换为数值嵌入。这些嵌入表示数据,使 LLM 在处理查询时能够准确检索相关信息。”

将 RAG 整合到您组织的实际步骤

  • 评估您的数据环境:评估您的组织生成和存储的文档和数据。识别对您的业务运营最关键的知识来源。
  • 选择合适的工具:根据您现有的基础设施,您可以选择 AWS、Google、Azure 或 Oracle 等提供商提供的基于云的 RAG 解决方案。或者,您可以探索允许更多定制化实施的开源工具和框架。
  • 数据准备和结构化:在将数据输入向量数据库之前,确保其格式正确且结构化。这可能涉及将 PDF、图像和其他非结构化数据转换为易于嵌入的格式。
  • 实施向量数据库:设置向量数据库以存储数据的嵌入表示。该数据库将成为您的 RAG 系统的支柱,实现高效且准确的信息检索。
  • 与 LLMs 集成:将您的向量数据库连接到支持 RAG 的 LLM。根据您的安全性和性能要求,这可以是基于云的 LLM 服务或本地解决方案。
  • 测试和优化:一旦您的 RAG 系统就位,进行彻底测试以确保其满足您的业务需求。监控性能、准确性和任何幻觉的发生,并根据需要进行调整。
  • 持续学习和改进:RAG 系统是动态的,应随着您的业务发展不断更新。定期使用新数据更新您的向量数据库,并重新训练您的 LLM,以确保其保持相关性和有效性。

使用开源工具实施 RAG

多个开源工具可以帮助您在组织内有效实施 RAG:

  • LangChain 是一个多功能工具,通过将检索步骤集成到对话模型中来增强 LLMs。LangChain 支持从数据库和文档集合中动态检索信息,使 LLM 响应更准确且上下文相关。
  • LlamaIndex 是一个高级工具包,允许开发人员从各种数据源查询和检索信息,使 LLMs 能够有效访问、理解和综合信息。LlamaIndex 支持复杂查询,并与其他 AI 组件无缝集成。
  • Haystack 是一个全面的框架,用于构建可定制、生产就绪的 RAG 应用程序。Haystack 将模型、向量数据库和文件转换器连接到可以与您的数据交互的管道中,支持问答、语义搜索和对话代理等用例。
  • Verba 是一个开源 RAG 聊天机器人,简化了数据集的探索和洞察提取。它支持本地部署,并与 OpenAI、Cohere 和 HuggingFace 等 LLM 提供商集成。
  • Phoenix 专注于 AI 的可观察性和评估。它提供 LLM Traces 等工具,用于理解和排除 LLM 应用程序的故障,以及 LLM Evals 用于评估应用程序的相关性和毒性。
  • Nvidia 提供了一系列支持 RAG 实施的工具,包括用于构建和微调 AI 模型的 NeMo 框架和用于为对话 AI 系统添加可编程控制的 NeMo Guardrails。

使用主要云提供商实施 RAG

超大规模云提供商提供了多种工具和服务,使企业能够高效开发、部署和扩展 RAG 系统。

Amazon Web Services (AWS)

  • Amazon Bedrock 是一个完全托管的服务,提供高性能的基础模型(FMs),具备构建生成式 AI 应用程序的能力。
  • Amazon Kendra 是一个企业搜索服务,提供优化的 Retrieve API,通过高精度的搜索结果增强 RAG 工作流程。
  • Amazon SageMaker JumpStart 提供了一个机器学习(ML)中心,提供预构建的 ML 解决方案和基础模型,加速 RAG 的实施。

Google Cloud

  • Vertex AI Vector Search 是一个专为存储和检索向量而设计的工具,能够在高容量和低延迟的情况下实现实时数据检索,为 RAG 系统提供支持。
  • Cloud SQL 和 AlloyDB 中的 pgvector 扩展为数据库添加了向量查询功能,通过更快的性能和更大的向量尺寸增强生成式 AI 应用程序。
  • Vertex AI 上的 LangChain 支持使用 LangChain 增强 RAG 系统,结合实时数据检索和丰富的 LLM 提示。

Microsoft Azure

  • Azure Machine Learning with RAG(预览版)通过 Azure OpenAI Service、FAISS(向量)索引查找和 Azure AI Search,以及用于数据分块、向量存储和无缝集成到 MLOps 工作流程的工具,实现轻松实施。

Oracle Cloud Infrastructure (OCI)

  • OCI Generative AI Agents 提供 RAG 作为托管服务,与 OpenSearch 作为知识库存储库集成。对于更定制化的 RAG 解决方案,Oracle 的向量数据库(可在 Oracle Database 23c 中使用)可以与 Python 和 Cohere 的文本嵌入模型结合,构建和查询知识库。

使用 RAG 时的挑战

通过 RAG 将 AI 与业务知识整合提供了巨大的潜力,但也带来了挑战。成功实施 RAG 不仅需要部署正确的工具,还需要对数据有深入的理解、仔细的准备和周到的基础设施整合。

一个主要挑战是“垃圾进,垃圾出”的风险。如果输入向量数据库的数据结构不良或过时,AI 的输出将反映这些弱点,导致不准确或不相关的结果。此外,管理和维护向量数据库和 LLMs 可能会给 IT 资源带来压力,尤其是在缺乏专门的 AI 和数据科学专业知识的组织中。

总的来说,RAG 为企业提供了一个强大的工具,能够显著提升 AI 系统的准确性和相关性。随着技术的不断进步,RAG 有望成为企业 AI 战略中的核心组成部分。

正文完
 0
admin-gah
版权声明:本文于2024-11-16转载自Zdnet,共计2946字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码