Page 1 of 1

现实场景中我们面对的知识源可能包括多

Posted: Mon Apr 21, 2025 10:27 am
by sami
此外在实际场景中很多新的信息、数据、政策每时每刻都在产生除非对模型进行高频的微调否则模型的训练速度永远赶不上外部信息更新的速度而高频微调的成本就太高了 在2020 年Meta AI 的研究人员提出了检索增强生成RAG的方法为LLM大模型提供了一种与外部信息高效互动的解决方案。

其主要作用类似于搜索引擎找到用户提问最相关的知识或者是相关的对话历史并结合原始提问创造信息丰富的prompt指导LLM大模型生成更准确的输出。 这就是Rag技术产生的背景和原因。 Rag技术的基本原理 聊聊炙手可热的Rag:产生原因、基本原理与实施路径 RAG可分为5个基本流程:知识文档的准备、嵌入模型、存入向量数据库、查询检索和生产回答。

现实场景中我们面对的知识 苏里南电话号码列表 源可能包括多种格式如Word文档、TXT文件、CSV数据表、Excel表格甚至图片和视频。因此需要使用专门的文档加载器例如PDF提取器或多模态模型如OCR技术将这些丰富的知识源转换为大语言模型可理解的纯文本数据然后开启RAG的五个核心步骤。

第一步文档切片/分块:在企业级应用场景中文档尺寸可能非常大因此需要将长篇文档分割成多个文本块以便更高效地处理和检索信息。分块的方式有很多种比如按段落、按内容或者其他特殊结构。同时需要注意分块的尺寸如果分块太小虽然查询更精准但召回时间更长;如果分块太大则会影响查询精准度。