检索增强应用开发

In-Context Learning 让人们可以通过 Prompt 输入,让大语言模型帮我们做很多事情。因此,人们就想出各种办法,把东西放到 Prompt 里,送入大语言模型。比如,把整个一篇论文送入模型,让模型给出总结;又比如,把整个一本书送进模型,让模型按照这本书,教学生。此时,In-Context Learning 的限制,就是我们能够送入模型的 Prompt 的长度了。最近,GPT-4 Turbo 能够支持 120K 的 Prompt 长度,这对送进去一本小书,是足够了。

人们提出利用搜索来增强 Prompt。这篇论文是《Demonstrate-Search-Predict: Composing retrieval and language models for knowledge-intensive NLP》,Khattab et al., 2022。

在调用 LLM API 时,我们除了送入简单的 Prompt,还可以考虑送入本地文档,这就是所谓的 RAG (Retrival Augmented Generation: 检索增强的生成)。因为知识一般是本地存储的,所以这也牵涉到本地知识和远端大语言模型如何合作的问题。Andrej Karpathy 据此提出了 LLM OS 的概念。本地知识作为 Memory,LLM 作为 CPU。

课程材料

练习

LangChain RAG 课程

LangChain 是做 RAG 的一个常用工具

工具

小程序开发

参考


Index Previous Next