在上一篇文章中 如何用 30秒和 5 行代码写个 RAG 应用?,我们介绍了如何利用 LlamaIndex 结合 Ollama 的本地大模型和在 Hugging Face 开源的 embedding 模型用几行 Python 代码轻松构建一个 RAG 应用。
在本实践指南中,我们将探索如何创建由 LLamA2 和 LLamAIndex 提供支持的复杂问答助手,利用最先进的语言模型和索引框架轻松浏览 PDF 文档的海洋。使用 Hugging Face 的 LLamA2 模型开发 RAG 系统。
LlamaIndex 允许您通过灵活的数据连接器从 API、数据库、PDF 等中提取数据。无论您是寻找一种以自然语言查询数据的简单方法的初学者,还是需要深度自定义的高级用户,LlamaIndex 都能提供这些工具。
React Agent 是指 LLM 对问题自行推理并调用外部工具解决问题,如下图所示,通过一些推理步骤最终找到想要的答案。LlamaIndex 提供了实现 React Agent 的框架,通过框架可以轻松的实现上图中的步骤。