本文原创,著作权归 WGrape(https://wgrape.github.io/) 所有,未经授权,严禁转载一. 前言随着GPT模型的问世,大语言模型(LLM)时代已经来临。LLM的出现,使得人工智能在语言处理方面的能力得到了极大的提升。
伴随大语言模型(LLM,Large Language Model)的涌现,人们发现生成式人工智能在非常多领域具有重要意义,如图像生成,书写文稿,信息搜索等。随着 LLM 场景的多样化,大家希望 LLM 能在垂直领域发挥其强大的功能。
LangChain 由前 Robust Intelligence 的机器学习工程师 Chase Harrison 在 22 年 10 月底推出,是一个封装了大量 LLM 应用开发逻辑和工具集成的开源 Python 库,有成为第一个被广泛认可的 LLM 应用开发框架的势头。
本文为笔者学习LangChain时对官方文档以及一系列资料进行一些总结~覆盖对Langchain的核心六大模块的理解与核心使用方法,全文篇幅较长,共计50000+字,可先码住辅助用于学习Langchain。一、Langchain是什么?
上节课,我介绍了如何使用 LangChain 的六大核心概念和组件,构建一个基于语言模型的问答系统。如以上案例所示,上节课复杂的Retriever工具等配置被去除,剩余的链式结构只剩余prompt,llm,outputParser三个部分。
上节课,我我为您介绍了LangChain中最基本的链式结构,以及基于这个链式结构演化出来的ReAct对话链模型。没有看过的小伙伴可以点击链接查看: 「链接」今天我将由简入繁,为大家拆解LangChain内置的多种记忆机制。本教程将详细介绍这些记忆组件的工作原理、特性以及使用方法。
前言前面给大家介绍了一些在线构建聊天机器人和私有化离线部署LLM模型建立知识库的方案,如Quivr结合Supabase、PrivateGPT、ChatGLM 6B等,基本上这些解决方案的背后整体的核心都离不开一个关键技术,就是LangChain。