简介

最近随着chatgpt的兴起,人工智能和大语言模型又再次进入了人们的视野,不同的是这一次像是来真的,各大公司都在拼命投入,希望能在未来的AI赛道上占有一席之地。因为AI需要大规模的算力,尤其是对于大语言模型来说。大规模的算力就意味着需要大量金钱的投入。那么对于小公司或者个人来说是不是什么都做不了呢?

当然不是,虽然小公司或者个人不能开发底层的大语言模型,但是我们可以在大语言模型之上进行应用开发,这应该就是我们现在能做到的。

今天给大家介绍一个大语言模型的开发框架langchain,有了它,在AI的世界,你可以如虎添翼。

什么是langchain

简单来说,langchain是一个基于大语言模型只上的开发框架,有了他,我们就可以轻松在各种大模型之上进行实际应用的开发。

langchain的主要特点有两个,第一点就是组件化。langchain提供了各种封装好的组件供我们使用,大大缩短了我们开发的时间。

第二点就是提供了工具链,可以组装各种组件,从而实现更加复杂的功能。

langchain的安装

废话不多说,我们来看下langchain是如何安装的。

AI时代大家一定要学一下python,至于为什么要学习python呢?因为其他语言都不好使......

langchain实际上是python的一个开发包,所以可以通过pip或者conda两种方式来安装:

pip安装

pip install langchain

conda安装

conda install langchain -c conda-forge

默认情况下上面的安装方式是最简单的安装,还有很多和langchain集成的modules并没有安装进来,如果你希望安装common LLM providers的依赖模块,那么可以通过下面的命令:

pip install langchain[llms]

如果你想安装所有的模块,那么可以使用下面的命令:

pip install langchain[all]

因为langchain是开源软件,所以你也可以通过源代码来安装,下载好源代码之后,通过下面的命令安装即可:

pip install -e .

langchain快速使用

下面我们以几个具体的例子来讲解一下langchain如何使用的。

因为langchain只是一个大语言模型上的开发框架,它的所有的能力都是依赖于大语言模型的,所以在使用langchain之前,我们需要一个大语言模型,最简单同时也是最强大的大语言模型就是openai的chatgpt了。

接下来我们就以接入openai为例子进行讲解。

当然langchain也可以接入其他的大语言模型框架,后面的系列教程中我们会详细讲解。

要使用openai,必须先注册一个openai的账号,然后拿到openai的api key。

具体的注册流程这里就不讲了。大家可以自行参考网络上的各种教程。

有了api key之后,我们需要配置一下环境变量:

export OPENAI_API_KEY="..."

然后安装openai的包:

pip install openai

接下来就可以愉快的使用openai提供的各种功能了。

当然,如果你不想在环境变量中配置openai的key,我们也可以在OpenAI的构造函数中传入openai_api_key:

from langchain.llms import OpenAI

llm = OpenAI(openai_api_key="...")

构建应用

有了上面的准备工作,接下来我们就可以开始使用langchain了。

当然,最最基础的一个应用就是跟大模型交互了,比如跟openai交互,我们可以让openai给我们写首诗:

>>> from langchain.llms import OpenAI
>>> llm = OpenAI(temperature=0.9)
>>> llm.predict("请以古龙的口吻,写首关于春天诗") 春天来了,万物复苏,
终于迎来了一个新的时辰,
草儿花儿抬起头,
喜迎新绿与绚丽的颜色。 山林里,小草发芽,
河畔边,花儿香烈,
这让我们感到心旷神怡,
这真是一个美好的世界。 春天来了,列位朋友,
请喜迎这样一个新时辰,
不要抱怨什么,
享受春的温暖与欣慰。

虽然写出来了,但是我觉得写的一般般吧。

但是这不重要,我们知道了如何通过langchain来调用openai的大模型,这个才是最重要的。

聊天模式

上面我们调用LLM使用用的是"text in, text out"的模型。

虽然聊天模式也是基于LLM,但是他更进了一步,因为他保存了会话的上下问题,所以在对话上更加智能化。

在代码上,传入的就不是文本了,而是message对象。

在langchain中,目前支持下面几种消息类型:AIMessage, HumanMessage, SystemMessage 和 ChatMessage。

在绝大多数情况下,我们只需要用到AIMessage, HumanMessage, SystemMessage即可。

下面是使用的代码例子:

from langchain.chat_models import ChatOpenAI
from langchain.schema import (
AIMessage,
HumanMessage,
SystemMessage
) chat = ChatOpenAI(temperature=0)
chat.predict_messages([HumanMessage(content="请以古龙的口吻,写首关于春天诗")])

那么聊天模式和LLM模式有什么不一样呢?

大家可以看到,聊天模式调用的是predict_messages接口, 而LLM模式调用的是predict接口。

事实上聊天模式底层还是使用的是LLM,为了方便大家的使用,你也可以直接使用chat.predict方法来进行LLM方式的调用,如下所示:

chat.predict("请以古龙的口吻,写首关于春天诗")

Prompt的模板

开发过LLM应用的人都知道,在LLM中Prompt是非常重要的,一个好的Prompt直接决定了这个应用的质量。

但是Prompt肯定需要结合用户的输入和我们自己做的一些限定来结合使用。

这时候就需要用到Prompt的模板功能了。 我们可以在系统中设置好模板,用户只需要填充模板中的特定消息即可。

在LLM模式中,可以使用PromptTemplates,这样来写:

from langchain.prompts import PromptTemplate

prompt = PromptTemplate.from_template("请帮忙我详细描述一下这个物体,这个物体的名字是: {object}?")
prompt.format(object="猫")

最后生成的结果如下:

请帮忙我详细描述一下这个物体,这个物体的名字是: 猫

如果是在chat models中,代码会复杂一点点,但是逻辑实际上是一样的。 在chat models中,需要用到几种MessagePromptTemplate,比如:ChatPromptTemplate,SystemMessagePromptTemplate和HumanMessagePromptTemplate。

我们具体来看下如何使用:

from langchain.prompts.chat import (
ChatPromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
) template = "现在,你的角色是{your_role}, 请根据你的角色回答后续的问题."
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = "{text}"
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template) chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt]) chat_prompt.format_messages(your_role="教师", text="世界上最远的地方是哪里?")

对应的输出如下:

[
SystemMessage(content="现在,你的角色是教师, 请根据你的角色回答后续的问题.", additional_kwargs={}),
HumanMessage(content="世界上最远的地方是哪里?")
]

非常完美。

Chains

langchain还有一个非常有用的功能就是Chains,他可以把多种不同的功能结合起来。

比如上面我们用到了LLM,还用到了Prompt的模板,那么我们可以用Chains把他们结合起来:

from langchain.chains import LLMChain

chain = LLMChain(llm=llm, prompt=prompt)
chain.run("猫")

当然,也可以结合chat使用:

from langchain import LLMChain
from langchain.chat_models import ChatOpenAI
from langchain.prompts.chat import (
ChatPromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
) chat = ChatOpenAI(temperature=0) template = "现在,你的角色是{your_role}, 请根据你的角色回答后续的问题."
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = "{text}"
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt]) chain = LLMChain(llm=chat, prompt=chat_prompt)
chain.run(your_role="教师", text="世界上最远的地方是哪里?")

Agents

什么是agents? 从字面意义上看,Agents就是代理。

事实上langchain中的Agents就是代理的意思。

比如我们现在需要向openai询问昨天的天气,但是openai本身只是一个大模型,它并不知道实时的信息。但是通过agents就可以先进行一次判断,看看这个问题是交给大模型处理合适,还是交给搜索引擎来查询比较合适。

这就是agents的作用。

agents利用LLM来判断需要怎么处理这个任务,并且以什么样的顺序来处理这个任务。

但是使用agents是要有些条件的,首先你这个LLM模型必须支持agent,这样才能进行后续的工作。

其次是需要挑选合适的工具来进行你想要做的事情,比如:Google Search, Database lookup, Python REPL等等。

最后就是需要指定支持的agent的名字,这样LLM才知道到底需要进行哪种action。

下面是一个使用SerpAPI结合openai来进行搜索的例子:

from langchain.agents import AgentType, initialize_agent, load_tools
from langchain.llms import OpenAI # The language model we're going to use to control the agent.
llm = OpenAI(temperature=0) # The tools we'll give the Agent access to. Note that the 'llm-math' tool uses an LLM, so we need to pass that in.
tools = load_tools(["serpapi", "llm-math"], llm=llm) # Finally, let's initialize an agent with the tools, the language model, and the type of agent we want to use.
agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) # Let's test it out!
agent.run("What was the high temperature in SF yesterday in Fahrenheit? What is that number raised to the .023 power?")

agent比较复杂,功能也很强大,后续我们会详细讲解。

Memory

最后要讲解的langchain的一个功能就是Memory。

因为很多时候,我们的应用应该是一个有状态的,也就是说应用需要知道你之前做了什么,这样才可以给用户提供更好的服务。

但是之前我们将的LLM或者chain都是无状态的。

所以langchain提供了一个Memory的功能,可以把之前的输入输出保存起来,方便后续的使用。

总结

有了langchain的各种工具,现在你就可以快速开发一个属于你自己的LLM应用啦。

大语言模型的开发利器langchain的更多相关文章

  1. [.net 面向对象程序设计进阶] (27) 团队开发利器(六)分布式版本控制系统Git——在Visual Studio 2015中使用Git

    [.net 面向对象程序设计进阶] (26) 团队开发利器(六)分布式版本控制系统Git——在Visual Studio 2015中使用Git 本篇导读: 接上两篇,继续Git之旅 分布式版本控制系统 ...

  2. [.net 面向对象程序设计进阶] (26) 团队开发利器(五)分布式版本控制系统Git——图形化Git客户端工具TortoiseGit

    [.net 面向对象程序设计进阶] (26) 团队开发利器(五)分布式版本控制系统Git——图形化Git客户端工具TortoiseGit 读前必备: 接上篇: 分布式版本控制系统Git——使用GitS ...

  3. [.net 面向对象程序设计进阶] (25) 团队开发利器(四)分布式版本控制系统Git——使用GitStack+TortoiseGit 图形界面搭建Git环境

    [.net 面向对象程序设计进阶] (25) 团队开发利器(四)分布式版本控制系统Git——使用GitStack+TortoiseGit 图形界面搭建Git环境 本篇导读: 前面介绍了两款代码管理工具 ...

  4. [.net 面向对象程序设计进阶] (23) 团队开发利器(二)优秀的版本控制工具SVN(上)

    [.net 面向对象程序设计进阶] (23) 团队开发利器(二)优秀的版本控制工具SVN(上) 本篇导读: 上篇介绍了常用的代码管理工具VSS,看了一下评论,很多同学深恶痛绝,有的甚至因为公司使用VS ...

  5. 前端开发利器—FIDDLER 转

    http://www.cnblogs.com/yuzhongwusan/archive/2012/07/20/2601306.html 前端开发利器—FIDDLER 1.Fiddler相对其他调试工具 ...

  6. Red Gate系列之三 SQL Server 开发利器 SQL Prompt 5.3.4.1 Edition T-SQL智能感知分析器 完全破解+使用教程

    原文:Red Gate系列之三 SQL Server 开发利器 SQL Prompt 5.3.4.1 Edition T-SQL智能感知分析器 完全破解+使用教程 Red Gate系列之三 SQL S ...

  7. Android零基础入门第13节:Android Studio配置优化,打造开发利器

    原文:Android零基础入门第13节:Android Studio配置优化,打造开发利器 是不是很多同学已经有烦恼出现了?电脑配置已经很高了,但是每次运行Android程序的时候就很卡,而且每次安装 ...

  8. 使用 LoRA 和 Hugging Face 高效训练大语言模型

    在本文中,我们将展示如何使用 大语言模型低秩适配 (Low-Rank Adaptation of Large Language Models,LoRA) 技术在单 GPU 上微调 110 亿参数的 F ...

  9. pytorch在有限的资源下部署大语言模型(以ChatGLM-6B为例)

    pytorch在有限的资源下部署大语言模型(以ChatGLM-6B为例) Part1知识准备 在PyTorch中加载预训练的模型时,通常的工作流程是这样的: my_model = ModelClass ...

  10. 保姆级教程:用GPU云主机搭建AI大语言模型并用Flask封装成API,实现用户与模型对话

    导读 在当今的人工智能时代,大型AI模型已成为获得人工智能应用程序的关键.但是,这些巨大的模型需要庞大的计算资源和存储空间,因此搭建这些模型并对它们进行交互需要强大的计算能力,这通常需要使用云计算服务 ...

随机推荐

  1. Redis(三)jedis与锁

    1 Jedis 引入依赖 <dependency> <groupId>redis.clients</groupId> <artifactId>jedis ...

  2. 【Python爬虫(一)】XPath

    解析方式:XPath XPath的基本使用 1 安装lxml库 conda install lxml 下载慢的话可以试一下热点或切换下载源 2 导入etree from lxml import etr ...

  3. 手动编写Swagger文档与部署指南

    Swagger介绍 在Web开发中,后端开发者在完成接口开发后,需要给前端相应的接口使用说明,所以一般会写一份API文档.一般来说,有两种方式提供API接口文档,一种是利用插件在代码中自动生成,另一种 ...

  4. 带你用三种不同的工具体验AI作诗

    摘要:本实验基于华为云API Arts和API Explorer,向用户介绍诗歌生成API,指导用户使用华为云工具,体验AI作诗的过程. 本文分享自华为云社区<AI语言能力体验:通过三种不同的工 ...

  5. C# 从0到实战 基本类型

    C#语言的基本类型 与大多数编程语言一样,C#也有自己的基本类型,也称为内置类型.下面的表格就简单阐述了这些类型. C# 类型关键字 .NET 类型 bool System.Boolean byte ...

  6. 如何获取苹果设备的UDID(iPhone/iPad UDID查询方法)

      方法一.通过电脑连接苹果手机后查询 1.在电脑上下载并安装爱思助手,安装完成后将电脑和苹果手机使用苹果数据线连接起来: ​ 编辑切换为居中 添加图片注释,不超过 140 字(可选) 然后启动爱思助 ...

  7. 深度相机:结构光、TOF、双目相机

    随着人工智能与机器人.无人驾驶的火热,深度相机的技术和应用也受到关注,何谓深度相机? 顾名思义,就是可以测量物体到相机的距离(深度) 传统的RGB彩色普通相机称为2D相机,只能拍摄相机视角内的物体,没 ...

  8. 数据库定时备份winserver2012篇

    目录 1 序言 2 任务计划相关知识点介绍 2.1 任务计划 是什么? 2.2 批处理文件 2.2.1 批处理文件简介 2.2.2 批处理常用命令介绍 3 各个数据库备份脚本 3.1 Oracle数据 ...

  9. js数组和字符串方法

    一.数组方法 1.1.可以改变原数组 var arr = [10, 20, 30, 40, 50, 55]; // 1. **** push() --- 在数组的最后添加一项内容 // var ret ...

  10. 百度飞桨(PaddlePaddle) - PaddleOCR 文字识别简单使用

    百度飞桨(PaddlePaddle)安装 OCR 文字检测(Differentiable Binarization --- DB) OCR的技术路线 PaddleHub 预训练模型的网络结构是 DB ...