[LLM] 开源 AI 大语言模型的本地化定制实践

LLM(Large Language Model,大型语言模型)是一种基于深度学习的自然语言处理模型,旨在理解和生成人类语言。
它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。
LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。
本文假定你对一些类似 ChatGPT 的工具已有使用经验, 了解其中的强大和不足。
LLM 应用层面介绍
1、LLM 当前主要应用
通用问答类——基于OpenAI等做的套壳。(能做不限于创作、翻译、分析、摘要、预测)
领域搜索类——基于”数据库”做的垂直领域搜索。*
2、为什么需要开源的 LLM ?
隐私性
基于openai或其它第三方模型时对数据的控制性;AWS、Azure内的数据隐私性。
(随提供方政策)
精准性
当你不知道某件事的时候,生成的答案感觉是靠谱的,但不一定正确。
(GPT插件系统、可信数据源)
怎么验证这个正确性、提高服务的准确性,是需要提高的地方。
拓展性
单独使用 LLM 通常不足以创建一个真正强大的应用程序,真正的强大之处在于将它们与其他计算或知识来源结合起来。
(LLM训练成本)
后面会介绍基于语言模型的开发框架 LangChain。
3、LLM 应用优化方向
0.(模型架构改进)
1. 模型调参。(Fine-tuning:小规模的特定任务上继续训练)
2. 关键词拆分。(AutoGPT为代表的,用合理的架构让模型自动拆分关键词、更细使得精度提高)
LLM 应用实践
1. 单独部署使用开源 LLM
一种是用终端执行,另一种是用比较多的 Webui 可以直接与同一类LLM进行chat。
比如基于 ChatGLM 的 ChatGLM-webui(https://github.com/Akegarasu/ChatGLM-webui/)操作示例:https://www.cnblogs.com/farwish/p/17289475.html
比如基于 alpaca-7B-ggml 的 Serge(https://github.com/nsarrazin/serge)操作示例:https://www.cnblogs.com/farwish/p/17280159.html
等等。
2. 开源 LLM 与私有数据配合
LangChain 框架使从数据到 LLM 的各个部分都组件化,LangChain + LLMs 较为通用。
1)LangChain 与某一个 LLM 的结合。
# 下载语言模型 # 支持CPU的 LLaMA 2 7B 模型
# https://gpt4all.io/ 首页可以找到该模型
# 下载地址:https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/resolve/main/llama-2-7b-chat.ggmlv3.q4_0.bin
local_path = (
"./llama-2-7b-chat.ggmlv3.q4_0.bin" # replace with your desired local file path
) # 执行下载 import requests from pathlib import Path
from tqdm import tqdm Path(local_path).parent.mkdir(parents=True, exist_ok=True) url = 'https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/resolve/main/llama-2-7b-chat.ggmlv3.q4_0.bin' # send a GET request to the URL to download the file. Stream since it's large
response = requests.get(url, stream=True) # open the file in binary mode and write the contents of the response to it in chunks
# This is a large file, so be prepared to wait.
with open(local_path, 'wb') as f:
for chunk in tqdm(response.iter_content(chunk_size=8192)):
if chunk:
f.write(chunk)
运行:
# !pip install langchain
# !pip install llama-cpp-python ## https://python.langchain.com/docs/integrations/llms/llamacpp # 1.导入包
from langchain.llms import LlamaCpp
from langchain import PromptTemplate, LLMChain
from langchain.callbacks.manager import CallbackManager
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler # 2.回调
# 回调支持逐个token的流式处理
callback_manager = CallbackManager([StreamingStdOutCallbackHandler()])
# 在回调管理器中需要传递 verbose 参数 # 3. 模型,确保路径正确
llm = LlamaCpp(
model_path="./llama-2-7b-chat.ggmlv3.q4_0.bin",
temperature=0.75,
max_tokens=2000,
top_p=1,
callback_manager=callback_manager,
verbose=True,
) # 4.提问
prompt = """
Question: who are you?
"""
llm(prompt)
其它支持的 LLMs:https://python.langchain.com/docs/integrations/llms
2)对文档作为知识源的查询提问。
由于 LLM 擅长于文本理解,想对文档内容进行提问时,可以作为一个很好的工具。
总体架构概览:

将非结构化数据转换为 QA 对话的链路过程:
1. Loading:首先我们需要加载我们的数据。
2. Splitting:文本分隔符将文档分成指定大小的分隔符。
3. Storage:(通常是一个向量存储) 存储将容纳并嵌入分割的字符。
4. Retrieval:应用程序从存储中检索分割的文本 (例如,通常情况下与输入问题有类似的Embedding)
5. Generation:这个 LLM 使用 含问题的提示词(prompt) 和 检索到的数据(data) 来生成答案。
6. Conversation:通过在 QA 链中添加 Memory 来进行多回合对话。

详细文档:https://python.langchain.com/docs/use_cases/question_answering.html
3. 多模态应用方面
这里不展开讨论,除了数据量本身庞大,计算耗费更多资源。
模型层面主要在于处理多种不同类型的数据,例如图像、音频和视频等。
多模态数据的获取和标注成本较高,因为需要同时收集和标注不同类型的数据。
随着硬件等各方面提升、未来这一方面应用可能还会有更多场景涌现。
其它类型Ai在线体验:ChatAi.
Other:https://gist.github.com/psychemedia/51f45fbfe160f78605bdd0c1b404e499
Other:https://soulteary.com/2023/07/23/build-llama2-chinese-large-model-that-can-run-on-cpu.html
Link:https://www.cnblogs.com/farwish/p/17632893.html
[LLM] 开源 AI 大语言模型的本地化定制实践的更多相关文章
- 保姆级教程:用GPU云主机搭建AI大语言模型并用Flask封装成API,实现用户与模型对话
导读 在当今的人工智能时代,大型AI模型已成为获得人工智能应用程序的关键.但是,这些巨大的模型需要庞大的计算资源和存储空间,因此搭建这些模型并对它们进行交互需要强大的计算能力,这通常需要使用云计算服务 ...
- 本地推理,单机运行,MacM1芯片系统基于大语言模型C++版本LLaMA部署“本地版”的ChatGPT
OpenAI公司基于GPT模型的ChatGPT风光无两,眼看它起朱楼,眼看它宴宾客,FaceBook终于坐不住了,发布了同样基于LLM的人工智能大语言模型LLaMA,号称包含70亿.130亿.330亿 ...
- AI 也开源:50 大开源 AI 项目 (转)
这些开源AI项目专注于机器学习.深度学习.神经网络及其他应用场合. 自IT界早期以来,研制出能像人类那样“思考”的机器一直是研究人员的一大目标.在过去几年,计算机科学家们在人工智能(AI)领域已取得了 ...
- C#开源系统大汇总(个人收藏)
C#开源系统大汇总 一.AOP框架 Encase 是C#编写开发的为.NET平台提供的AOP框架.Encase 独特的提供了把方面(aspects)部署到运行时代码,而其它AOP框架依赖 ...
- C#开源资源大汇总
C#开源资源大汇总 C#开源资源大汇总 一.AOP框架 Encase 是C#编写开发的为.NET平台提供的AOP框架.Encase 独特的提供了把方面(aspects)部署到运行 ...
- 使用 LoRA 和 Hugging Face 高效训练大语言模型
在本文中,我们将展示如何使用 大语言模型低秩适配 (Low-Rank Adaptation of Large Language Models,LoRA) 技术在单 GPU 上微调 110 亿参数的 F ...
- zz独家专访AI大神贾扬清:我为什么选择加入阿里巴巴?
独家专访AI大神贾扬清:我为什么选择加入阿里巴巴? Natalie.Cai 拥有的都是侥幸,失去的都是人生 关注她 5 人赞同了该文章 本文由 「AI前线」原创,原文链接:独家专访AI大神贾扬清:我 ...
- 搭乘“AI大数据”快车,肌肤管家,助力美业数字化发展
经过疫情的发酵,加速推动各行各业进入数据时代的步伐.美业,一个通过自身技术.产品让用户变美的行业,在AI大数据的加持下表现尤为突出. 对于美妆护肤企业来说,一边是进入存量市场,一边是疫后的复苏期,一边 ...
- Hugging News #0324: 🤖️ 黑客松结果揭晓、一键部署谷歌最新大语言模型、Gradio 新版发布,更新超多!
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新.社区活动.学习资源和内容更新.开源库和模型更新等,我们将其称之为「Hugging Ne ...
- 最新版本 Stable Diffusion 开源 AI 绘画工具之汉化篇
目录 汉化预览 下载汉化插件一 下载汉化插件二 下载汉化插件三 开启汉化 汉化预览 在上一篇文章中,我们安装好了 Stable Diffusion 开源 AI 绘画工具 但是整个页面都是英文版的,对于 ...
随机推荐
- App启动页面优化
目录介绍 01.存在白屏问题 1.1 问题描述 1.2 问题分析 02.解决白屏的办法 2.1 解决方案分析 2.2 第一种解决方案 2.3 第二种解决方案 2.4 注意要点 03.Applicati ...
- 记录--for in 和 for of的区别详解以及为for in的输出顺序
这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助 for in 和 for of 相对于大家肯定都不陌生,都是用来遍历属性的没错.那么先看下面的一个例子: 例1 const obj = { ...
- Java AES CBC模式 加密和解密
import org.apache.tomcat.util.codec.binary.Base64; import javax.crypto.Cipher; import javax.crypto.s ...
- module的定义及端口的作用
模型功能 module是verilog中层次划分的基本单元 通过module之间的调用,可以实现硬件描述层次的提高 端口列表则是module的输入输出,和数字电路的走线连接等效 基于module的不断 ...
- FineReport 自定义工具栏样式
虽然FR界面的工具栏已经很商业化,很好看了,但是总会有那么些需求希望你可以修改工具栏的样式. 修改工具栏样式的主要思路是: 通过JQ选择器选中需要调整的元素,然后修改他们的样式 接下来,我们尝试着对工 ...
- k-均值聚类算法 Primary
目录 案例--区分好坏苹果(有Key) 案例--自动聚类(无Key) k-均值聚类算法(英文:k-means clustering) 定义: k-均值聚类算法的目的是:把n个点(可以是样本的一次观察或 ...
- Kylin Desktop V10部署达梦数据库(DM8)
1.环境 处理器:飞腾D2000/8 E8C 内存:16GB 系统:银河麒麟桌面版操作系统(国防版)V10 达梦数据库:dm8_20231226_FTarm2000_kylin10_sp1_64 2. ...
- #第一类斯特林数,NTT#CF960G Bandit Blues
题目 给你三个正整数 \(n\),\(a\),\(b\),定义 \(A\) 为一个排列中是前缀最大值的数的个数, 定义 \(B\) 为一个排列中是后缀最大值的数的个数,求长度为 \(n\) 的排列中满 ...
- #树形dp#nssl 1469 W
分析 首先一些结论,每条边最多被翻一次,而且由翻的边所构成的连通块答案就是度数为奇数的点的个数的一半, 因为在连通块内必然选择两个叶子节点间的路径翻是最优的,所以也就是选择两个度数为奇数的点,所以结论 ...
- 圈重点!一图读懂OpenHarmony技术日