大模型应用开发初探 : 手搓一个简易Agent
大家好,我是Edison。
今天是中秋节前最后一个工作日,加油挺住,马上就放假了!
近期我一直在学习和了解LLM的相关知识,听到大家都在谈论AI Agent,说它是接下来几年大模型应用开发的新范式,那么什么是AI Agent,如何快速开发一个AI Agent呢?
AI Agent:可以帮你执行任务的助手
学术界和工业界对术语“AI Agent”提出了各种定义。其中,OpenAI将AI Agent定义为“以大语言模型为大脑驱动的系统,具备自主理解、感知、规划、记忆和使用工具的能力,能够自动化执行完成复杂任务的系统。”
说人话就是:大多数时候你给它一个最终你想要达成的目标,它能直接交付结果,过程你啥都不用管。

NOTE:如果说人和动物的区别是人会使用各种工具,那么Agent和大模型的区别亦然。
我们可以把Agent与LLM形象地比作生物体与其大脑,Agent有手有脚,可以自己干活自己执行,而LLM呢,就是它的大脑。比如,如果你使用LLM大模型,它可能只能给你输出一份食谱,告诉你需要哪些食材和步骤来制作。但如果你使用Agent,它可能就是不仅提供食谱和步骤,还会根据你的需求,帮你选择合适的食材甚至自动下单购买,监控烹饪过程,确保食物口感,最终为你呈上一份佳肴。
AI Agent如何工作?
AI Agent的架构是其智能行为的基础,它通常包括感知、规划、记忆、工具使用和行动等关键组件,这些组件协同工作以实现高效的智能行为。

AI Agent的工作流程其实就是一个连续的循环过程。
它从感知环境开始,经过信息处理、规划和决策,然后执行行动。最后,根据执行结果和环境反馈进行调整,以优化未来的行动和决策。
通过这种结构化和层次化的方式,AI Agent能够有效地处理信息,做出决策,并在复杂环境中执行任务。
如何开发AI Agent?
目前业界开发AI Agent主要有两种模式:
一种是基于Python或C#等编程语言,结合LangChain或Semantic Kernel等大模型应用开发框架,集成某个大模型API 和 企业内部的业务API能力,来完成具体领域的Agent。

另一种是基于Coze、Dify、AutoGen等Agent开发管理平台,拖过拖拉拽的方式快速生成一个Agent,与其说是开发,不如说是Workflow一样的配置。当然,也需要给这些平台注册封装好的企业内部API平台提供的能力供配置好的Agent去实现工具调用。

使用Semantic Kernel开发AI Agent
这里我们快速使用Semantic Kernel开发一个简易的WorkOrder Agent(MES工单助手),重点关注如何给LLM添加Function Calling能力,直观了解Agent规划任务 和 执行任务 的效果,而至于其他更加具体的,等待后续了解深入后再交流,这里我们就先来个感性认识即可。
以终为始,先看效果吧:
(1)没有实现Function Calling的效果,它就只是个Chatbot

(2)实现了Function Calling的效果,它就可以称为Agent

可以看到,我的需求其实包含两个步骤:第一步是更新工单的Quantity,第二步是查询更新后的工单信息。而这两个步骤我们假设其实都是需要去调用MES WorkOrderService API才能获得的,而这就需要我们给LLM加入Function Calling的能力,当然LLM自己得知道如何规划执行的步骤,哪个步骤先执行,哪个后执行。
示例代码的结构如下所示:

关键部分代码:
(1)Shared
OpenAiConfiguration.cs
public class OpenAiConfiguration
{
public string Provider { get; set; }
public string ModelId { get; set; }
public string EndPoint { get; set; }
public string ApiKey { get; set; } public OpenAiConfiguration(string modelId, string endPoint, string apiKey)
{
Provider = ConfigConstants.LLMProviders.OpenAI; // Default OpenAI-Compatible LLM API Provider
ModelId = modelId;
EndPoint = endPoint;
ApiKey = apiKey;
} public OpenAiConfiguration(string provider, string modelId, string endPoint, string apiKey)
{
Provider = provider;
ModelId = modelId;
EndPoint = endPoint;
ApiKey = apiKey;
}
}
CustomLLMApiHandler.cs
public class CustomLLMApiHandler : HttpClientHandler
{
private readonly string _openAiProvider;
private readonly string _openAiBaseAddress; public CustomLLMApiHandler(string openAiProvider, string openAiBaseAddress)
{
_openAiProvider = openAiProvider;
_openAiBaseAddress = openAiBaseAddress;
} protected override async Task<HttpResponseMessage> SendAsync(
HttpRequestMessage request, CancellationToken cancellationToken)
{
UriBuilder uriBuilder;
Uri uri = new Uri(_openAiBaseAddress);
switch (request.RequestUri?.LocalPath)
{
case "/v1/chat/completions":
switch (_openAiProvider)
{
case ConfigConstants.LLMProviders.ZhiPuAI:
uriBuilder = new UriBuilder(request.RequestUri)
{
Scheme = "https",
Host = uri.Host,
Path = ConfigConstants.LLMApiPaths.ZhiPuAIChatCompletions,
};
request.RequestUri = uriBuilder.Uri;
break;
default: // Default: OpenAI-Compatible API Providers
uriBuilder = new UriBuilder(request.RequestUri)
{
Scheme = "https",
Host = uri.Host,
Path = ConfigConstants.LLMApiPaths.OpenAIChatCompletions,
};
request.RequestUri = uriBuilder.Uri;
break;
}
break;
} HttpResponseMessage response = await base.SendAsync(request, cancellationToken);
return response;
}
}
(2)WorkOrderService
这里我直接模拟的API的逻辑,你可以使用HttpClient去实际调用某个API。
public class WorkOrderService
{
private static List<WorkOrder> workOrders = new List<WorkOrder>
{
new WorkOrder { WorkOrderName = "9050100", ProductName = "A5E900100", ProductVersion = "001 / AB", Quantity = 100, Status = "Ready" },
new WorkOrder { WorkOrderName = "9050101", ProductName = "A5E900101", ProductVersion = "001 / AB", Quantity = 200, Status = "Ready" },
new WorkOrder { WorkOrderName = "9050102", ProductName = "A5E900102", ProductVersion = "001 / AB", Quantity = 300, Status = "InProcess" },
new WorkOrder { WorkOrderName = "9050103", ProductName = "A5E900103", ProductVersion = "001 / AB", Quantity = 400, Status = "InProcess" },
new WorkOrder { WorkOrderName = "9050104", ProductName = "A5E900104", ProductVersion = "001 / AB", Quantity = 500, Status = "Completed" }
}; public WorkOrder GetWorkOrderInfo(string orderName)
{
return workOrders.Find(o => o.WorkOrderName == orderName);
} public string UpdateWorkOrderStatus(string orderName, string newStatus)
{
var workOrder = this.GetWorkOrderInfo(orderName);
if (workOrder == null)
return "Operate Failed : The work order is not existing!";
// Update status if it is valid
workOrder.Status = newStatus;
return "Operate Succeed!";
} public string ReduceWorkOrderQuantity(string orderName, int newQuantity)
{
var workOrder = this.GetWorkOrderInfo(orderName);
if (workOrder == null)
return "Operate Failed : The work order is not existing!"; // Some business checking logic like this
if (workOrder.Status == "Completed")
return "Operate Failed : The work order is completed, can not be reduced!";
if (newQuantity <= 1 || newQuantity >= workOrder.Quantity)
return "Operate Failed : The new quantity is invalid!";
// Update quantity if it is valid
workOrder.Quantity = newQuantity;
return "Operate Succeed!";
}
}
(3)Form
appsetting.json
{
"LLM_API_PROVIDER": "ZhiPuAI",
"LLM_API_MODEL": "glm-4",
"LLM_API_BASE_URL": "https://open.bigmodel.cn",
"LLM_API_KEY": "***********" // Update this value to yours
}
AgentForm.cs
初始化Kernel
private Kernel _kernel = null;
private OpenAIPromptExecutionSettings _settings = null;
private IChatCompletionService _chatCompletion = null;
private ChatHistory _chatHistory = null; private void ChatForm_Load(object sender, EventArgs e)
{
var configuration = new ConfigurationBuilder().AddJsonFile($"appsettings.ZhiPu.json");
var config = configuration.Build();
var openAiConfiguration = new OpenAiConfiguration(
config.GetSection("LLM_API_PROVIDER").Value,
config.GetSection("LLM_API_MODEL").Value,
config.GetSection("LLM_API_BASE_URL").Value,
config.GetSection("LLM_API_KEY").Value);
var openAiClient = new HttpClient(new CustomLlmApiHandler(openAiConfiguration.Provider, openAiConfiguration.EndPoint));
_kernel = Kernel.CreateBuilder()
.AddOpenAIChatCompletion(openAiConfiguration.ModelId, openAiConfiguration.ApiKey, httpClient: openAiClient)
.Build(); _chatCompletion = _kernel.GetRequiredService<IChatCompletionService>(); _chatHistory = new ChatHistory();
_chatHistory.AddSystemMessage("You are one WorkOrder Assistant.");
}
注册Functions
_kernel.Plugins.Add(KernelPluginFactory.CreateFromFunctions("WorkOrderHelperPlugin",
new List<KernelFunction>
{
_kernel.CreateFunctionFromMethod((string orderName) =>
{
var workOrderRepository = new WorkOrderService();
return workOrderRepository.GetWorkOrderInfo(orderName);
}, "GetWorkOrderInfo", "Get WorkOrder's Detail Information"),
_kernel.CreateFunctionFromMethod((string orderName, int newQuantity) =>
{
var workOrderRepository = new WorkOrderService();
return workOrderRepository.ReduceWorkOrderQuantity(orderName, newQuantity);
}, "ReduceWorkOrderQuantity", "Reduce WorkOrder's Quantity to new Quantity"),
_kernel.CreateFunctionFromMethod((string orderName, string newStatus) =>
{
var workOrderRepository = new WorkOrderService();
return workOrderRepository.UpdateWorkOrderStatus(orderName, newStatus);
}, "UpdateWorkOrderStatus", "Update WorkOrder's Status to new Status")
}
));
开启自动调用Function,告诉大模型可以自行决定调用相关Functions,而且大模型会自行决定根据什么顺序来调用,这就是大模型作为Agent大脑的规划能力。当然,我们还可以通过定制化Planner来增强agent的规划能力,这个就留到后面再分享:
_settings = new OpenAIPromptExecutionSettings
{
ToolCallBehavior = ToolCallBehavior.AutoInvokeKernelFunctions
};
发送用户的提示词给大模型:
_chatHistory.AddUserMessage(tbxPrompt.Text);
ChatMessageContent chatResponse = null;
tbxResponse.Clear(); if (cbxUseFunctionCalling.Checked)
{
Task.Run(() =>
{
ShowProcessMessage("AI is handling your request now...");
chatResponse = _chatCompletion.GetChatMessageContentAsync(_chatHistory, _settings, _kernel)
.GetAwaiter()
.GetResult();
UpdateResponseContent(chatResponse.ToString());
ShowProcessMessage("AI Response:");
});
}
else
{
Task.Run(() =>
{
ShowProcessMessage("AI is handling your request now...");
chatResponse = _chatCompletion.GetChatMessageContentAsync(_chatHistory, null, _kernel)
.GetAwaiter()
.GetResult();
UpdateResponseContent(chatResponse.ToString());
ShowProcessMessage("AI Response:");
});
}
小结
本文简单介绍了AI Agent的基本概念 和 工作方式,目前主要有两种开发Agent的模式,一种是高代码手搓,另一种是低代码拖拉拽。
最后,本文通过C# + Semantic Kernel + 智谱GLM-4模型 演示了如何快速开发一个简易的AI Agent,虽然它只是个Demo,但希望对你快速了解Agent有所帮助!
示例源码
本文示例:https://github.com/Coder-EdisonZhou/EDT.Agent.Demos
本文大模型:智谱 GLM-4 模型
推荐学习
Microsoft Learn, 《Semantic Kernel 学习之路》

大模型应用开发初探 : 手搓一个简易Agent的更多相关文章
- 手搓一个“七夕限定”,用3D Engine 5分钟实现烟花绽放效果
七夕来咯!又到了给重要的人送惊喜的时刻. 今年,除了将心意融入花和礼物,作为程序员,用自己的代码本事手搓一个技术感十足"七夕限定"惊喜,我觉得,这是不亚于车马慢时代手写信的古典主义 ...
- 基于Unity的AR开发初探:第一个AR应用程序
记得2014年曾经写过一个Unity3D的游戏开发初探系列,收获了很多好评和鼓励,不过自那之后再也没有用过Unity,因为没有相关的需求让我能用到.目前公司有一个App开发的需求,想要融合一下AR到A ...
- 手写一个简易的多周期 MIPS CPU
一点前言 多周期 CPU 相比单周期 CPU 以及流水线 CPU 实现来说其实写起来要麻烦那么一些,但是相对于流水线 CPU 和单周期 CPU 而言,多周期 CPU 除了能提升主频之外似乎并没有什么卵 ...
- 手写一个简易的IOC
这个小项目是我读过一点Spring的源码后,模仿Spring的IOC写的一个简易的IOC,当然Spring的在天上,我写的在马里亚纳海沟,哈哈 感兴趣的小伙伴可以去我的github拉取代码看着玩 地址 ...
- 手搓一个兔子问题(分享一个C语言问题,持续更新...)
大家好,我是小七夜,今天就不分享C语言的基础知识了,分享一个比较好玩的C语言经典例题:兔子问题 题目是这样的:说有一个穷苦人这天捉到了一只公兔子,为了能繁衍后代他又买了一只母兔子,后来兔子开始生小兔子 ...
- 手搓一个C语言简单计算器。
#include <stdio.h> void xing(int shu); void biaoti(int kong,char * title); void zhuyemian(char ...
- 来,我们手写一个简易版的mock.js吧(模拟fetch && Ajax请求)
预期的mock的使用方式 首先我们从使用的角度出发,思考编码过程 M1. 通过配置文件配置url和response M2. 自动检测环境为开发环境时启动Mock.js M3. mock代码能直接覆盖g ...
- 用python 10min手写一个简易的实时内存监控系统
简易的内存监控系统 本文需要有一定的python和前端基础,如果没基础的,请关注我后续的基础教程系列博客 文章github源地址,还可以看到具体的代码,喜欢请在原链接右上角加个star 腾讯视频链接 ...
- [转]用python 10min手写一个简易的实时内存监控系统
简易的内存监控系统 本文需要有一定的python和前端基础,如果没基础的,请关注我后续的基础教程系列博客 文章github源地址,还可以看到具体的代码,喜欢请在原链接右上角加个star 腾讯视频链接 ...
- 手写一个简易版Tomcat
前言 Tomcat Write MyTomcat Tomcat是非常流行的Web Server,它还是一个满足Servlet规范的容器.那么想一想,Tomcat和我们的Web应用是什么关系? 从感性上 ...
随机推荐
- 【WinForm】WinForm 生成单文件程序
WinForm 生成单文件程序 零.解决 安装 Costura.Fody 安装好这个库后生成的就是单文件了. .Net 3.5 NuGet控制台 NuGet\Install-Package Costu ...
- Alpine
... 参考 Alpine包管理工具apk使用介绍 Alpine - Docker 从入门到实战
- C# 计算代码的运行时间
用法 主要通过Stopwatch类来实现... 在开发.调试.测试.分析中非常实用. Stopwatch sw = new Stopwatch(); sw.Start(); // 某些耗时的计算或任务 ...
- C#/.NET/.NET Core优秀项目和框架2025年3月简报
前言 公众号每月定期推广和分享的C#/.NET/.NET Core优秀项目和框架(每周至少会推荐两个优秀的项目和框架当然节假日除外),公众号推文中有项目和框架的详细介绍.功能特点.使用方式以及部分功能 ...
- 事务注解@Transactional
目录 1.属性介绍 2.传播机制 准备例子 总结 3.原理 4.失效场景 一.属性介绍 1.isolation 属性 事务的隔离级别,默认值为 Isolation.DEFAULT.可选的值有: Iso ...
- Spring 整合 Junit
一.导入jar包 二.使用@RunWith 注解替换原有运行器 [main()] /** * * @Company http://www.ithiema.com * @Version 1.0 */ @ ...
- TGCTF2025 部分题目WP
TGCTF 2025 Web AAA偷渡阴平 ?tgctf2025=eval(end(current(get_defined_vars())));&b=system('cat /flag'); ...
- 康谋分享 | AD/ADAS的性能概览:在AD/ADAS的开发与验证中“大海捞针”!
如果您希望从数百万小时的驾驶数据中查找特定的相关驾驶事件和未遂事故,以确保您的所需功能正确运行,最好的方法就是创建一个系统性能的概览分析,实现在数据日志中快速检索关注点.为此,康谋在本文将为您详细介绍 ...
- Docker开启远程守护进程访问
默认情况下,Docker守护进程监听Unix套接字上的连接,以接受来自本地客户端的请求.通过将Docker配置为侦听IP地址和端口以及Unix套接字,可以允许Docker接受来自远程主机的请求.有关此 ...
- windows查看连接过wifi的密码
如何使用批处理脚本获取已保存的WiFi密码 在日常使用电脑时,我们经常会连接多个WiFi网络.随着时间的推移,可能会忘记某些WiFi的密码.幸运的是,Windows系统提供了命令行工具netsh,可以 ...