AI Agent零基础实战训练营
发起人: 炼数成金_小数 发起时间:2025年06月19日 当前状态:报名中
一、课程亮点
亮点 |
价值说明 |
全景式技术栈 |
从大型语言模型(LLM)原理与 DeepSeek 生态,到 RAG 检索增强,再到 FlashMLA、高速 Expert 并行通信 DeepEP,一次掌握业界前沿。 |
零基础友好 |
只需基础的Python即可上手(部分内容编程零基础也可以学会)。所有代码模板 & 环境脚本开箱即用。 |
成果导向 |
承诺每位学员在学习了课程后都能部署并演示 1 个可交互、可调用工具、支持知识库的专属 AI Agent。 |
实战 + 演示双保险 |
每天都有「实操冲刺」,讲师现场 coding,学员立即跟做;课后导师一对一点评学员的实操成果。 |
高性能“加速课”加持 |
业内稀缺的 FlashMLA(显存友好 Attention 内核)与 DeepEP(MoE/Expert 并行通信库)实践讲解,助你迈入大模型系统优化圈。 |
行业+场景+工具的落地性探索 |
提供不同行业、场景下,各项工具的商业价值分析与可落地技术方案,与学员共同探讨前沿技术、工具在不同行业、场景中的落地可能性。 |
二、课程知识点速览
Day |
主题 & 教学目标 |
关键知识模块 |
实操产出 |
Day 1 |
大模型与 DeepSeek 技术详解掌握大语言模型基础,深入理解 DeepSeek 大模型架构与应用 |
- Transformer 基础原理(Attention、Token、KV缓存)- 主流模型对比(GPT-4、Llama2、DeepSeek)- 提示词工程(Prompt)- DeepSeek 模型架构(R1、Coder)与强化学习微调技术(RLHF、DPO)- DeepSeek 高效推理与计算优化技术(FP16/BF16/FP8) |
- 本地部署DeepSeek ,实现基础聊天机器人(问答、改写、总结) |
Day 2 |
RAG与大模型微调学习传统RAG、GraphRAG、DeepSearch,掌握私域知识增强与模型微调方法 |
- RAG 基础与向量数据库使用(FAISS/Chroma)- DeepSeek-Embedding 向量化实践- GraphRAG 知识图谱检索(多跳推理、实体-关系构图)- DeepSearch 深度检索原理与实现(ReAct模式与动态检索)- 大模型微调技术(全参 vs LoRA/QLoRA/Adapter)- 微调数据处理(Prompt微调、RLHF、DPO、CoT标注) |
- 搭建 GraphRAG 医疗或金融领域问答系统 - 大模型微调实践 |
Day 3 |
AI Agent与MCP多智能体协作熟悉AI Agent开发平台,掌握多智能体协作机制与实操能力 |
- AI Agent 基础(ReAct模式与工具调用) - LangChain 框架快速实践(工具调用) - 阿里百炼、百度千帆智能体平台使用(知识库、插件工具、工作流) - MCP多智能体协作(角色分工设计、任务调度机制、对话协议设计、上下文管理) - 多Agent协作案例(代码开发与审查、数据分析) |
- 在阿里百炼平台搭建电商客服问答智能体 |
Day 4 |
FlashMLA、DeepEP高性能优化与项目展示学习高性能推理优化技术,整合课程知识完成个人毕业项目 |
- FlashMLA 内存布局感知注意力优化原理(Attention瓶颈、Triton Kernel实现)- DeepEP MoE高性能通信技术(internode/intranode内核、PyTorch扩展接口)- 项目综合集成:大模型调用、RAG增强、智能体开发、多智能体协作与性能优化实践 |
- 实操 FlashMLA 性能基准测试,比较与Torch的性能差异 |
三、课程大纲
上午:大模型技术基础
- Transformer 基础(Attention、Tokens、KV缓存)
- 各类主流模型对比(GPT-4、Llama3、DeepSeek、Qwen3等)
- 提示词工程基础(Prompt设计与优化)
下午:DeepSeek 大模型深入解析
- DeepSeek-R1、DeepSeek Coder 模型架构与应用
- 强化学习与指令微调流程(RLHF/DPO)
- DeepSeek高效推理(FP16/BF16/FP8)与多级缓存优化技术
- DeepSeek API与本地调用实操(搭建基础聊天机器人)
实操——DeepSeek 全场景部署架构:
- 本地化部署核心认知
- 模型参数量与硬件资源匹配策略(GPU 集群 / 边缘设备)。
- 混合并行技术(TP+PP+DP)与动态显存管理。
- 生产级部署工具链
- Ollama 轻量化部署(7B 模型一键启动)。
- vLLM 框架高并发服务优化(吞吐量提升 3-5 倍)。
- 企业级部署方案
- 安全合规架构设计(数据隔离与权限控制)。
- 多节点推理集群负载均衡策略。
Day 2:RAG知识增强技术与大模型微调实践
上午:RAG 技术基础与实战
- RAG技术原理与应用场景(私域知识检索)
- 向量数据库入门(FAISS、Chroma)
- 基于DeepSeek-Embedding的向量化方案实操
- RAG优化:分级目录与索引创建
- GraphRAG技术详解:
- 知识图谱增强检索技术原理(实体-关系图谱、多跳推理)
- GraphRAG金融、医疗领域案例演示(知识图谱构建与查询)
- 基于LlamaIndex或GPT Index的GraphRAG代码实践示例
- DeepSearch深度搜索:
- LLM驱动的动态知识检索原理(迭代式搜索策略、ReAct模式)
- 基于LangChain构建DeepSearch代理代码实操(实时检索并生成答案)
- DeepSearch实时资讯检索应用案例(如新闻更新、实时财报分析)
下午:大模型微调技术
- 大模型微调核心技术
- 全参微调 vs LoRA、QLoRA、Adapter 轻量化微调对比
- 微调训练的梯度累积与混合精度技巧
微调方法论与数据工程
- 提示词微调与领域知识注入(Prompt Learning)
- 基于人类反馈强化学习(RLHF、DPO)
领域数据构建与质量管理
- 数据格式转换、数据标注、质量校验方法
- CoT(链式思考)数据增强与标注技术实践
实操——本地知识问答助手:
- 实践搭建一个结合知识图谱的RAG智能问答Agent(GraphRAG)
- 搭建一个基于LLM和搜索工具的DeepSearch智能体案例
Day 3:AI Agent 开发与 MCP(多智能体协作)实操
上午:AI Agent 技术基础与主流框架实践
- AI Agent(智能体)的概念与作用:什么是智能体,能够完成哪些任务,典型应用案例分享。
- AI Agent的工作流程剖析:讲解智能体如何感知环境、规划行动、调用工具、反馈结果的循环流程(Agent思考-行动-ReAct模式)
- 工具与插件机制:定义什么是Agent的“工具”(如搜索引擎、计算器、数据库查询等),了解让AI调用外部功能的原理。
- 提示词设计进阶:如何在Prompt中引导Agent使用工具(例如提供格式约定,让模型输出行动指令和理由)。
- 知识库与RAG(检索增强生成):讲解如何将自有数据接入Agent,使其具备领域知识。介绍向量数据库概念,嵌入向量检索技术在Agent中的应用原理。
- 常用开发框架介绍:讲解LangChain等框架如何简化Agent开发。说明LangChain提供的工具接口和Agent模板,以及使用这种框架的优劣。
- 主流智能体开发平台简介(阿里百炼、百度千帆、开源的Dify平台等)
- 工作流介绍:介绍工作流的基本构建思路与优化经验
- 主流技术栈解析: 总结AI Agent常用组件:大型语言模型API、本地开源模型(如GPT系列、ChatGLM)、向量数据库(如FAISS)、Agent开发框架(LangChain、LlamaIndex等)、第三方工具/插件库等,帮助学员理解完整的技术生态。
- 智能体商业落地现状探讨:
- 各个企业的智能体应用情况
- 智能体应用过程中的经验分享(如何避坑、优化技巧等)
- 不同行业中的智能体落地方案(如金融、医疗、电力等)
下午:智能体平台实操与多智能体协作机制(MCP)
- 阿里百炼平台实践:
- 平台概览(智能体应用、MCP插件)
- 实操:搭建客服问答智能体(知识库、物流查询插件集成)
- 百度千帆平台实践:
- 平台特性与应用场景(多模态Agent、知识库与搜索组件)
- 实操:搭建旅游问答智能体(实时网页搜索与知识库集成)
- 多智能体协作(MCP)高级机制:
- 角色分工设计与Agent建模方法(Manager-Executor-Reviewer模式)
- 任务调度策略(同步、异步与动态调度实践)
- 对话协议设计与上下文管理(结构化指令传递、角色上下文切换、共享记忆状态)
实操——智能体应用实践:
- 构建一个可查询定制知识库的智能体。例如,以公司FAQ文档或产品资料为数据源,创建迷你知识库:
- 将给定文本数据生成向量嵌入并存储。
- 实现Agent查询流程:当用户提问涉及知识库内容时,Agent自动检索相关内容并据此生成答案。
- 编写并优化Prompt,让Agent能够准确引用检索结果作答。
- 分别在阿里百炼和百度千帆平台上完成AI Agent智能体开发并测试运行
- 设计并实现一个多智能体协作流程(代码开发与审查Agent系统),掌握MCP机制与实践方法
Day 4:生产级部署架构、高性能优化(FlashMLA & DeepEP)
上午: FlashMLA
· 项目简介(What)
- FlashMLA 是什么?
- Memory Layout Aware Attention(内存布局感知注意力机制);基于 Flash Attention 思路的高性能优化实现;Transformer 的计算瓶颈:内存访问 vs 算力
- 如何在保持准确率的同时,提高注意力机制在大规模推理场景下的速度与内存带宽利用率
· 设计动机(Why)
- 标准 Attention 的限制, 缓存KV占用大、访存不规律、可并行性差,Flash Attention 的改进点; 使用块处理(blockwise)+ logsumexp 规避 OOM; MLA 的进一步优化方向;加入 memory layout-aware 结构优化(排布+调度);分页存储 + Triton kernel 设计适配高效 GPU 硬件访存方式
· 核心模块(How)
- Python 调度层
- 主要 MLA 实现方式
- 底层 Triton 内核实现(性能关键)
- 性能基准框架
· 实验结果与性能(Results)
· 项目总结与展望(Conclusion)
下午:DeepEP
一、项目背景与简介(What & Why)
· 什么是 DeepEP?
- 专为 Mixture-of-Experts (MoE) 和 Expert Parallel 设计的 GPU 通信库
- 为什么需要 DeepEP?
- MoE 模型的核心瓶颈在于 Expert 之间的数据交换通信(All-to-All)
- 标准通信方案(如 NCCL、MPI)延迟较高,带宽利用不充分
- DeepSeek-V3 提出的 group-limited gating 算法提出新通信需求
· 使用场景与需求分析(Why)
- MoE 模型特点
- 千亿参数级大模型中每个 token 只使用部分 expert
- 动态分配 + 多 GPU 通信 = 通信成本极高
- 通信类型分析
- NVLink 内部通信(Intra-node)
- RDMA 跨机通信(Inter-node)
- FP8 / 低精度推理通信需求
· 核心设计与模块介绍(How)
- 核心通信内核
- PyTorch C++ 扩展接口
- Hook-Based Overlapping
· 安装与使用方法(How)
- 依赖环境:PyTorch + CUDA + InfiniBand/RDMA 驱动
- 安装方式:python setup.py install
- 使用方式:导入通信模块并集成到 MoE forward 逻辑中
· 性能评估与实验结果(Results)
- 在 H800 + CX7 IB 设备上测试
- 通信带宽高达 160 GB/s(NVLink)+ 50 GB/s(RDMA)
- 在 DeepSeek-V3 中有效提升训练和推理速度
· 项目总结与适用人群(Conclusion)
· 拓展与未来方向(Outlook)
四、学习支持服务
- 全套代码仓库:含课程示例、FlashMLA & DeepEP Demo、毕业项目模板
- 结营证书:完成毕业项目 + 在线测验得 80 分即颁发
- 30 天答疑社群:讲师每日在线答疑,分享行业新论文 / 工具动态
- 二次加速挑战:课后4周在提交你的AI Agent项目,优秀作品可以免费推荐至客户群体
五、课程讲师:
tigerfish,数据库专家,数据分析专家,有丰富的IT领域、数学领域的知识经验。知名数据库网站ITPUB创始人,知名数据分析网站炼数成金创始人。ITPUB在其十几年历史中为中国IT业特别是数据库行业输送了大量人才,其中不乏今天在行业里叱咤风云的佼佼者,因此被誉为数据库业的黄埔军校。后来创建炼数成金,言传身教,亲自讲授大数据,数据库,数据分析,人工智能等方面的几十门课程,引领无数弟子进入业界,朋友圈遍及业界重要人士,广受尊重。
何翠仪
资深数据科学家,毕业于中山大学数学学院。多年数据分析与人工智能算法开发的行业经验,在计算机视觉、语音处理、自然语言处理和强化学习等领域上都有着丰富的项目实战经验。
曾主导开发众多项目与产品,包括中医临床智能辅助决策系统、内镜医学图像增强系统、广东烟草配送优化、华为“客户之声”、越秀集团商场客流分析、广东电信智能营销分析、广东移动客户满意度分析、语音风格迁移、游戏AI等。
李嘉键
炼数成金优秀讲师,炼数成金组建的AIGC兴趣群钉钉机器人应用部署者,对大语言模型有深刻认识,曾参与多个大语言模型相关项目中,如广州地铁,中国移动等。
培训时间:
2025年7月19、20、26、27日(2个周六日,4天共约24个学时)
授课形式:
网络直播课程(国内外和各城市的朋友们均可参与课程,让学习不受地域的限制)
参训特享四大福利:
1、 课程资源福利:含课程示例、FlashMLA & DeepEP Demo、毕业项目模板
2、 主讲老师 – 黄老师的专场答疑参与权
学了只是如何使用,一直是横亘在同学们将知识落地的难题,那么本次课程必须要打破这层壁垒,课程结束后,课程助教将会多次以多种形式收集大家实践的疑问,并组织不低于三场黄老师专场答疑会,课程助教将会认真仔细的针对学员的落地问题进行进一步了解和调研,黄老师将会对这些落地问题安排统一答疑,指导大家真正将知识转化为落地实践的能力。
3、 永不解散的交流群
这是一个圈子,可以快速结识业界朋友交换意见
这更是一份落地实践的底气,因为老师会一直在群内,关注并给与大家指导。
4、 更实际的持续学习知识:炼数成金学习道具卡
学到用时方恨少,我们赠送给大家对知识查漏补缺的途径,每位学员均可获赠:快班免固定学费道具卡2张,价值600元
课程费用列表:
学费:2980元,早报名多优惠 !优惠截止时段和价格如下
截止时间 |
6月9日-6月20日 |
6月20日-7月4日 |
7月4日至课程结束 |
报名费 |
2580 |
2780 |
2980 |
3-6人团体培训费:享受每位学员减200元优惠(同一公司员工组团参加)
7人及以上团体培训费:享受每位学员减300元优惠(同一公司员工组团参加)
特别说明:充值报名本课程学费,不可同时参与平台其他充值有奖活动
培训FAQ
Q:涉及的实战部分讲得细致吗?
A:会讲到代码级 ,听众必须使用电脑搭建好环境以便参与动手实践,我们在课程会公布统一实验环境要求
全国统一咨询热线 4008-010-006
咨询QQ: 2222010060 (上班时间在线)
咨询Email :kefu@dataguru.cn