MoPaaS-智泊AI大模型课程大纲V5.0.13
2025-03-18 13:28:58 0 举报
AI智能生成
MoPaaS-智泊AI大模型课程大纲V5.0.13
作者其他创作
大纲/内容
L1级别:AI大模型时代的华丽登场
大语言模型的基础认知与核心原理
大语言模型基础认知
初识大模型
人工智能演进与大模型兴起:从AI1.0到AI2.0的变迁
定义与核心概念
AI1.0:感知智能时代
定义
传统AI1.0代表产品
AI2.0:认知智能时代
定义
AIGC现代AI代表应用
大模型与通用人工智能
大模型深度认知解析
通用人工智能技术特征
大模型与通用人工智能之间的联系
主流大模型与应用产品
主流大模型
DeepSeek
Qwen2
GLM系列
LLama系列
GPT系列
Claude
Gemini
大模型应用产品
深度求索
通义千问
文心一言
智谱清言
ChatGPT
大模型赋能行业分析
医疗行业
政务
法律
.............
大模型的发展趋势与挑战
发展趋势
未来挑战
大语言模型核心原理
大语言模型和传统的机器学习有哪些差异
Transformer架构
为什么会用到Transformer
什么是Transformer
RNN的原理与局限性
Transformer架构分析
大模型运行基本机制
大模型如何理解和表示单词
大模型处理单元 — Token
单元的远近亲疏关系
大模型词义的载体和表现特征
大模型如何理解并预测输入的内容
注意力机制
自注意力机制
基于语义理解的内容生成
预训练、SFT、RLHF
预训练
SFT(Supervised Fine-Tuning)
RLHF(Reinforcement Learning from Human Feedback)
提示工程
Prompt Engineering基础原理与工程进阶技巧
提示词(Prompt)与提示工程
Prompt Engineering的基本原则
Prompt调优进阶技巧
零样本提示
少样本提示
思维链Chain-of-thought
自洽性(Self-Consistency)
思维树Tree-of-thought
Prompt攻击与防范
提示词注入
提示词防范
Prompt Engineering实战应用
应用实战1:小红书文案生成
应用实战2:数据库多表联合查询SQL代码生成
应用实战3:企业运营成本分析核算
应用实战4:基于提示工程的学员辅导系统实现
Prompt Engineering经验总结
实战项目1:基于提示工程的TOT paper24点复现与实战
L2级别:AI大模型RAG应用开发工程
分支主题
检索增强生成前言
LLM的缺陷分析
RAG的定义
RAG的三大范式
Naive RAG Pipeline
知识库构建
文档加载与摄取
文档分块策略
索引 & 向量化
Embedding
向量定义与向量化的意义
向量相似度算法
余弦距离Cosine
欧式距离L2
向量化实践
向量模型的API调用
基于Ollama的向量模型本地部署
Indexing
“top-k”语义检索
向量存储
向量数据库的作用
向量数据库类型
主流向量数据库与功能对比
向量数据库服务搭建
Prompt上下文增强设计
实战项目2:向量检索HR制度智能问答系统
子主题
实战项目3:向量检索医疗实体命名实战
:V0.3重构:LangChain
什么是开发框架
什么是langchain、它的意义是什么?
LangChain的核心组件
模型I/O封装
LLMs and Chat models
Prompt templates 提示模板
少样本示例
格式化提示模板
组合提示
Example selectors 示例选择器
Output parsers 输出解析器
数据连接(Data & Connection)
Document loaders文档加载
Retrievers检索
文本向量化实现方式
与AI共舞的向量数据库
文档转换切割
实践: 金融数据提取总结
Vector stores向量存储
Message histories记忆封装
多种内置链的介绍与使用
Memory工具的使用
为链增加Memory
实践:多轮对话历史记录
Tools/Toolkits
预制工具
自定义工具
链(chain)
LCEL表达式
LCEL Runnable 协议设计与使用
LCEL进阶使用:整合复杂逻辑的多链
LCEL添加记忆
基于LangChain的Advanced-RAG
商业化RAG痛点分析与优化方案实践
RAG商业化痛点分析
文档加载准确性和效率
文档切分的粒度
错过排名靠前的文档
提取上下文与答案无关
格式错误
答案不完整
未提取到答案
答案太具体或太笼统
幻觉问题
索引优化方案实践
检索前优化
改善数据细节度
混合检索
问题转换
检索中优化
摘要索引
元数据索引
父子索引
假设性问题索引
检索后优化
召回重排
知识融合
信息压缩
RAG应用评估
RAG效果评估
质量指标
上下文相关性
答案忠实度
答案相关性
能力指标
对噪声的鲁棒性
负面信息的排除能力
信息整合能力
面对假设情况的健壮性
评估工具
RAGS
https://github.com/explodinggradients/ragas
ARES
https://github.com/stanford-futuredata/ARES
TruLens
https://github.com/truera/trulens
更新内容: GraphRAG
知识图谱
GraphRAG原理
概述
工作流
索引建立
概述
数据流
文档分块
提取图节点
社区检测
社区摘要
文档处理
文本嵌入
查询
生成
应用场景
项目部署
RAG开源项目剖析
RAGFlow应用分析
FastGPT应用分析
Dify应用分析
实战:基于Dify实现数据库智能查询
实战项目4:通用文档智能问答系统商业化实战
L3级别:大模型Agent应用架构进阶
更新内容:LLamaIndex
Llamaindex初识
Llamaindex是啥
Llamaindex快速入门
什么是代理?
工作流是什么?
什么是上下文增强?
RAG Pipeline
Loading
Documents s
Node
节点解析器
独立使用
变化使用
数据连接器
节点解析器
文件节点解析器
HTML 节点解析器
JSON 节点解析器
Markdown 节点解析器
文本分割器
代码分割器
语言链节点解析器
句子分割器
语义分割节点解析器
分词文本分割器
Indexing
向量存储索引
组合检索
属性图索引
简单 LLM 路径提取器
隐式路径提取器
动态路径提取器
文件索引管理
Insertion 插入
Deletion 删除
Update 更新
Refresh 刷新
Document Tracking 文档跟踪
元数据提取
自定义提取器
Storing
向量存储
文档存储
索引存储
键值存储
自定义存储
Querying
查询引擎
聊天引擎
Evaluation
响应评估
响应忠实度
评估查询+响应相关性
问题生成
批量评估
deepeval深度评估
Workflow
核心组件
定义工作流事件
设置工作流程类
工作流入口点
工作流程退出
绘制工作流程
全局上下文/状态协同
多事件等待
手动事情触发
人机协同
逐步执行
检查点工作流程
部署工作流
Workflow管道
基本工作流
工作流分支与循环
状态维护
流媒体事件
并发执行
子类化工作流
嵌套工作流
可视化工作流
分支主题
Agents关键技术分析
Agents概述与应用场景
Agents流程、决策图
规划(Planning)
子任务拆解
反思与改进
记忆(Memory)
工具使用(Tools)
预制工具(Tool)
预制工具集(Toolkits)
自定义工具
执行(Action)
Funcation Calling
Function Calling的诞生背景
如何理解Function Calling
Function Calling的实现过程
远程Function Calling调用
支持Function Calling的国产模型
实践:Function Calling数据库查询
实践:多Function Calling旅游规划实战
Agent认知框架
ReAct思考-行动-观察
Plan-and-Execute
Self-Ask
Thinking and Self-Refection
实践: 结合ReAct 理论与 Agent 项目实战
实践: 财务报表的数据分析Agent
实战项目5:命理Agent机器人
多Agent系统
AutoGen
CrewAI
实战项目6:模拟面试机器人
更新内容:LangGraph
LangGraph前置知识
初识LangGraph
langgraph定义
为什么用langgraph
langgraph本质
LangChain与langgraph的区别
LangGraph安装与使用
LangGraph基本概念与核心术语
基本概念
Graphs 图
状态图
编译图
State 状态
Schema模示
Multiple schemas 多模式
Reducers 归约器
MessagesState 消息状态
Serialization 序列化
Nodes 节点
START Node 节点
END Node 节点
Edges 边缘
Normal Edges 正常边
Conditional Edges 条件边
Entry Point 入口点
Conditional Entry Point 条件入口点
核心术语
Send
Command
Human-in-the-loop 人机交互
Persistence 持久性
Threads 线程
Storage 存储
Graph Migrations 图迁移
interrupt 中断
Breakpoints 断点
Subgraphs 子图
Visualization 可视化
Streaming 流媒体
LangGraph实践与延展
Graph API
节点状态更新
创建多步骤
分支并行化
细粒度控制
Map-Reduce 分支
子图节点跳转
节点重试
持久性
添加线程级持久性
使用数据库检查点器实现持久化
自定义检查点器
Memory
管理聊天历史
添加总结对话记忆
如何添加长期记忆(跨线程)
如何使用语义搜索进行长期记忆
Human-in-the-loop 人机交互
关键工作流程
如何等待用户输入
如何审查工具调用
Time Travel
查看和更新过去的图状态
Tool calling
ToolNode的使用
传递配置给工具
如何处理大量工具
如何从工具更新图状态
基于LangGraph基本聊天机器人
搭建机器人
使用工具增强聊天机器人
为聊天机器人添加内存
给机器人添加人机交互
自定义状态
Langgraph Agent架构
Multi-agent
如何实现Agent通讯
如何构建多智能体网络
定义工具
创建图
定义代理节点
定义图
多智能体监督器
创建工具
Agent Supervisor
构建图与调用Agent Teams
层次化Agent Teams
Planning Agents
Plan-and-Execute
Reasoning without Observation
LLMCompiler
Reflection & Critique
Basic Reflection
Reflexion
Tree of Thoughts
Language Agent Tree Search
Self-Discover Agent
可视化开发框架/Agent IDE介绍(产品经理首选)
Coze扣子
Coze概述
Coze是什么
Coze能做什么
注册账号
功能与优势
插件
工作流
什么是工作流
工作流和对话流的区别
工作流在Coze中的表现形式
使用工作流——文章总结
图像流
什么是图像流
使用图像流——正装形象生成器
知识库
什么是知识库
为什么需要知识库
上传知识库
使用知识库
数据库
什么是数据库
使用数据库——访客管理系统
Coze实战:AI资讯助手
实战项目7:基于LangGraph的旅游规划智能体
DeepSeek应用开发专题课「智用双驱:AI技术的认知升维与实战下沉」
DeepSeek简介——国产AI黑马
DeepSeek初识
DeepSeek能力图谱
DeepSeek发展历程
DeepSeek模型性能
DeepSeek模型列表
DeepSeek接口文档
DeepSeek在线体验渠道——全场景触达的四大入口
官方推荐
硅基流动
纳米搜索
腾讯天元
DeepSeek的秘密武器——多维赋能体系
V3-总框架
MLA架构解析
MoE架构解析
MTP架构分析
R1系列-总框架
R1-Zero框架解析
R1框架解析
Ri-Distill(蒸馏)框架解析
R1-Zero训练模板&奖励设计思路分析
R1冷启动分析
GRPO
分组相对策略优化机制
训练目标的拆分
FP8混合精度量化
强化学习
DeepSeek提示词设计核心功能——极简主义实践
DeepSeek 提示词样例
代码改写
内容分类
文案大纲生成
结构化输出
翻译专家
角色扮演
保证提示清晰且具体
必要的上下文要提供
避免重复的“逐步思考”指示
通过指令控制回答长度与详细程度
对重要结论做验证
测试和迭代
Prompt模板
RAG技术价值与实施路径——知识增强的闭环架构
RAG的三大范式
RAG Pipeline
知识库构建
文档加载与分块
分块方案详解
Embeddings向量化
OpenAlEmbedding模型
向量相似度算法
向量数据库
向量数据库的作用
向量数据库服务搭建
Prompt上下文增强设计
DeepSeek+RAGflow本地部署——企业级AI基建新范式
Ollama
安装与使用
models下载
RAGflow
本地部署
模型文件配置
知识库建设
系统模型设置
DeepSeek API建设——开发者生态赋能引擎
Ollama本地 API建设
DeepSeek原生API建设
DeepSeek行业应用——垂直领域突破路径
金融行业
证券业务优化
保险科技
保险科技应用
医药健康
药物研发突破
医疗数据治理
医保管理革新
智能制造
工业流程优化
汽车智能化
内容生态
AIGC创作工具
文旅服务创新
L4级别:大模型微调与私有化部署
分支主题
Transformer结构理解
理解Self-Attention
理解Encoder与Decoder
Multi-head Attention
不同Decoding方法
分支主题
私有化大模型的必要性
国外开源模型生态
LLaMA系列模型私有化部署
Hugging Face平台解析
PyTorch平台分析
vLLM加速原理解释
OpenLLM应用实践
Ollama架构解析
国内开源模型生态
ChatGLM模型解析
Qwen大模型解析
DeepSeek V3/R1生态
开源模型的三种评估方式
开源软件质量评估
开源项目应用适配角度评估
开源模型生态的评估
开源模型应用场景与局限性
医疗行业的大模型分析
金融行业的大模型分析
教育行业的大模型分析
法律行业的大模型分析
其他行业的大模型分析
MoPaaS LLMOps 平台简介
私有化大模型部署
平台算力应用规则
实战案例:ChatGLM大模型在Ollama上的部署
分支主题
模型微调简介
针对性增强模型对某一任务/领域的理解
如何选择合适的基座模型
任务需求维度分析
数据特征维度解析
算力资源成本角度分析
基座模型本身性能分析
基座模型可解释性和可控性分析
模型生态和支持分析
数据集的收集与预处理
数据增强
数据清洗
数据去重
微调训练框架的选择
Hugging Face Transformers特点
PyTorch框架解析
DeepSpeed介绍
Llama-Factory
Llama-Factory平台功能分析
微调训练介绍
训练结果评估与优化
Swift 框架
Swift 框架介绍
支持的特性分析
分支主题
PEFT 主流技术介绍
Adapter Tuning
Prompt Tuning
Prefix Tuning
LoRA 低秩适配微调
算法原理解析
性能效果分析
LoRA 的改进和扩展
AdaLoRA自适应权重矩阵微调算法解析
QLoRA量化低秩适配微调算法解析
LongLoRA微调算法解析
Freeze微调
参数冻结原理解析
性能优缺点分析
大模型性能和能力评估
大模型评估框架
评估内容和标准
评估的目标
评估框架工具解析
HELM
SuperCLUE & C-Eval
MedBench
实战案例:ChatGLM在医疗领域的LoRA微调
分支主题
模型显存占用与量化技术简介
微调中GPU算力测算算法
GPU芯片性能分析
模型运行算力要求
Transformers 原生支持的大模型量化算法
PTQ
PQT量化方法介绍
PQT量化方法的特点解析
PTQ量化方法的流程演示
QAT
QAT量化方法介绍
QAT量化方法的特点解析
QAT量化方法的流程演示
AWQ:激活感知权重量化算法
GPTQ:专为 GPT 设计的模型量化算法
模型量化对比实例
SmoothQuant
训练后量化方法解析
训练后量化核心观点
实战案例:ChatGLM的量化演示
内存优化效果演示
加快推理速度效果演示
降低计算资源效果演示
保持模型性能效果演示
分支主题
大模型应用工程
大模型AI工程平台 (MoPaaS)
打造私有化模型 --- 智能时代企业关键的 IP
私有化大模型部署LLaMA3.1 项目实践
分支主题
什么是多模态模型
多模态的应用场景
图像生成技术概述
BLIP2与QWEN2-VL
Chameleon
标准交叉注意力
Flamingo
定制融合层
CogVLM
案例:Video-LLaVA与多模态图像视频识别
微调大实战:基于LLaMA3.1-8B做医疗领域微调大实战
真实的医疗数据集
数据清洗技术应用
开源大模型做基座
LoRA微调应用
AdaLoRA微调应用
LongLoRA微调应用
0 条评论
下一页