307分钟
大模型开发部署全攻略之大语言模型原理
在AI 2.0时代,大语言模型已成为企业智能化转型的关键技术,但行业普遍面临模型训练资源消耗大、交互设计复杂、生成内容可控性低等痛点。同时,多模态技术的兴起,进一步要求从业者不仅精通NLP,还需理解跨…
在AI 2.0时代,大语言模型已成为企业智能化转型的关键技术,但行业普遍面临模型训练资源消耗大、交互设计复杂、生成内容可控性低等痛点。同时,多模态技术的兴起,进一步要求从业者不仅精通NLP,还需理解跨模态模型的融合与应用。
为此,三节课联合一线AI研究院负责人李晓华老师,精心打造《大模型语言原理与框架》。 课程涵盖从理论到实战的全链路内容,结合最新行业案例,帮助学员突破技术瓶颈。
本课程系统讲解Transformer架构、大模型环境搭建、参数优化及生成式AI设计,并深入分析ChatGPT等典型模型。学员将掌握大模型的训练、推理与部署技巧,提升在搜索、对话、内容生成等场景的实战能力,为企业降本增效提供技术支撑。
第一章 Transformer基础与论文分析
- Transformer基础与论文分析(上)
- Transformer基础与论文分析(下)
第二章 Transformer Encoder与Decoder模块详解
- Transformer Encoder与Decoder模块详解(上)
- Transformer Encoder与Decoder模块详解(下)
第三章 Transformer图解与代码分析
- Transformer图解与代码分析
第四章 大模型核心架构与国内大模型概览
- 大模型核心架构与国内大模型概览(上)
- 大模型核心架构与国内大模型概览(下)
第五章 大模型运行环境搭建与模型加载
- 大模型运行环境搭建与模型加载(上)
- 大模型运行环境搭建与模型加载(中)
- 大模型运行环境搭建与模型加载(下)
第六章 大模型参数量计算、交互设计与生成原理
- 大模型参数量计算、交互设计与生成原理(上)
- 大模型参数量计算、交互设计与生成原理(下)
第七章 特定大模型分析
- 特定大模型分析(上)
- 特定大模型分析(中)
- 特定大模型分析(下)
李晓华
夏威夷太平洋大学 AI硕士 副讲师