307分钟

大模型开发部署全攻略之大语言模型原理

大模型开发部署全攻略之大语言模型原理

在AI 2.0时代,大语言模型已成为企业智能化转型的关键技术,但行业普遍面临模型训练资源消耗大、交互设计复杂、生成内容可控性低等痛点。同时,多模态技术的兴起,进一步要求从业者不仅精通NLP,还需理解跨…

课程分类
人工智能 | 技术开发
适用人群
工程师, 专家, 研究员
课程标签
大模型原理,Transformer,模型架构
在AI 2.0时代,大语言模型已成为企业智能化转型的关键技术,但行业普遍面临模型训练资源消耗大、交互设计复杂、生成内容可控性低等痛点。同时,多模态技术的兴起,进一步要求从业者不仅精通NLP,还需理解跨模态模型的融合与应用。 为此,三节课联合一线AI研究院负责人李晓华老师,精心打造《大模型语言原理与框架》。 课程涵盖从理论到实战的全链路内容,结合最新行业案例,帮助学员突破技术瓶颈。 本课程系统讲解Transformer架构、大模型环境搭建、参数优化及生成式AI设计,并深入分析ChatGPT等典型模型。学员将掌握大模型的训练、推理与部署技巧,提升在搜索、对话、内容生成等场景的实战能力,为企业降本增效提供技术支撑。
第一章 Transformer基础与论文分析 - Transformer基础与论文分析(上) - Transformer基础与论文分析(下) 第二章 Transformer Encoder与Decoder模块详解 - Transformer Encoder与Decoder模块详解(上) - Transformer Encoder与Decoder模块详解(下) 第三章 Transformer图解与代码分析 - Transformer图解与代码分析 第四章 大模型核心架构与国内大模型概览 - 大模型核心架构与国内大模型概览(上) - 大模型核心架构与国内大模型概览(下) 第五章 大模型运行环境搭建与模型加载 - 大模型运行环境搭建与模型加载(上) - 大模型运行环境搭建与模型加载(中) - 大模型运行环境搭建与模型加载(下) 第六章 大模型参数量计算、交互设计与生成原理 - 大模型参数量计算、交互设计与生成原理(上) - 大模型参数量计算、交互设计与生成原理(下) 第七章 特定大模型分析 - 特定大模型分析(上) - 特定大模型分析(中) - 特定大模型分析(下)
李晓华

李晓华

夏威夷太平洋大学 AI硕士 副讲师