关于我们
![]() ![]() |
从零开始写大模型
"《从零开始写大模型:从神经网络到Transformer》结合丰富的图示和程序示例,全面、系统地介绍大模型的基本原理,并通过一个极简大语言模型构建案例带领读者上手实践。本书学习门槛极低,即便零基础的读者,也能在本书的引领下比较轻松地掌握大模型的基本知识体系,并理解大模型的基本原理,从而为日后进一步学习打好基础。《从零开始写大模型:从神经网络到Transformer》提供配套教学视频、源代码和教学PPT等超值配套资源,以方便读者高效、直观地学习。
《从零开始写大模型:从神经网络到Transformer》共20章,分为5篇。第1篇神经网络快速入门,介绍神经网络的基础和结构;第2篇Transformer架构基础,介绍几种经典的编解码架构、Tokenization基础知识、Transformer架构涉及的数学概念;第3篇Transformer模型剖析,首先介绍大语言模型的概念和参数规模,然后介绍Transformer的词汇输入模块、注意力机制模块和输出模块,最后介绍基于Transformer架构的模型训练过程、推理过程、优化方法和超参数;第4篇Transformer进阶,首先介绍如何使用Python实现一个简单的Transformer架构,然后介绍BERT和GPT两种经典大语言模型,最后给出国内一些大公司的高频面试题;第5篇GPT模型完全体验之MiniMind,详细介绍一个开源极简大语言模型MiniMind的项目情况、代码结构,以及安装、训练、微调与推理过程等,带领读者体验大语言模型的完整构建过程。
《从零开始写大模型:从神经网络到Transformer》内容丰富,通俗易懂,案例典型,讲解深入浅出,特别适合零基础学习大模型的读者阅读,也适合IT领域或其他领域向AI转型但缺乏基础的程序员、工程师等相关从业人员阅读,还适合高等院校和培训机构作为大模型的入门教材或教学参考书。"
你还可能感兴趣
我要评论
|