首页  软件  游戏  图书  电影  电视剧

请输入您要查询的图书:

 

图书 GPT图解(大模型是怎样构建的)
内容
内容推荐
人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2S),注意力机制,Transformer,从初代GPT到ChatGPT再到GPT-4等一系列突破性技术的诞生与演进。
本书将以生动活泼的笔触,将枯燥的技术细节化作轻松幽默的故事和缤纷多彩的图画,引领读者穿梭于不同技术的时空,见证自然语言处理技术的传承、演进与蜕变。在这场不断攀登技术新峰的奇妙之旅中,读者不仅能深入理解自然语言处理技术的核心原理,还能自己动手,从零开始搭建起一个又一个语言模型。
无论你是在校学生还是人工智能从业者,这本书都将成为一盏明灯,照亮你探索人工智能无限奥秘的道路。
作者简介
黄佳,人称咖哥,埃森哲公司资深顾问,在IT界耕耘近二十载,自诩为一朵有“后浪”心态的“前浪”。为人谦虚,好学,有时也好为人师。曾撰写一系列SAPERP书籍,启蒙了大批中国早期ABAP技术人才。近年来投身数据科学、人工智能及云计算领域,愿将自己的所学所感与大家分享。
目录
序章 看似寻常最奇崛,成如容易却艰辛
GPT-4:点亮人工通用智能的火花
人工智能演进之路:神经网络两落三起
现代自然语言处理:从规则到统计
何为语言?信息又如何传播?
NLP是人类和计算机沟通的桥梁
NLP技术的演进史
大规模预训练语言模型:BERT与GPT争锋
语言模型的诞生和进化
统计语言模型的发展历程
基于Transformer架构的预训练模型
“预训练+微调大模型”的模式
以提示指令模式直接使用大模型
从初代GPT到ChatGPT,再到GPT-
GPT作为生成式模型的天然优势
ChatGPT背后的推手——OpenAI
从初代GPT到ChatGPT,再到GPT-4的进化史
第1课 高楼万丈平地起:语言模型的雏形N-Gram和简单文本表示Bag-of-Words
1.1 N-Gram模型
1.2 “词”是什么,如何“分词”
1.3 创建一个Bigram字符预测模型
1.4 词袋模型
1.5 用词袋模型计算文本相似度
小结
思考
第2课 问君文本何所似:词的向量表示Word2Vec和Embedding
2.1 词向量≈词嵌入
2.2 Word2Vec:CBOW模型和Skip-Gram模型
2.3 Skip-Gram模型的代码实现
2.4 CBOW模型的代码实现
2.5 通过nn.Embedding来实现词嵌入
小结
思考
第3课 山重水复疑无路:神经概率语言模型和循环神经网络
3.1 NPLM的起源
3.2 NPLM的实现
3.3 循环神经网络的结构
3.4 循环神经网络实战
小结
思考
第4课 柳暗花明又一村:Seq2Seq编码器-解码器架构
4.1 Seq2Seq架构
4.2 构建简单Seq2Seq架构
小结
思考
第5课 见微知著开慧眼:引入注意力机制
5.1 点积注意力
5.2 缩放点积注意力
5.3 编码器-解码器注意力
5.4 注意力机制中的Q、K、V
5.5 自注意力
5.6 多头自注意力
5.7 注意力掩码
5.8 其他类型的注意力
小结
思考
第6课 层峦叠翠上青天:搭建GPT核心组件Transformer
6.1 Transformer架构剖析
6.1.1 编码器-解码器架构
6.1.2 各种注意力的应用
6.1.3 编码器的输入和位置编码
6.1.4 编码器的内部结构
6.1.5 编码器的输出和编码器-解码器的连接
6.1.6 解码器的输入和位置编码
6.1.7 解码器的内部结构
6.1.8 解码器的输出和Transformer的输出头
6.2 Transformer代码实现
6.3 完成翻译任务
6.3.1 数据准备
6.3.2 训练Transformer模型
6.3.3 测试Transformer模型
小结
思考
第7课 芳林新叶催陈叶:训练出你的简版生成式GPT
7.1 BERT与GPT争锋
7.2 GPT:生成式自回归模型
7.3 构建GPT模型并完成文本生成任务
7.3.1 搭建GPT模型(解码器)
7.3.2 构建文本生成任务的数据集
7.3.3 训练过程中的自回归
7.3.4 文本生成中的自回归(贪婪搜索)
7.4 使用WikiText2数据集训练Wiki-GPT模型
7.4.1 用WikiText2构建Dataset和DataLoader
7.4.2 用DataLoader提供的数据进行训练
7.4.3 用Evaluation Dataset评估训练过程
7.4.4 文本生成中的自回归(集束搜索)
小结
思考
第8课 流水后波推前波:ChatGPT基于人类反馈的强化学习
8.1 从GPT到ChatGPT
8.2 在Wiki-GPT基础上训练自己的简版ChatGPT
8.3 用Hugging Face预训练GPT微调ChatGPT
8.4 ChatGPT的RLHF实战
8.4.1 强化学习基础知识
8.4.2 简单RLHF实战
小结
思考
第9课 生生不息的循环:使用强大的GPT-4 API
9.1 强大的OpenAI API
9.2 使用GPT-4 API
小结
思考
后记 莫等闲,白了少年头
标签
缩略图
书名 GPT图解(大模型是怎样构建的)
副书名
原作名
作者 黄佳
译者
编者
绘者
出版社 人民邮电出版社
商品编码(ISBN) 9787115623683
开本 16开
页数 254
版次 1
装订 平装
字数 341
出版时间 2023-12-01
首版时间 2023-12-01
印刷时间 2023-12-01
正文语种
读者对象 普通大众
适用范围
发行范围 公开发行
发行模式 实体书
首发网站
连载网址
图书大类
图书小类
重量 440
CIP核字 2023194599
中图分类号 TP18-64
丛书名
印张 16.5
印次 1
出版地 北京
238
168
15
整理
媒质
用纸
是否注音
影印版本
出版商国别
是否套装
著作权合同登记号
版权提供者
定价
印数
出品方
作品荣誉
主角
配角
其他角色
一句话简介
立意
作品视角
所属系列
文章进度
内容简介
作者简介
目录
文摘
安全警示 适度休息有益身心健康,请勿长期沉迷于阅读小说。
随便看

 

兰台网图书档案馆全面收录古今中外各种图书,详细介绍图书的基本信息及目录、摘要等图书资料。

 

Copyright © 2004-2025 xlantai.com All Rights Reserved
更新时间:2025/5/13 8:57:22