●为预训练和微调寻找合适的用例和数据集
●使用定制的加速器和GPU,为大规模训练做好准备
●配置AWS和SageMaker环境,优选限度地提高性能
●根据模型和约束条件选择参数
●使用多种并行方式分发模型和数据集
●利用作业重启、间歇性健康检查等方式避开陷阱
●定性和定量地评估模型
●部署模型,在运行时进行改进和监控
图书 | Python预训练视觉和大语言模型 |
内容 | 内容推荐 ●为预训练和微调寻找合适的用例和数据集 ●使用定制的加速器和GPU,为大规模训练做好准备 ●配置AWS和SageMaker环境,优选限度地提高性能 ●根据模型和约束条件选择参数 ●使用多种并行方式分发模型和数据集 ●利用作业重启、间歇性健康检查等方式避开陷阱 ●定性和定量地评估模型 ●部署模型,在运行时进行改进和监控 目录 第I部分 预训练前 第1章 预训练基础模型简介3 1.1预训练和微调艺术4 1.2Transformer模型架构和自注意力6 1.3先进的视觉模型和语言模型8 1.3.1截至2023年4月的视觉模型9 1.3.2对比预训练与自然语言监督11 1.3.3截至2023年4月的语言模型12 1.3.4语言技术重点——因果建模和缩放法则14 1.4编码器和解码器15 1.5本章小结17 第2章 数据集准备:第1部分19 2.1为基础建模寻找数据集和用例19 2.2你的数据集有多大区别23 2.2.1使用缩放法则调整数据集的大小25 2.2.2基础——神经语言模型的缩放法则26 2.3偏差检测和减少28 2.4增强数据集——多语言、多模态和增强30 2.5本章小结32 第3章 模型准备35 …… |
标签 | |
缩略图 | ![]() |
书名 | Python预训练视觉和大语言模型 |
副书名 | |
原作名 | |
作者 | (美)艾米丽·韦伯(Emily Webber) |
译者 | |
编者 | |
绘者 | |
出版社 | 清华大学出版社 |
商品编码(ISBN) | 9787302678311 |
开本 | 32开 |
页数 | 260 |
版次 | 1 |
装订 | |
字数 | 265000 |
出版时间 | 2025-01-01 |
首版时间 | |
印刷时间 | 2025-01-01 |
正文语种 | |
读者对象 | |
适用范围 | |
发行范围 | |
发行模式 | 实体书 |
首发网站 | |
连载网址 | |
图书大类 | 教育考试-考试-计算机类 |
图书小类 | |
重量 | |
CIP核字 | |
中图分类号 | TP312.8,TP391 |
丛书名 | |
印张 | |
印次 | 1 |
出版地 | |
长 | |
宽 | |
高 | |
整理 | |
媒质 | |
用纸 | |
是否注音 | |
影印版本 | |
出版商国别 | |
是否套装 | |
著作权合同登记号 | |
版权提供者 | |
定价 | |
印数 | |
出品方 | |
作品荣誉 | |
主角 | |
配角 | |
其他角色 | |
一句话简介 | |
立意 | |
作品视角 | |
所属系列 | |
文章进度 | |
内容简介 | |
作者简介 | |
目录 | |
文摘 | |
安全警示 | 适度休息有益身心健康,请勿长期沉迷于阅读小说。 |
随便看 |
|
兰台网图书档案馆全面收录古今中外各种图书,详细介绍图书的基本信息及目录、摘要等图书资料。