• 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
  • 深度学习:从基础到实践(全2册)
21年品牌 40万+商家 超1.5亿件商品

深度学习:从基础到实践(全2册)

全新正版 极速发货

85.82 4.3折 199.8 全新

库存28件

广东广州
认证卖家担保交易快速发货售后保障

作者(美)安德鲁·格拉斯纳

出版社人民邮电出版社

ISBN9787115554512

出版时间2022-12

装帧平装

开本16开

定价199.8元

货号1202771567

上书时间2024-07-02

曲奇书店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。”

目录
《深度学习:从基础到实践.上册》

第1章机器学习与深度学习入门1

1.1为什么这一章出现在这里1

1.1.1从数据中提取含义1

1.1.2专家系统3

1.2从标记数据中学习4

1.2.1一种学习策略5

1.2.2一种计算机化的学习策略6

1.2.3泛化8

1.2.4让我们仔细看看学习过程9

1.3监督学习10

1.3.1分类10

1.3.2回归11

1.4无监督学习12

1.4.1聚类13

1.4.2降噪13

1.4.3降维14

1.5生成器16

1.6强化学习18

1.7深度学习19

1.8接下来会讲什么22

参考资料22

第2章随机性与基础统计学24

2.1为什么这一章出现在这里24

2.2随机变量24

2.3一些常见的分布29

2.3.1均匀分布30

2.3.2正态分布31

2.3.3伯努利分布34

2.3.4多项式分布34

2.3.5期望值35

2.4独立性35

2.5抽样与放回36

2.5.1有放回抽样36

2.5.2无放回抽样37

2.5.3做选择38

2.6Bootstrapping算法38

2.7高维空间41

2.8协方差和相关性43

2.8.1协方差43

2.8.2相关性44

2.9Anscombe四重奏47

参考资料48

第3章概率50

3.1为什么这一章出现在这里50

3.2飞镖游戏50

3.3初级概率学52

3.4条件概率52

3.5联合概率55

3.6边际概率57

3.7测量的正确性58

3.7.1样本分类58

3.7.2混淆矩阵60

3.7.3混淆矩阵的解释62

3.7.4允许错误分类64

3.7.5准确率65

3.7.6精度66

3.7.7召回率67

3.7.8关于精度和召回率68

3.7.9其他方法69

3.7.10同时使用精度和召回率71

3.7.11f1分数72

3.8混淆矩阵的应用73

参考资料77

第4章贝叶斯定理78

4.1为什么这一章出现在这里78

4.2频率论者法则以及贝叶斯法则78

4.2.1频率论者法则79

4.2.2贝叶斯法则79

4.2.3讨论79

4.3抛硬币80

4.4这枚硬币公平吗81

4.4.1贝叶斯定理86

4.4.2贝叶斯定理的注意事项87

4.5生活中的贝叶斯定理89

4.6重复贝叶斯定理91

4.6.1后验-先验循环92

4.6.2例子:挑到的是哪种硬币93

4.7多个假设97

参考资料101

第5章曲线和曲面102

5.1为什么这一章出现在这里102

5.2引言102

5.3导数103

5.4梯度108

参考资料112

第6章信息论113

6.1为什么这一章出现在这里113

6.2意外程度与语境113

6.2.1意外程度114

6.2.2语境114

6.3用比特作为单位115

6.4衡量信息116

6.5事件的大小117

6.6自适应编码117

6.7熵122

6.8交叉熵123

6.8.1两种自适应编码123

6.8.2混合编码125

6.9KL散度127

参考资料128

第7章分类130

7.1为什么这一章出现在这里130

7.2二维分类130

7.3二维多分类134

7.4多维二元分类135

7.4.1one-versus-rest135

7.4.2one-versus-one136

7.5聚类138

7.6维度灾难141

参考资料149

第8章训练与测试150

8.1为什么这一章出现在这里150

8.2训练150

8.3测试数据153

8.4验证数据156

8.5交叉验证157

8.6对测试结果的利用160

参考资料161

第9章过拟合与欠拟合162

9.1为什么这一章出现在这里162

9.2过拟合与欠拟合162

9.2.1过拟合162

9.2.2欠拟合164

9.3过拟合数据164

9.4及早停止167

9.5正则化168

9.6偏差与方差169

9.6.1匹配潜在数据170

9.6.2高偏差,低方差172

9.6.3低偏差,高方差173

9.6.4比较这些曲线173

9.7用贝叶斯法则进行线拟合175

参考资料179

第10章神经元181

10.1为什么这一章出现在这里181

10.2真实神经元181

10.3人工神经元182

10.3.1感知机183

10.3.2感知机的历史183

10.3.3现代人工神经元184

10.4小结188

参考资料188

第11章学习与推理190

11.1为什么这一章出现在这里190

11.2学习的步骤190

11.2.1表示190

11.2.2评估192

11.2.3优化193

11.3演绎和归纳193

11.4演绎194

11.5归纳199

11.5.1机器学习中的归纳术语201

11.5.2归纳谬误202

11.6组合推理203

11.7操作条件204

参考资料206

第12章数据准备208

12.1为什么这一章出现在这里208

12.2数据变换208

12.3数据类型210

12.4数据清理基础212

12.4.1数据清理212

12.4.2现实中的数据清理213

12.5归一化和标准化213

12.5.1归一化213

12.5.2标准化214

12.5.3保存数据的转换方式215

12.5.4转换方式216

12.6特征选择217

12.7降维217

12.7.1主成分分析217

12.7.2图像的标准化和PCA222

12.8转换226

12.9切片处理229

12.9.1逐样本处理230

12.9.2逐特征处理230

12.9.3逐元素处理231

12.10交叉验证转换232

参考资料234

第13章分类器236

13.1为什么这一章出现在这里236

13.2分类器的种类236

13.3k近邻法237

13.4支持向量机241

13.5决策树247

13.5.1构建决策树250

13.5.2分离节点253

13.5.3控制过拟合255

13.6朴素贝叶斯255

13.7讨论259

参考资料260

第14章集成算法261

14.1为什么这一章出现在这里261

14.2集成方法261

14.3投票262

14.4套袋算法262

14.5随机森林264

14.6特别随机树265

14.7增强算法265

参考资料270

第15章scikit-learn272

15.1为什么这一章出现在这里272

15.2介绍273

15.3Python约定273

15.4估算器276

15.4.1创建276

15.4.2学习fit()用法277

15.4.3用predict()预测278

15.4.4decision_function(),predict_proba()279

15.5聚类279

15.6变换282

15.7数据精化286

15.8集成器288

15.9自动化290

15.9.1交叉验证290

15.9.2超参数搜索292

15.9.3枚举型网格搜索294

15.9.4随机型网格搜索300

15.9.5pipeline300

15.9.6决策边界307

15.9.7流水线式变换308

15.10数据集309

15.11实用工具311

15.12结束语312

参考资料312

第16章前馈网络314

16.1为什么这一章出现在这里314

16.2神经网络图314

16.3同步与异步流316

16.4权重初始化317

参考资料320

第17章激活函数321

17.1为什么这一章出现在这里321

17.2激活函数可以做什么321

17.3基本的激活函数324

17.3.1线性函数324

17.3.2阶梯状函数325

17.4阶跃函数325

17.5分段线性函数327

17.6光滑函数329

17.7激活函数画廊333

17.8归一化指数函数333

参考资料335

第18章反向传播336

18.1为什么这一章出现在这里336

18.2一种非常慢的学习方式337

18.2.1缓慢的学习方式339

18.2.2更快的学习方式340

18.3现在没有激活函数341

18.4神经元输出和网络误差342

18.5微小的神经网络345

18.6第1步:输出神经元的delta347

18.7第2步:使用delta改变权重353

18.8第3步:其他神经元的delta356

18.9实际应用中的反向传播359

18.10使用激活函数363

18.11学习率367

18.12讨论374

18.12.1在一个地方的反向传播374

18.12.2反向传播不做什么374

18.12.3反向传播做什么375

18.12.4保持神经元快乐375

18.12.5小批量377

18.12.6并行更新378

18.12.7为什么反向传播很有吸引力378

18.12.8反向传播并不是有保证的379

18.12.9一点历史379

18.12.10深入研究数学380

参考资料381

第19章优化器383

19.1为什么这一章出现在这里383

19.2几何误差383

19.2.1最小值、优选值、平台和鞍部383

19.2.2作为二维曲线的误差386

19.3调整学习率388

19.3.1固定大小的更新388

19.3.2随时间改变学习率394

19.3.3衰减规划396

19.4更新策略398

19.4.1批梯度下降398

19.4.2随机梯度下降400

19.4.3minibatch梯度下降401

19.5梯度下降变体403

19.5.1动量403

19.5.2Nesterov动量408

19.5.3Adagrad410

19.5.4Adadelta和RMSprop411

19.5.5Adam413

19.6优化器选择414

参考资料415

《深度学习:从基础到实践.下册》

第20章深度学习417

20.1为什么这一章出现在这里417

20.2深度学习概述417

20.3输入层和输出层419

20.3.1输入层419

20.3.2输出层420

20.4深度学习层纵览420

20.4.1全连接层421

20.4.2激活函数421

20.4.3dropout422

20.4.4批归一化423

20.4.5卷积层424

20.4.6池化层425

20.4.7循环层426

20.4.8其他工具层427

20.5层和图形符号总结428

20.6一些例子429

20.7构建一个深度学习器434

20.8解释结果435

参考资料440

第21章卷积神经网络441

21.1为什么这一章出现在这里441

21.2介绍441

21.2.1“深度”的两重含义442

21.2.2放缩后的值之和443

21.2.3权重共享445

21.2.4局部感知域446

21.2.5卷积核447

21.3卷积447

21.3.1过滤器450

21.3.2复眼视图452

21.3.3过滤器的层次结构453

21.3.4填充458

21.3.5步幅459

21.4高维卷积462

21.4.1具有多个通道的过滤器463

21.4.2层次结构的步幅465

21.5一维卷积466

21.61×1卷积466

21.7卷积层468

21.8转置卷积469

21.9卷积网络样例472

21.9.1VGG16475

21.9.2有关过滤器的其他内容:第1部分477

21.9.3有关过滤器的其他内容:第2部分481

21.10对手483

参考资料485

第22章循环神经网络488

22.1为什么这一章出现在这里488

22.2引言489

22.3状态490

22.4RNN单元的结构494

22.4.1具有更多状态的单元496

22.4.2状态值的解释498

22.5组织输入498

22.6训练RNN500

22.7LSTM和GRU502

22.7.1门503

22.7.2LSTM505

22.8RNN的结构508

22.8.1单个或多个输入和输出508

22.8.2深度RNN510

22.8.3双向RNN511

22.8.4深度双向RNN512

22.9一个例子513

参考资料517

第23章Keras第1部分520

23.1为什么这一章出现在这里520

23.1.1本章结构520

23.1.2笔记本521

23.1.3Python警告521

23.2库和调试521

23.2.1版本和编程风格522

23.2.2Python编程和调试522

23.3概述523

23.3.1什么是模型524

23.3.2张量和数组524

23.3.3设置Keras524

23.3.4张量图像的形状525

23.3.5GPU和其他加速器527

23.4准备开始528

23.5准备数据530

23.5.1重塑530

23.5.2加载数据536

23.5.3查看数据537

23.5.4训练-测试拆分541

23.5.5修复数据类型541

23.5.6归一化数据542

23.5.7固定标签544

23.5.8在同一个地方进行预处理547

23.6制作模型548

23.6.1将网格转换为列表548

23.6.2创建模型550

23.6.3编译模型554

23.6.4模型创建摘要556

23.7训练模型557

23.8训练和使用模型559

23.8.1查看输出560

23.8.2预测562

23.8.3训练历史分析566

23.9保存和加载567

23.9.1将所有内容保存在一个文件中567

23.9.2仅保存权重568

23.9.3仅保存架构568

23.9.4使用预训练模型569

23.9.5保存预处理步骤569

23.10回调函数570

23.10.1检查点570

23.10.2学习率572

23.10.3及早停止573

参考资料575

第24章Keras第2部分577

24.1为什么这一章出现在这里577

24.2改进模型577

24.2.1超参数计数577

24.2.2改变一个超参数578

24.2.3其他改进方法580

24.2.4再增加一个全连接层581

24.2.5少即是多582

24.2.6添加dropout584

24.2.7观察587

24.3使用scikit-learn588

24.3.1Keras包装器588

24.3.2交叉验证591

24.3.3归一化交叉验证594

24.3.4超参数搜索596

24.4卷积网络602

24.4.1工具层603

24.4.2为CNN准备数据604

24.4.3卷积层606

24.4.4对MNIST使用卷积611

24.4.5模式619

24.4.6图像数据增强621

24.4.7合成数据623

24.4.8CNN的参数搜索624

24.5RNN624

24.5.1生成序列数据625

24.5.2RNN数据准备627

24.5.3创建并训练RNN631

24.5.4分析RNN性能634

24.5.5一个更复杂的数据集639

24.5.6深度RNN641

24.5.7更多数据的价值643

24.5.8返回序列646

24.5.9有状态的RNN649

24.5.10时间分布层650

24.5.11生成文本653

24.6函数式API658

24.6.1输入层659

24.6.2制作函数式模型660

参考资料664

第25章自编码器665

25.1为什么这一章出现在这里665

25.2引言666

25.2.1有损编码和无损编码666

25.2.2区域编码667

25.2.3混合展示669

25.3最简单的自编码器671

25.4更好的自编码器675

25.5探索自编码器677

25.5.1深入地观察隐藏变量677

25.5.2参数空间679

25.5.3混合隐藏变量683

25.5.4对不同类型的输入进行预测684

25.6讨论685

25.7卷积自编码器685

25.7.1混合卷积自编码器中的隐藏变量688

25.7.2在CNN中对不同类型的输入进行预测689

25.8降噪689

25.9VAE691

25.9.1隐藏变量的分布691

25.9.2VAE的结构692

25.10探索VAE697

参考资料703

第26章强化学习704

26.1为什么这一章出现在这里704

26.2目标704

26.3强化学习的结构708

26.3.1步骤1:智能体选择一个动作709

26.3.2步骤2:环境做出响应710

26.3.3步骤3:智能体进行自我更新711

26.3.4简单版本的变体712

26.3.5回到主体部分713

26.3.6保存经验714

26.3.7奖励714

26.4翻转718

26.5L学习719

26.6Q学习728

26.6.1Q值与更新729

26.6.2Q学习策略731

26.6.3把所有东西放在一起732

26.6.4显而易见而又被忽略的事实733

26.6.5Q

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP