• 人工智能实践教程――从Python入门到机器学习 邵一川 著 电子工
21年品牌 40万+商家 超1.5亿件商品

人工智能实践教程――从Python入门到机器学习 邵一川 著 电子工

正版二手书,无附赠品,择优发货

13.02 2.2折 59.9 八五品

库存6件

浙江杭州
认证卖家担保交易快速发货售后保障

作者邵一川 著

出版社电子工业出版社

ISBN9787121416606

出版时间2021-08

版次1

装帧平装

开本16开

纸张胶版纸

页数320页

定价59.9元

货号9787121416606

上书时间2024-10-03

现货12小时发货书店

三年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:八五品
商品描述
基本信息
书名:人工智能实践教程――从Python入门到机器学习
定价:59.90元
作者:邵一川 著
出版社:电子工业出版社
出版日期:2021-08-01
ISBN:9787121416606
字数:
页码:320
版次:
装帧:平装
开本:16开
商品重量:
编辑推荐

内容提要
本书分为三部分,部分介绍Python编程,包括Python基础、Python面向对象和Python高级编程;第二部分介绍机器学习,包括机器学习概述、机器学习?经典算法和机器学习?回归算法;第三部分介绍神经网络,包括从感知机到神经网络、神经网络?反向传播算法、神经网络的训练方法、卷积神经网络和项目实例-表情识别。从模型构造到模型训练,本书全面介绍了人工智能相关内容及人工智能在计算机视觉、自然语言处理中的应用,不仅阐述算法原理,还基于Python语言实现了算法。本书的每个知识点都给出了与之对应的程序,读者不但能直接阅读,而且可以运行程序,以获得交互式的学习体验。本书面向希望了解人工智能,特别是对实际应用人工智能感兴趣的本科生、研究生、工程师和研究人员,可作为高等院校人工智能课程的教材。
目录
目录部分  Python编程章  Python基础t31.1  Python简介及开发环境搭建t31.1.1  Python的安装t31.1.2  集成开发环境t41.2  Python变量标识符和关键字t71.2.1  变量定义t71.2.2  变量的类型t81.2.3  变量的命名t111.3  Python运算符t131.3.1  算术运算符t131.3.2  比较(关系)运算符t131.3.3  逻辑运算符t141.3.4  赋值运算符t141.3.5  运算符的优先级t141.4  Python分支与循环t151.4.1  条件语句t151.4.2  循环语句t171.4.3  随机数的处理t211.5  Python函数t221.5.1  函数定义t231.5.2  函数的参数t241.5.3  函数的返回值t251.5.4  函数作用域t261.5.5  匿名函数t271.5.6  内置函数t281.5.7  函数式编程t311.5.8  将函数存储在模块中t331.5.9  函数文档字符串t35第2章  Python面向对象t362.1  面向对象基本特征t362.2  类的定义t372.2.1  定义只包含方法的类t372.2.2  面向对象程序举例t372.3  self参数t372.3.1  给对象设置属性t382.3.2  理解self参数到底是什么t382.4  __init__方法t382.5  __str__方法t392.6  面向过程和面向对象t402.7  私有属性――封装t432.8  将实例用作属性-对象组合t432.9  类属性、类方法、静态方法t462.10  继承t492.11  __new__方法t522.12  所有Python类型的父类t532.13  单例模式t542.14  参数注解t54第3章  Python高级编程t563.1  Python闭包和装饰器t563.1.1  闭包t563.1.2  装饰器t573.1.3  被装饰的函数有返回值t603.1.4  装饰器带参数t613.1.5  多个装饰器装饰同一个函数t623.1.6  基于类实现的装饰器t633.2  Python可迭代对象、迭代器及生成器t643.2.1  可迭代对象t653.2.2  迭代器t683.2.3  生成器t713.3  Python内置方法t783.3.1  构造和初始化t783.3.2  属性访问控制t793.3.3  描述符t793.3.4  构造自定义容器(Container)t833.3.5  上下文管理器t843.3.6  比较运算t873.3.7  __str__和__repr__方法t893.3.8  内置方法之__call__t92第二部分  机器学习第4章  机器学习概述t954.1  机器学习分类t954.2  常用的机器学习算法t964.3  机器学习的步骤t974.3.1  问题定义t974.3.2  数据采集t984.3.3  数据准备t984.3.4  数据分割t994.3.5  算法的选择与训练t994.3.6  算法的使用t100第5章  机器学习?经典算法t1105.1  主成分分析t1105.1.1  主成分分析简介t1105.1.2  使用梯度上升法实现主成分分析t1135.1.3  选取数据的前k个主成分t1175.1.4  高维数据向低维数据映射t1205.1.5  使用主成分分析对数据进行降维可视化t1255.2  K-Means算法t1285.2.1  K-Means算法原理t1295.2.2  K-Means程序实例t1315.2.3  MiniBatch算法t1335.2.4  K-Means 算法分析t1345.3  KNN算法t1385.3.1  KNN算法的原理t1385.3.2  KNN算法程序实例t1385.4  梯度下降法t1405.4.1  一维梯度下降法t1405.4.2  多维梯度下降法t141第6章  机器学习?回归算法t1446.1  线性回归t1446.1.1  线性回归简介t1446.1.2  简单线性回归的二乘法推导过程t1456.1.3  衡量线性回归的指标t1506.1.4  多元线性回归简介t1576.2 多项式回归t1616.2.1  多项式回归的概念t1616.2.2  scikit-learn中的多项式回归和Pipelinet1656.2.3  过拟合和欠拟合t1666.2.4  训练数据和测试数据t1706.2.5  学习曲线t1726.2.6  交叉验证t1756.2.7  模型正则化t1796.2.8  岭回归和 LASSO 回归t179第三部分  神经网络第7章  从感知机到神经网络t1897.1  感知机t1897.1.1  简单逻辑电路t1907.1.2  感知机的实现t1917.1.3  感知机的局限性t1937.1.4  多层感知机t1957.2  神经网络t1977.2.1  神经网络举例t1977.2.2  感知机知识回顾t1977.2.3  激活函数初探t1987.3  激活函数t1997.3.1  阶跃函数t1997.3.2  Sigmoid函数t1997.3.3  阶跃函数的实现t2007.3.4  Sigmoid函数的实现t2017.3.5  比较Sigmoid函数和阶跃函数t2027.3.6  ReLU函数t2037.4  多维数组的运算t2047.4.1  多维数组t2047.4.2  矩阵乘法t2057.4.3  神经网络乘积t2077.5  神经网络的实现t2087.5.1  符号确认t2097.5.2  各层间信号传递的实现t2097.5.3  代码实现小结t2127.6  输出层的设计t2137.6.1  恒等函数和Softmax函数t2137.6.2  实现Softmax函数的注意事项t2147.6.3  Softmax函数的性质t2157.6.4  输出层的神经元数量t2167.7  手写数字识别t2167.7.1  MNIST数据集t2167.7.2  神经网络的推理处理t2187.7.3  批处理t220第8章  神经网络-反向传播算法t2228.1  计算图t2228.1.1  用计算图求解t2228.1.2  局部计算t2238.1.3  为何用计算图解决问题t2248.2  链式法则t2258.2.1  计算图的反向传播t2258.2.2  链式法则的原理t2258.2.3  链式法则和计算图t2268.3  反向传播t2278.3.1  加法节点的反向传播t2278.3.2  乘法节点的反向传播t2298.3.3  “苹果”的例子t2308.4  简单层的实现t2308.4.1  乘法层的实现t2318.4.2  加法层的实现t2328.5  激活函数层的实现t2338.5.1  ReLU层的实现t2338.5.2  Sigmoid层的实现t2348.6  Affine层和Softmax 层的实现t2378.6.1  Affine层的实现t2378.6.2  Softmax层的实现t2408.7  误差反向传播的实现t2428.7.1  神经网络的实现步骤t2428.7.2  误差反向传播的神经网络的实现t2428.7.3  误差反向传播的梯度确认t2458.7.4  误差反向传播的神经网络的学习t246第9章  神经网络的训练方法t2479.1  参数的更新t2479.1.1  化问题的困难之处t2479.1.2  随机梯度下降t2479.1.3  Momentum方法t2509.1.4  AdaGrad方法t2519.1.5  Adam方法t2539.1.6  选择参数更新方法t2539.2  权重初始值t2559.2.1  可以将权重初始值设为0吗t2559.2.2  隐藏层的激活值分布t2559.2.3  ReLU的权重初始值t2589.2.4  基于MNIST数据集的不同权重初始值的比较t2599.3  BatchNormalization算法t2609.3.1  算法原理t2609.3.2  算法评估t2619.4  正则化t2639.4.1  过拟合t2639.4.2  权重衰减t2649.4.3  Dropout方法t2659.5  超参数的验证t2679.5.1  验证数据t2679.5.2  超参数的化t2689.5.3  超参数化的实现t2690章  卷积神经网络t27110.1  整体结构t27110.2  卷积层t27210.2.1  全连接层存在的问题t27210.2.2  卷积运算t27210.2.3  填充t27410.2.4  步幅t27510.2.5  3维数据的卷积运算t27610.2.6  批处理t27810.3  池化层t27910.4  卷积层和池化层的实现t28110.4.1  问题简化t28110.4.2  卷积层的实现t28310.4.3  池化层的实现t28410.5  卷积神经网络的实现t28610.6  卷积神经网络的可视化t28910.6.1  卷积层权重的可视化t28910.6.2  基于分层结构的信息提取t29010.7  具有代表性的卷积神经网络t2911章  项目实例-表情识别t29311.1  典型的人脸表情识别数据集fer2013t29311.1.1  fer2013人脸表情数据集简介t29311.1.2  将表情图片提取出来t29411.2  加载fer2013数据集t29611.3  断点续训t29811.3.1  Checkpoint神经网络模型t29811.3.2  Checkpoint神经网络模型改进t29811.3.3  Checkpoint佳神经网络模型t30011.3.4  加载Checkpoint神经网络模型t30111.4  表情识别的PyTorch实现t30311.4.1  数据整理t30311.4.2  简单分析t30411.4.3 数据增强处理     30411.4.4  模型搭建t30511.4.5  对比几种模型的训练过程t306
作者介绍

序言

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP