Python机器学习算法

企业采购书卡请拔打028-83157469,团购书目请拨打19113427458(法定工作日9:00-17:00)

定  价 :
¥ 69.00
文 轩 价 :
¥57.30 (8.3折)
库  存 :
现在有货
作  者 :
赵志勇 著 著
所属分类 :
图书 > 行业职业 > 计算机 > 网络技术
促销活动 :
❤图书音像单笔满100减30!(特价图书、电子书除外)
❤老客户回馈,积分换礼券,购书更实惠
❤图书订单非新疆西藏地区包邮,新疆西藏运费每单20元
详情 >>
购买数量 :
- +
立即购买
服  务 :
由"文轩网"直接销售和发货,并提供售后服务
正品低价| 闪电发货|货到付款| 高效退换货
¥57.30 (8.3折)
  • 作 者: 赵志勇 著 著
  • 出版社: 电子工业出版社
  • 出版时间:2017-07-01
  • 开 本:16开
  • 页 数:343
  • 印刷时间:2017-07-01
  • 字 数:426千字
  • 装 帧:平装
  • 语  种:中文
  • 版 次:1
  • 印 次:1
  • I S B N:9787121313196

目录

0 绪论1
0.1 机器学习基础1
0.1.1 机器学习的概念1
0.1.2 机器学习算法的分类2
0.2 监督学习3
0.2.1 监督学习3
0.2.2 监督学习的流程3
0.2.3 监督学习算法4
0.3 无监督学习4
0.3.1 无监督学习4
0.3.2 无监督学习的流程4
0.3.3 无监督学习算法5
0.4 推荐系统和深度学习6
0.4.1 推荐系统6
0.4.2 深度学习6
0.5 Python和机器学习算法实践6
参考文献7
第一部分 分类算法
1 Logistic Regression10
1.1 Logistic Regression模型10
1.1.1 线性可分VS线性不可分10
1.1.2 Logistic Regression模型11
1.1.3 损失函数13
1.2 梯度下降法14
1.2.1 梯度下降法的流程14
1.2.2 凸优化与非凸优化15
1.2.3 利用梯度下降法训练Logistic Regression模型17
1.3 梯度下降法的若干问题18
1.3.1 选择下降的方向18
1.3.2 步长的选择19
1.4 Logistic Regression算法实践20
1.4.1 利用训练样本训练Logistic Regression模型20
1.4.2 最终的训练效果22
1.4.3 对新数据进行预测23
参考文献26
2 Softmax Regression27
2.1 多分类问题27
2.2 Softmax Regression算法模型28
2.2.1 Softmax Regression模型28
2.2.2 Softmax Regression算法的代价函数28
2.3 Softmax Regression算法的求解29
2.4 Softmax Regression与Logistic Regression的关系31
2.4.1 Softmax Regression中的参数特点31
2.4.2 由Softmax Regression到Logistic Regression31
2.5 Softmax Regression算法实践32
2.5.1 对Softmax Regression算法的模型进行训练33
2.5.2 最终的模型34
2.5.3 对新的数据的预测35
参考文献39
3 Factorization Machine40
3.1 Logistic Regression算法的不足40
3.2 因子分解机FM的模型42
3.2.1 因子分解机FM模型42
3.2.2 因子分解机FM可以处理的问题43
3.2.3 二分类因子分解机FM算法的损失函数43
3.3 FM算法中交叉项的处理43
3.3.1 交叉项系数43
3.3.2 模型的求解44
3.4 FM算法的求解45
3.4.1 随机梯度下降(Stochastic Gradient Descent)45
3.4.2 基于随机梯度的方式求解45
3.4.3 FM算法流程46
3.5 因子分解机FM算法实践49
3.5.1 训练FM模型50
3.5.2 最终的训练效果53
3.5.3 对新的数据进行预测55
参考文献57
4 支持向量机58
4.1 二分类问题58
4.1.1 二分类的分隔超平面58
4.1.2 感知机算法59
4.1.3 感知机算法存在的问题61
4.2 函数间隔和几何间隔61
4.2.1 函数间隔62
4.2.2 几何间隔62
4.3 支持向量机63
4.3.1 间隔优选化63
4.3.2 支持向量和间隔边界64
4.3.3 线性支持向量机65
4.4 支持向量机的训练66
4.4.1 学习的对偶算法66
4.4.2 由线性支持向量机到非线性支持向量机68
4.4.3 序列最小很优化算法SMO69
4.5 支持向量机SVM算法实践74
4.5.1 训练SVM模型74
4.5.2 利用训练样本训练SVM模型81
4.5.3 利用训练好的SVM模型对新数据进行预测85
参考文献88
5 随机森林89
5.1 决策树分类器89
5.1.1 决策树的基本概念89
5.1.2 选择很好划分的标准91
5.1.3 停止划分的标准94
5.2 CART分类树算法95
5.2.1 CART分类树算法的基本原理95
5.2.2 CART分类树的构建95
5.2.3 利用构建好的分类树进行预测98
5.3 集成学习(Ensemble Learning)99
5.3.1 集成学习的思想99
5.3.2 集成学习中的典型方法99
5.4 随机森林(Random Forests)101
5.4.1 随机森林算法模型101
5.4.2 随机森林算法流程102
5.5 随机森林RF算法实践104
5.5.1 训练随机森林模型105
5.5.2 最终的训练结果109
5.5.3 对新数据的预测110
参考文献113
6 BP神经网络114
6.1 神经元概述114
6.1.1 神经元的基本结构114
6.1.2 激活函数115
6.2 神经网络模型116
6.2.1 神经网络的结构116
6.2.2 神经网络中的参数说明117
6.2.3 神经网络的计算117
6.3 神经网络中参数的求解118
6.3.1 神经网络损失函数118
6.3.2 损失函数的求解119
6.3.3 BP神经网络的学习过程120
6.4 BP神经网络中参数的设置126
6.4.1 非线性变换126
6.4.2 权重向量的初始化126
6.4.3 学习率127
6.4.4 隐含层节点的个数127
6.5 BP神经网络算法实践127
6.5.1 训练BP神经网络模型128
6.5.2 最终的训练效果132
6.5.3 对新数据的预测133
参考文献136
第二部分 回归算法
7 线性回归138
7.1 基本线性回归138
7.1.1 线性回归的模型138
7.1.2 线性回归模型的损失函数139
7.2 线性回归的最小二乘解法140
7.2.1 线性回归的最小二乘解法140
7.2.2 广义逆的概念141
7.3 牛顿法141
7.3.1 基本牛顿法的原理141
7.3.2 基本牛顿法的流程142
7.3.3 全局牛顿法142
7.3.4 Armijo搜索144
7.3.5 利用全局牛顿法求解线性回归模型145
7.4 利用线性回归进行预测146
7.4.1 训练线性回归模型147
7.4.2 最终的训练结果149
7.4.3 对新数据的预测150
7.5 局部加权线性回归152
7.5.1 局部加权线性回归模型152
7.5.2 局部加权线性回归的最终结果153
参考文献154
8 岭回归和Lasso回归155
8.1 线性回归存在的问题155
8.2 岭回归模型156
8.2.1 岭回归模型156
8.2.2 岭回归模型的求解156
8.3 Lasso回归模型157
8.4 拟牛顿法158
8.4.1 拟牛顿法158
8.4.2 BFGS校正公式的推导158
8.4.3 BFGS校正的算法流程159
8.5 L-BFGS求解岭回归模型162
8.5.1 BGFS算法存在的问题162
8.5.2 L-BFGS算法思路162
8.6 岭回归对数据的预测165
8.6.1 训练岭回归模型166
8.6.2 最终的训练结果168
8.6.3 利用岭回归模型预测新的数据168
参考文献171
9 CART树回归172
9.1 复杂的回归问题172
9.1.1 线性回归模型172
9.1.2 局部加权线性回归173
9.1.3 CART算法174
9.2 CART回归树生成175
9.2.1 CART回归树的划分175
9.2.2 CART回归树的构建177
9.3 CART回归树剪枝179
9.3.1 前剪枝179
9.3.2 后剪枝180
9.4 CART回归树对数据预测180
9.4.1 利用训练数据训练CART回归树模型180
9.4.2 最终的训练结果182
9.4.3 利用训练好的CART回归树模型对新的数据预测185
参考文献187
第三部分 聚类算法
10 K-Means190
10.1 相似性的度量190
10.1.1 闵可夫斯基距离191
10.1.2 曼哈顿距离191
10.1.3 欧氏距离191
10.2 K-Means算法原理192
10.2.1 K-Means算法的基本原理192
10.2.2 K-Means算法步骤193
10.2.3 K-Means算法与矩阵分解193
10.3 K-Means算法实践195
10.3.1 导入数据196
10.3.2 初始化聚类中心197
10.3.3 聚类过程198
10.3.4 最终的聚类结果199
10.4 K-Means++算法200
10.4.1 K-Means算法存在的问题200
10.4.2 K-Means++算法的基本思路202
10.4.3 K-Means++算法的过程和最终效果204
参考文献205
11 Mean Shift206
11.1 Mean Shift向量206
11.2 核函数207
11.3 Mean Shift算法原理209
11.3.1 引入核函数的Mean Shift向量209
11.3.2 Mean Shift算法的基本原理210
11.4 Mean Shift算法的解释212
11.4.1 概率密度梯度212
11.4.2 Mean Shift向量的修正213
11.4.3 Mean Shift算法流程213
11.5 Mean Shift算法实践217
11.5.1 Mean Shift的主过程218
11.5.2 Mean Shift的最终聚类结果219
参考文献221
12 DBSCAN222
12.1 基于密度的聚类222
12.1.1 基于距离的聚类算法存在的问题222
12.1.2 基于密度的聚类算法225
12.2 DBSCAN算法原理225
12.2.1 DBSCAN算法的基本概念225
12.2.2 DBSCAN算法原理227
12.2.3 DBSCAN算法流程228
12.3 DBSCAN算法实践231
12.3.1 DBSCAN算法的主要过程232
12.3.2 Mean Shift的最终聚类结果234
参考文献236
13 Label Propagation237
13.1 社区划分237
13.1.1 社区以及社区划分237
13.1.2 社区划分的算法238
13.1.3 社区划分的评价标准239
13.2 Label Propagation算法原理239
13.2.1 Label Propagation算法的基本原理239
13.2.2 标签传播240
13.2.3 迭代的终止条件242
13.3 Label Propagation算法过程244
13.4 Label Propagation算法实践244
13.4.1 导入数据245
13.4.2 社区的划分246
13.4.3 最终的结果247
参考文献248
第四部分 推荐算法
14 协同过滤算法250
14.1 推荐系统的概述250
14.1.1 推荐系统250
14.1.2 推荐问题的描述251
14.1.3 推荐的常用方法251
14.2 基于协同过滤的推荐252
14.2.1 协同过滤算法概述252
14.2.2 协同过滤算法的分类252
14.3 相似度的度量方法253
14.3.1 欧氏距离254
14.3.2 皮尔逊相关系数(Pearson Correlation)254
14.3.3 余弦相似度254
14.4 基于协同过滤的推荐算法256
14.4.1 基于用户的协同过滤算法256
14.4.2 基于项的协同过滤算法258
14.5 利用协同过滤算法进行推荐260
14.5.1 导入用户-商品数据260
14.5.2 利用基于用户的协同过滤算法进行推荐261
14.5.3 利用基于项的协同过滤算法进行推荐262
参考文献264
15 基于矩阵分解的推荐算法265
15.1 矩阵分解265
15.2 基于矩阵分解的推荐算法266
15.2.1 损失函数266
15.2.2 损失函数的求解266
15.2.3 加入正则项的损失函数即求解方法267
15.2.4 预测269
15.3 利用矩阵分解进行推荐270
15.3.1 利用梯度下降对用户商品矩阵分解和预测270
15.3.2 最终的结果272
15.4 非负矩阵分解273
15.4.1 非负矩阵分解的形式化定义274
15.4.2 损失函数274
15.4.3 优化问题的求解274
15.5 利用非负矩阵分解进行推荐277
15.5.1 利用乘法规则进行分解和预测277
15.5.2 最终的结果278
参考文献279
16 基于图的推荐算法280
16.1 二部图与推荐算法280
16.1.1 二部图280
16.1.2 由用户商品矩阵到二部图281
16.2 PageRank算法282
16.2.1 PageRank算法的概念282
16.2.2 PageRank的两个假设283
16.2.3 PageRank的计算方法283
16.3 PersonalRank算法285
16.3.1 PersonalRank算法原理285
16.3.2 PersonalRank算法的流程286
16.4 利用PersonalRank算法进行推荐288
16.4.1 利用PersonalRank算法进行推荐288
16.4.2 最终的结果291
参考文献291
第五部分 深度学习
17 AutoEncoder294
17.1 多层神经网络294
17.1.1 三层神经网络模型294
17.1.2 由三层神经网络到多层神经网络295
17.2 AutoEncoder模型296
17.2.1 AutoEncoder模型结构296
17.2.2 AutoEncoder的损失函数297
17.3 降噪自编码器Denoising AutoEncoder298
17.3.1 Denoising AutoEncoder原理298
17.3.2 Denoising AutoEncoder实现299
17.4 利用Denoising AutoEncoders构建深度网络302
17.4.1 无监督的逐层训练302
17.4.2 有监督的微调303
17.5 利用TensorFlow实现Stacked Denoising AutoEncoders 306
17.5.1 训练Stacked Denoising AutoEncoders模型306
17.5.2 训练的过程307
参考文献308
18 卷积神经网络309
18.1 传统神经网络模型存在的问题309
18.2 卷积神经网络311
18.2.1 卷积神经网络中的核心概念311
18.2.2 卷积神经网络模型312
18.3 卷积神经网络的求解313
18.3.1 卷积层(Convolution Layer)313
18.3.2 下采样层(Sub-Sampling Layer)316
18.3.3 全连接层(Fully-Connected Layer)316
18.4 利用TensorFlow实现CNN316
18.4.1 CNN的实现316
18.4.2 训练CNN模型320
18.4.3 训练的过程321
参考文献321
第六部分 项目实践
19 微博精准推荐324
19.1 精准推荐324
19.1.1 精准推荐的项目背景324
19.1.2 精准推荐的技术架构325
19.1.3 离线数据挖掘326
19.2 基于用户行为的挖掘327
19.2.1 基于互动内容的兴趣挖掘327
19.2.2 基于与博主互动的兴趣挖掘328
19.3 基于相似用户的挖掘329
19.3.1 基于“@”人的相似用户挖掘329
19.3.2 基于社区的相似用户挖掘329
19.3.3 基于协同过滤的相似用户挖掘331
19.4 点击率预估332
19.4.1 点击率预估的概念332
19.4.2 点击率预估的方法332
19.5 各种数据技术的效果334
参考文献335
附录A336
附录B341

作者简介

赵志勇,毕业于武汉大学计算机学院,CSDN博主,现就职于新浪微博,从事计算广告的算法工作。对机器学习、优化算法具有浓厚的兴趣。

内容简介

本书是一本机器学习入门读物,注重理论与实践的结合。全书主要包括6个部分,每个部分均以典型的机器学习算法为例,从算法原理出发,由浅入深,详细分析算法的理论,并配合目前流行的Python语言,从零开始,实现每一个算法,以加强对机器学习算法理论的理解、增强实际的算法实践能力,很终达到熟练掌握每一个算法的目的。与其他机器学习类书相比,本书同时包含算法理论的介绍和算法的实践,以理论支撑实践,同时,又将复杂、枯燥的理论用简单易懂的形式表达出来,促进对理论的理解。

价格说明

定价:为出版社全国统一定价;

文轩价:为商品的销售价,是您最终决定是否购买商品的依据;受系统缓存影响,最终价格以商品放入购物车后显示的价格为准;

关于新广告法声明

新广告法规定所有页面信息中不得出现绝对化用词和功能性用词。

本店非常支持新广告法,但为了不影响消费者正常购买,页面明显区域本店已在排查修改,对于不明显区域也将会逐步排查并修改,我们此郑重声明:本店所有页面上的绝对化用词与功能性用词在此声明全部失效,不作为赔付理由。涉及“教育部声明”中的商品,均不代表教育部指定、推荐的具体版本,仅代表该商品的内容为指定、推荐书目。因极限用词引起的任何形式的商品赔付,本店不接收且不妥协。希望消费者理解并欢迎联系客服帮助完善,也请职业打假人士高抬贵手。