猜你喜欢
机器学习精讲:基础、算法及应用  [Machine Learning Refined Foundations,Algorithms,and Applications]

机器学习精讲:基础、算法及应用 [Machine Learning Refined Foundations,Algorithms,and Applications]

书籍作者:杰瑞米·瓦特 ISBN:9787111611967
书籍语言:简体中文 连载状态:全集
电子书格式:pdf,txt,epub,mobi,azw3 下载次数:3270
创建日期:2021-02-14 发布日期:2021-02-14
运行环境:PC/Windows/Linux/Mac/IOS/iPhone/iPad/Kindle/Android/安卓/平板
内容简介

本书为了解机器学习提供了一种独特的途径。书中包含了新颖、直观而又严谨的基本概念描述,它们是研究课题、制造产品、修补漏洞以及实践不可或缺的部分。本书按照几何直觉、算法思想和实际应用(纵贯计算机视觉、自然语言处理、经济学、神经科学、推荐系统、物理学和生物学等学科)的顺序,为读者提供了深入浅出的基础知识和解决实际问题所需的实用工具。本书还包含了基于Python和MATLAB/OCTAVE语言的深入习题,以及对数值优化前沿技术的全面讲解。本书可为机器学习、计算机科学、电子工程、信号处理以及数值优化等领域的学生提供重要的学习资源,也可为这些领域的研究人员和从业者提供理想的参考资料。

作者简介

杰瑞米;瓦特(Jeremy Watt),获得美国西北大学计算机科学与电气工程专业博士学位,研究兴趣是机器学习、计算机视觉和数值优化。


雷萨;博哈尼(Reza Borhani),获得美国西北大学计算机科学与电气工程专业博士学位,研究兴趣是面向机器学习和计算机视觉问题的算法设计与分析。


阿格洛斯;K.卡萨格罗斯(Aggelos K. Katsaggelos),美国西北大学计算机科学与电气工程系教授,Joseph Cummings名誉教授,图像与视频处理实验室的负责人。




译者简介


杨博,吉林大学计算机科学与技术学院教授,博士生导师。现任吉林大学符号计算与知识工程教育部重点实验室主任,中国人工智能学会理事,中国人工智能学会知识工程与分布智能专业委员会副主任委员,中国计算机学会杰出会员。


前言

在过去的十年中,机器学习用户急剧增长,从计算机科学、工程和数学系中相对较小的圈子,到现在学术界各个领域的学生和研究人员、工业界的从业者、数据科学家、企业家以及机器学习爱好者。你面前的这本书,将机器学习的标准课程分解成最基本的部分并进行了重新编排(经过精心打磨和组织),我们认为这将使广大的学习者受益匪浅。本书对最重要的概念进行了新颖、直观而又严谨的描述,它们是研究课题、制造产品、修补漏洞以及实践不可或缺的部分。


读者对象及本书使用方法


本书是为有兴趣理解机器学习核心概念(从基本原理到实际应用)的读者而写的。要充分利用本书,只需基本了解线性代数和微积分(即向量和矩阵运算,以及计算多元函数的梯度和海森矩阵的能力),再加上一些以前接触的计算机编程的基本概念(即条件和循环结构)。本书适合机器学习的入门者,也适合那些对机器学习有所了解的读者,他们渴望更加直观和更容易接受的讲授方式。


为此,在整本书中,我们优先使用新颖且一致的几何观点来描述每个概念的基本原理,推迟使用概率、统计以及神经学方面的观点。我们认为这种方式不仅能让读者更直观地理解许多核心概念,还有助于建立概念之间的联系,而这些概念(如逻辑回归、支持向量机、分类器、核方法以及前馈神经网络)通常被认为是完全不同的。本书也非常重视算法的设计和实现,并且在每章末尾为读者提供了许多编程习题。我们坚信,读者大部分的学习时间都是在自己动手编写程序的过程中度过的。简言之,本书旨在为读者提供一种独特的学习体验,即先有直觉后有知识,最后二者通过应用融合到一起。


本书内容


本书将机器学习的核心概念概括为四类。第一类,预测学习。预测学习包括两种任务,分别是预测取值连续的现象(如天体的未来位置)和区分不同的事物(如图像中不同的人脸)。第二类,特征设计。特征设计指的是一系列广泛的工程和数学工具,它们对预测学习模型能否在实际应用中取得成功至关重要。在本书中,我们将会看到,特征的生成往往建立在我们对数据集理解的水平上。第三类,函数逼近。当数据集的信息太少导致无法为它们设计恰当的特征时(因此必须严格地从数据本身学习),我们就会采用函数逼近的方法。第四类,数值优化。数值优化是前三类概念的驱动力,是机器学习解决实际问题的引擎。


全书概览


本书正文分为三个部分,后面的部分建立在前面部分的基础之上。


第一部分:基本工具及概念


该部分详细介绍了预测建模、数值优化和特征设计的基础。第1章进行总体介绍后,第2章介绍了数值优化的基础知识,使用这些工具可以恰当地调配预测学习模型。第3章和第4章分别介绍了回归和分类两种预测模型。此外,我们还穿插讲述了一些示例。在这些示例中,我们会了解接收数据的底层生成过程(可用于设计特征)。


第二部分:完全数据驱动的机器学习工具


如果缺少关于数据的有用知识,那么我们必须拓宽视野,以便设计或学习用于回归和分类任务的特征。在第5章和第6章中,我们回顾了函数逼近这一经典工具,看其如何应用于一般的回归和分类问题。然后,我们在第7章描述了前两章涉及的几个高级主题。


第三部分:大规模数据机器学习方法


在本书的这个部分,我们描述了将回归和分类算法扩展到大规模数据集的一般过程。第8章开始介绍一些高级数值优化技术,这些技术是第2章的延续,它们能通过更有效的优化算法,大大提高预测学习的能力。第9章详细介绍数据降维技术,通过适当降低输入数据的维度,可将大型数据集压缩到更易于处理的规模。


读者如何使用本书


如前所述,有效使用本书的唯一技术前提是对线性代数和向量运算有基本理解,以及有一些计算机编程经验,因为本书会介绍一些必要的高级概念。在wwwcambridgeorg/watt上,读者可以找到关于Python和Matlab/Octave编程环境的简明教程,用于完成编程习题。该教程介绍了两种语言的语法,以及可供下载的基本库(用于Python)和常用内置函数(用于Matlab/Octave)。


读者可按顺序阅读所有章节进行自学,因为每一章都直接建立在前一章的基础上。然而,如果对本书最后三章感兴趣并且想要精读其中的每个主题,则需要对前六章的内容有充分的理解。


教师如何使用本书


本书的内容已被用于美国西北大学的许多课程,从高年级本科生和低年级研究生的入门课程,到专门针对很多博士生的高级数值优化专业课程。本书对基础、应用和算法的讲解基本上是自包含的,可用于各种机器学习课程。例如,它可以用于:


为高年级本科生/低年级研究生开设一季度或者一学期的标准机器学习主题入门课程。主要包括数值优化的基本技术、回归/分类技术与应用、特征设计与学习原理,以及前馈神经网络。第1~6章提供了这门课的基础,第7章和第9章(关于核方法和降维/非监督学习技术)可作为进阶内容。


为高年级本科生/研究生开设一季度或者一学期面向机器学习的大规模优化课程。第2章和第6~8章提供了入门和高级优化技术课程的基础,以为本书前三分之二部分介绍的应用和模型提供解决方案。


目录

译者序


前言


第1章引言


1.1教计算机区分猫和狗


1.2预测学习问题


1.2.1回归


1.2.2分类


1.3特征设计


1.4数值优化


1.5小结


第一部分基本工具及概念


第2章数值优化基础


2.1微积分定义的最优性


2.1.1泰勒级数逼近


2.1.2最优性的一阶条件


2.1.3凸性的便利


2.2优化数值方法


2.2.1概览


2.2.2停止条件


2.2.3梯度下降


2.2.4牛顿法


2.3小结


2.4习题


第3章回归


3.1线性回归基础


3.1.1符号和建模


3.1.2用于线性回归的最小二乘代价函数


3.1.3最小二乘代价函数的最小化


3.1.4所学模型的效力


3.1.5预测新输入数据的值


3.2知识驱动的回归特征设计


3.3非线性回归和l2正则化


3.3.1逻辑回归


3.3.2非凸代价函数和l2正则化


3.4小结


3.5习题


第4章分类


4.1感知机代价函数


4.1.1基本感知机模型


4.1.2softmax代价函数


4.1.3间隔感知机


4.1.4间隔感知机的可微近似


4.1.5所学分类器的精度


4.1.6预测新输入数据的标签


4.1.7哪个代价函数会产生最好的结果


4.1.8感知机和计数代价的关联


4.2逻辑回归视角下的softmax代价


4.2.1阶梯函数和分类


4.2.2凸逻辑回归


4.3支持向量机视角下的间隔感知机


4.3.1寻找最大间隔超平面


4.3.2硬间隔支持向量机问题


4.3.3软间隔支持向量机问题


4.3.4支持向量机和逻辑回归


4.4多分类


4.4.1一对多的多分类


4.4.2多分类softmax分类


4.4.3所学多分类器的精度


4.4.4哪种多分类方法表现最好


4.5面向分类的知识驱动特征设计


4.6面向真实数据类型的直方图特征


4.6.1文本数据的直方图特征


4.6.2图像数据的直方图特征


4.6.3音频数据的直方图特征


4.7小结


4.8习题


第二部分完全数据驱动的机器学习工具


第5章回归的自动特征设计


5.1理想回归场景中的自动特征设计


5.1.1向量逼近


5.1.2从向量到连续函数


5.1.3连续函数逼近


5.1.4连续函数逼近的常见基


5.1.5获取权重


5.1.6神经网络的图表示


5.2真实回归场景中的自动特征设计


5.2.1离散化的连续函数逼近


5.2.2真实回归场景


5.3回归交叉验证


5.3.1诊断过拟合与欠拟合问题


5.3.2留出交叉验证


5.3.3留出交叉验证的计算


5.3.4k折交叉验证


5.4哪个基最好


5.4.1理解数据背后的现象


5.4.2实践方面的考虑


5.4.3什么时候可任意选择基


5.5小结


5.6习题


5.7关于连续函数逼近的注释


第6章分类中的自动特征设计


6.1理想分类场景中的自动特征设计


6.1.1分段连续函数逼近


6.1.2指示函数的形式化定义


6.1.3指示函数逼近


6.1.4获取权重


6.2真实分类场景中的自动特征设计


6.2.1离散化的指示函数逼近


6.2.2真实的分类场景


6.2.3分类器精度和边界定义


6.3多分类


6.3.1一对多的多分类


6.3.2多分类softmax分类


6.4分类交叉验证


6.4.1留出交叉验证


6.4.2留出交叉验证的计算


6.4.3k折交叉验证


6.4.4一对多多分类的k折交叉验证


6.5哪个基最好


6.6小结


6.7习题


第7章核、反向传播和正则化交叉验证


7.1固定特征核


7.1.1线性代数基本定理


7.1.2核化代价函数


7.1.3核化的价值


7.1.4核的例子


7.1.5核作为相似矩阵


7.2反向传播算法


7.2.1计算两层网络代价函数的梯度


7.2.2计算三层神经网络的梯度


7.2.3动量梯度下降


7.3l2正则化交叉验证


7.3.1l2正则化和交叉验证


7.3.2回归的k折正则化交叉验证


7.3.3分类的正则化交叉验证


7.4小结


7.5更多的核计算


7.5.1核化不同的代价函数


7.5.2傅里叶核——标量输入


7.5.3傅里叶核——向量输入


第三部分大规模数据机器学习方法


第8章高级梯度算法


8.1梯度下降法的固定步长规则


8.1.1梯度下降法和简单的二次代理


8.1.2有界曲率函数和最优保守步长规则


8.1.3如何使用保守固定步长规则


8.2梯度下降的自适应步长规则


8.2.1回溯线性搜索的自适应步长规则


8.2.2如何使用自适应步长规则


8.3随机梯度下降


8.3.1梯度分解


8.3.2随机梯度下降迭代


8.3.3随机梯度下降的价值


8.3.4随机梯度下降的步长规则


8.3.5在实践中如何使用随机梯度下降法


8.4梯度下降方案的收敛性证明


8.4.1利普希茨常数固定步长梯度下降的收敛性


8.4.2回溯线性搜索梯度下降的收敛性


8.4.3随机梯度法的收敛性


8.4.4面向凸函数的固定步长梯度下降的收敛速度


8.5计算利普希茨常数


8.6小结


8.7习题


第9章降维技术


9.1数据的降维技术


9.1.1随机子采样


9.1.2K均值聚类


9.1.3K均值问题的优化


9.2主成分分析


9.3推荐系统


9.3.1矩阵填充模型


9.3.2矩阵填充模型的优化


9.4小结


9.5习题


第四部分附录


附录A基本的向量和矩阵运算


附录B向量微积分基础


附录C基本的矩阵分解及伪逆


附录D凸几何


参考文献


索引


短评

很好很细致的书

2018-12-19 08:43:51

一直信赖,特别享受足不出户商品高效送上门的快捷与便利。推荐购买。

2018-12-16 11:55:44