今天给同学们推荐一本专为高级本科生或刚毕业的学生设计的机器学习教材——《理解机器学习:从理论到算法》。
这本教材的内容十分丰富,但没有陷入“科普”式的堆砌材料的写作方式,由于作者是该领域的权威专家,因此在介绍各种理论和算法时,时刻不忘将不同理论、算法的对比与作者自身的研究成果传授给读者,使读者不至于对如此丰富的理论和算法无所适从。
中文版+英文版PDF需要的同学
扫码添加小享,回复“硬核书”即领
教材介绍了机器学习中重要的理论和关键的算法,讨论了学习的计算复杂度、凸性和稳定性、PAC-贝叶斯方法、压缩界等概念,并介绍了一些重要的算法范式,包括随机梯度下降、神经元网络以及结构化输出。
全书共分为四大块:
第一部分旨在对学习的根本问题给出初步的严谨回答。作者描述了PAC学习模型的一种泛化,还描述了经验风险最小化(ERM)、结构风险最小化(SRM)和最小描述长度(MDL)学习规则。作者使用ERM、SRM和MDL规则来量化学习所需的数据量,并通过推导出一个“无免费午餐”定理来展示学习可能失败的方式。
值得一提的是,这部分的内容非常有特色,也是非常重要的一部分。部分内容从更高的观点和更深的层次探讨机器学习的许多理论基础,引入对指导理论研究和实际应用都至关重要的概率近似正确(PAC)学习理论。从某种意义上来说,只有懂得了该部分,才可能透彻地理解和更好地运用其他章节的内容。
第二部分描述了各种学习算法。对于某些算法,作者首先呈现一个更通用的学习原则,然后展示该算法是如何遵循该原则的。
前两部分集中在PAC模型上,第三部分则通过介绍更多样的学习模型扩展了范围。
最后,教材的第四部分致力于高级理论。
目录:
Introduction
Part I: Foundations
A gentle start
A formal learning model
Learning via uniform convergence
The bias-complexity trade-off
The VC-dimension
Non-uniform learnability
The runtime of learning
Part II: From Theory to Algorithms
Linear predictors
Boosting
Model selection and validation
Convex learning problems
Regularization and stability
Stochastic gradient descent
Support vector machines
Kernel methods
Multiclass, ranking, and complex prediction problems
Decision trees
Nearest neighbor
Neural networks
Part III: Additional Learning Models
Online learning
Clustering
Dimensionality reduction
Generative models
Feature selection and generation
Part IV: Advanced Theory
Rademacher complexities
Covering numbers
Proof of the fundamental theorem of learning theory
Multiclass learnability
Compression bounds
PAC-Bayes
Appendices
Technical lemmas
Measure concentration
Linear algebra
中文版+英文版PDF需要的同学
扫码添加小享,回复“硬核书”即领