文章吧-经典好文章在线阅读:The Elements of Statistical Learning读后感10篇

当前的位置:文章吧 > 经典文章 > 读后感 >

The Elements of Statistical Learning读后感10篇

2017-12-31 21:34:02 来源:文章吧 阅读:载入中…

The Elements of Statistical Learning读后感10篇

  《The Elements of Statistical Learning》是一本由Trevor Hastie / Robert Tibshiran著作,Springer出版的Hardcover图书,本书定价:USD 89.95,页数:744,文章吧小编精心整理的一些读者的读后感,希望对大家能有帮助

  《The Elements of Statistical Learning》读后感(一):机器学习、数据挖掘、模式识别的统计学观点

  这个简单的书评只是我个人的观点,所以我觉得先了解一下我的背景是有帮助的:本科计算机,数学功底尚可,研究方向机器学习、数据挖掘相关应用研究。

  缺点

  1,阅读此书前,读者需要具备基本的统计学知识,所以书的内容并不“基础”。

  2,书中很少涉及到公式推导,细节并不是很多。

  3,对于那些想要做机器学习、数据挖掘相关应用的人来说,书中的部分内容过于“统计”,比如basis expansion和spline等。

  4,部分内容介绍并不详细,例如neural network,也并没有介绍图模型相关内容。

  优点:

  1, 机器学习本身很多内容直接来自统计学,如回归和分类模型,所以了解这些内容在统计学中是如何表达的,尤其是较为精确的数学表达,将会非常有帮助。

  2, 书中有很多作者自己的总结,也有新观点,例如第10章中“Off-the-Shelf Procedures for Data Mining”,这在其他书中比较少见。

  3,关于tree和boosting的介绍非常详细,横跨第9章和第10章。可能跟这部分内容是作者的研究领域有关。

  就像标题里说的,本书只是提供了机器学习、数据挖掘、模式识别等领域的统计学观点,所以还是建议继续阅读其他的相关书籍,以期达到融会贯通

  共勉。

  《The Elements of Statistical Learning》读后感(二):这书已经移到这里了。。

  https://web.stanford.edu/~hastie/ElemStatLearn/

  ==========================================================================================================================================================

  《The Elements of Statistical Learning》读后感(三):机器学习 -- 从入门到精通

  个人觉得“机器学习 -- 从入门到精通”可以作为这本书的副标题。

  机器学习、数据挖掘或者模式识别领域有几本非常流行的教材,比如Duda的模式分类,Bishop的PRML。Duda的书第一版是模式识别的奠基之作,现在大家谈论得是第二版,因为内容相对简单,非常流行,但对近20年取得统治地位的SVM、Boosting基本没提,有挂一漏万之憾。PRML侧重概率模型,体系详备,是Bayesian方法的扛鼎之作。和PRML相比,这本Elements of Statistical Learning对当前最为流行的方法有比较全面深入的介绍,对工程人员参考价值也许要更大一点。另一方面,它不仅总结了已经成熟了的一些技术,而且对尚在发展中的一些议题也有简明扼要的论述。让读者充分体会到机器学习是一个仍然非常活跃的研究领域,应该会让学术研究人员也有常读常新的感受

  这本书的作者是Boosting方法最活跃的几个研究人员,发明的Gradient Boosting提出了理解Boosting方法的新角度,极大扩展了Boosting方法的应用范围。书中Boosting部分是被相关学术论文引用最频繁的部分。个人觉得经常研读一下作者和其他Boosting流派打嘴仗的文章是学习机器学习很好的一个途径,因为只有这样尚未成熟(而又影响广泛)的领域中,你才能更具体地体会到一个学科是怎样逐渐发展成熟的,那些贡献卓著的研究人员是如何天才地发现问题解决问题的,又是如何因偏执而终究会被证明有一方至少是部分地无知的。这种体会是很难在那些发展成熟了的分支中找到的。Regularization方法是作者贡献丰富的另一个领域,也是这本书另一个最具趣味的部分。

  这本书第一版在2000年出版,现在评论的第二版是09年出版的,包含了很多值得玩味的新内容。比如从Ensemble方法的角度来解释MCMC方法的优异性能,就是我以前没有注意到的。当然,也许只是因为我的知识范围还不够宽。

  《The Elements of Statistical Learning》读后感(四):不是书评

  评论最下面的部分Version 1是我开始读这本书的时候写的东西,现在加上点基础部分。

  对linear algebra, probability 要有非常强的直观认识,对这两个基础学的非常通透。Linear algebra 有几种常用的分解QR, eigendecomposition, SVD,搞清楚它们的作用和几何意义。Bayesian method的重要性也值得再三提起。

  还有就是要懂基本算法,主要是指 searching algorithms 和 search space/decision tree 和 big O notation.

  书本身应该来说写的非常清晰,没有用到什么高深的数学知识,看懂数学推导不困难。如果感觉看不懂数学推导,建议好好学习基础再来看。书里重要的是各种直观解释,多花时间思考书里提到各种方法的统计含义和几何含义。习题非常好,对理解各种算法本身有很大帮助;至少扫一眼。

  严肃的读完1-4章和7章(作者在前言里已经说过),对linear/logistic regression要向对自家后院一样熟悉。其他章节按主题阅读,与其他data mining/machine learning 的对应章节或者论文一起阅读。

  (Version 1)

  我先说点题外话,然后是怎么读这本书。

  其中一个作者Friedman是我们的老师,本来希望上课的时候老师能把书里的东西讲的清清楚楚,结果他讲课超级无聊,很多人都逃课了。按他自己的话说“上个quarter的statistical learning 我有次差点对着空教室讲课”。

  牢骚发完了,说下读这本书要注意什么。好几个统计的和计算数学的博士都说这本书其实就是几个作者的工作和他们所玩领域的一个概览,初学者只读这本书肯定是搞不明白的,所以一定要读他们里面引用的paper啊!另外这些家伙假设读者已经知道hypothesis space searching 等等这种基本概念,neural network 也是讲的不太详细。所以另外的参考书就很重要了,像 machine learning, by Tom Mitchell, 就是给初学者写的好书。最后如果要编程的话,这本书里面没有code也没有online code,所以可以移步去读programming collective intelligence,里面的code 是python,至于R,可以google “data mining with r”,找本靠谱的书作参考。

  这本书还是起了一个鸟瞰全局的作用的,当然鸟瞰的了不,还是要凭个人的努力和功力的。

评价:

[匿名评论]登录注册

评论加载中……