文章吧-经典好文章在线阅读:Machine Learning读后感精选10篇

当前的位置:文章吧 > 经典文章 > 读后感 >

Machine Learning读后感精选10篇

2022-04-25 03:01:21 来源:文章吧 阅读:载入中…

  《Machine Learning》是一本由Kevin P. Murphy著作,The MIT Press出版的Hardcover图书,本书定价:USD 90.00,页数:1104,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。

  《Machine Learning》读后感(一):MLAPP读书会请加qq群177217565

  我们正准备读这本书,Machine Learning A Probabilistic Perspective 读书会请加qq群177217565,也讨论Pattern Recognition And Machine Learning。

  《Machine Learning》读后感(二):为什么评分这么高?

  为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?为什么评分这么高?谁学过,谁学完了?

  《Machine Learning》读后感(三):很适合想俺这样没啥时间看paper的民工

  哥们就是一个苦逼的本科小民工啊,在ml上完全没有受到过系统的学习,从大约1年半前开始接触机器学习至今,总共看过AG的video,看过《机器学习》和《模式分类》,后来又看了李航的《统计学习方法》,啃过《prml》,学到的东西总感觉零零散散,由于远离ml的圈子,缺乏对这个领域的一个整体上的认知,看完这本感觉很不错,虽然不深入,但是全的特点能把各种小碎块合到一起,特别适合像俺这样的自学的民工,就是各种印刷错误啊,特别是公式里的印刷错误,遇到之后太虐心了。。。。

  《Machine Learning》读后感(四):一本大杂烩

  断断续续读了本书几章内容,并扫了一眼全书,个人感觉这本书就是一本大杂烩。

  这本书涉及的内容很广,概率图模型、GLM、Nonparametric Method,甚至最近比较火的Deep Learning也包括了。但是,感觉很多地方讲的不是很细致,每每读到关键地方,都有种嘎然而止的感觉。不过还好,作者给出了很多的参考文献(包括一些先相关子领域的经典书籍和论文),可以方便深入阅读。

  总的来说,这本书既适合入门(对机器学习有个整体了解),也比较适合深入学习(沿着参考文献走)。

  《Machine Learning》读后感(五):坑爹无极限

  这本书的作者试图把机器学习进行全景式地展现,根据我有限的机器学习知识,作者把机器学习该有的都涵盖了。

  这样做一个非常大的缺陷就是东西太多,讲的不够深入,许多例子都是非常笼统,没有做详细解释,就给了一个图,随便说了几句,对于一个初学者,怎么可能理解的了。

  书中的许多前后符号不统一,也是令人无语的地方,本来机器学习符号就多,如果符号不统一,真的是非常恐怖,初学者极易陷入坑中,半天拔不出来。

  还有本书还有许多低级的拼写以及交叉引用方面的错误。

  总之,这本书,我认为贪多嚼不烂,没有写好,读这本书,对初学者简直就是折磨,不推荐。

  《Machine Learning》读后感(六):我心目中的ML领域三大经典教材之一

  另外的两本分别是PRML和ESLII。

  这本书的成书时间最晚,刚出的时候特意花了90刀从亚马逊买的。

  先说说优点:新,全!

  刚说了,相对于另外两本书,由于成书时间较晚,所以涵盖了更多最近几年的hot topic,比如Dirichlet Process,在其他另外两本书中都没有提到过。

  更重要的,是全,基本上ML领域的专有名词,你都可以在书后的index找到。说道这里,不得不佩服本书的作者Kevin Murphy,剑桥的本科,UCB的博士,MIT的博后,得到过多位大牛的真传,当初申请PhD的时候就想申他的学生,可惜他那个时候已经打算跳到Google,不再招新学生了。

  还有一个非常重要的,另外两本书不具备的,就是这本书配备了详尽的matlab code,你几乎可以尝试书中的每一个例子。

  单从以上这几点,我绝对会把他排在所有ML教材的首位!

  不过可惜的是,当我拿到手开始读这本书的时候,却有不禁有点失望。显然Kevin的驾驭力还不及另外两本书的作者,所以造成的一个结果就是这本书有点像是一个大杂烩,一本handbook。可是看出,作者是真心想把所有的东西都展现出来,而how to organize就成了一个很大的问题,在这一点上,我觉得作者做的还不是很出色。所以整本书的系统性不及另外两本,读起来也没有那种酣畅淋漓的感觉。有的时候,当你读完一章之后,反而更加的迷惑,因为很多东西作者都没有系统阐述,仅仅是点到为止。

  本书的另外一个缺点就是排版和笔误非常的多,可见后期的校对工作做的也不够好。

  但不管怎样,这本书都应该算的上是经典,如果打分的话,PRML 9.5,ESLII 9.4,本书9.2,其他ML的书籍应该都在9以下。

  《Machine Learning》读后感(七):看了一点 觉得可读性一般啊

  -----------------------------读完第三章更新------------------------------

  啪啪啪啪啪啪啪啪啪啪啪,先自扇十个大耳光。

  这本书还是不错的,很深,我写了个第三章的笔记,欢迎拍砖。http://book.douban.com/annotation/23203104/

  第三章可读性比第二章好得多,但是说实话还是照SALP差很多,可能是因为SALP在这方面太牛逼了吧。比如说如果这本书说,We now discuss how to fit a discriminant analysisi model.那SALP一定会加一句,that means figuring out the xx and xx parameters of this model.

  这本书有些不是那么straightforward的地方,也没有给出足够的details,得靠自己琢磨。

  我先读了一遍第三章,不太透,然后又读了第二遍有很多地方才想通。

  anyway,绝对是一本好书,讲的层面比之前的了解要深,(具体怎么个深法说不好。。),继续看吧。先改到4星。

  ------------------------------------------------------------------------------

  最近在读三本书,一本Speech and Language Processing,一本Pattern Recognition and Machine Learning,还有一本就是这个了。第一本读了相当一部分了,第二三本都只读了一章多。

  我是菜B,比较不了这几本书的深度广度,只能比较易读性。但我觉得对于外文书籍来说,可读性本身就很重要不是吗。

  觉得第一本SALP可读性好的一B,说理清楚重点突出,一天恨不得读个20、30页,作者把每一章讲什么,将怎么讲,和之前与之后的章节有什么关系说得清清楚楚;在讲到具体知识点的时候也会告诉你为什么要讲,讲了怎么用,还会在不同方法之间作比较,A比B好在哪里,差在哪里,业界喜欢用哪个,为什么。总之,读起来特别爽。

  第二本看了个Introduction,还看了后面的一点,觉得可读性也不错,也是说的很明白嘛,而且读起来让人很有兴致。

  本打算就着第二本读下去,后来又知道了这本,看了看介绍,觉得里面涵盖的内容更全面,角度更正统,于是找到pdf读个试试,现在读到第二章,发现相比那两本这本读起来要无聊得多。好像都是堆砌和罗列,而没有穿针引线。当然了,也许后面特别牛逼呢,毕竟第二章只是一个对概率论的回顾。

  这本书的评论还一个都没有呢,因为书太新,可能全世界读完这本书的还没几个呢吧。我也没读完,不过还是想从这个角度先发一个,想起个头大家讨论一下,大家随便喷我,我是菜B一点都不怕喷,不过我也想知道一下大家的看法。

  先给个3星吧,如果读着读着发现自己错了再来改。

  《Machine Learning》读后感(八):machine learning的圣经&handbook,估计得当这个角色很久。

  Awesome! 1. 与这本书的缘分竟始于化学系图书馆(没有其它两本,PRML or the Elements,也许因为K Murphy是校友的缘故。。不过C Bishop就在附近的Microsoft啊) 最终在黑五我还是买了这本书,装帧结实漂亮;留白够多,这样可以随意增添喜欢的内容和推导。英Amazon比较厚道,便宜了8镑;美亚还涨价了。 2. 读过的best machine learning book,很漂亮的写法,比如ridge regression,lasso的概率观点(Gaussian likelihood and Gaussian prior,以及Gaussian likelihood and Laplacian prior),对directed graph、undirected graph的尽量使用,对mixture model作为unsupervised learning basis的强调,对SVM epsilon insensitive loss function approach的讲解,从HMM到SSM(Kalman filter)自然衔接,等等。不过既然是probabilistic观点,也就不太适合新手,尤其是不喜欢公式的新手。美中不足的是,习题数量偏少,质量欠佳。 3. 目前(2018.01)我已大约读完,再说一下总体感受,可以用MIT learning theory 课上教授的话概括: “所有的材料都是well organised,如果你觉得乱,那你没看懂”。反正诚意是足够了。我们有时候也不要太勇敢,随便翻两页就觉得作者傻瓜。那些七拼八凑,甚至干脆从英文译过来(还声称是原创)的博客及其作者算什么呢。如果拿物理书比较的话,肯定比不上Landau-Lifshitz的伟大教程的行文,但不会比H Kleinert的path integral (1600页!) 差,我觉得。这本书在goodreads上是评分最高的机器学习书,看到豆瓣的评分也较高,说明语言几乎没有影响大家的品味嘛。 4. 前三次印刷,包括网上的pdf,typos较多,第四次好很多,现在是第6次printing。我在github上写了第一版第四次printing的勘误表(不知大家写过paper没有,有些typos确实可以谅解;又如2010年新版的Feynman&Hibbs Quantum Mechanics and Path Integrals (384页),其中注释者D Styer改正了1965版的~800处typos),希望对大家有帮助,链接:https://github.com/ks838/Murphy-Machine-Learning-A-Probabilistic-Perspective-Errata-and-Notes-4th-printing 5. 与作者有些交流,2018年底第二版,会让书坡度更缓一些。本人目前在参与第二版的proof reading和feedback,第二版关于deep learning, reinforcement learning有相当章节。语言也从matlab迁移到了python。作者作为一个出色的学者,概括能力确实很强,观点较高,对probabilistic model的理解也是非常深刻。对了,frequentists还是避开第一版吧,chap6不会让你们高兴的。 ------------------------------------------------------------------------------------- 2018.01.18,选了一门课:machine learning and Bayesian inference,教授非常赞赏并大力推荐这本书(还有Koller那本Probabilistic Graphical Models)。这门课跟Murphy这本书风格很像,学院派的味道还是有些的。但想登堂入室,恐怕还是需要一番推导的,而不止于调一调tf、keras、sklearn们。说到sklearn,这本大书比sklearn的user guide内容可更多更深(这个user guide也多次参考了这本书),结合着看是不错的体验。

  《Machine Learning》读后感(九):刊误(chapter 1 - chapter 5)

  纯搬运。

  来自:https://www.cs.ubc.ca/~murphyk/MLbook/errata.html

  提交新的bug fix:https://docs.google.com/forms/d/e/1FAIpQLSdOXvmnvuIQn__t0xPyTErj53L-qo_RerImgKbXV4VfLDI6SQ/viewform?formkey=dEp2U2hRWXVpMU5nd05YcEJKVFNUdmc6MQ

  - preface: added printing history to the end of the preface, to make it easier for the reader to determine which version they have

  - sec 1.1: reworded description of the long tail

  -p4 Added reference to Nate Silver book (‘The Signal and the Noise’) and reformatted sec 1.2.1.2

  - footnote 3 on p31: 'risk reverse reward' should be 'risk versus reward'

  - p35 After eqn 2.35: ref to “Figure 2.1(b-c)” should say “Figure 2.1”.

  - sec 2.2.3 Added quote by Jeffreys’73 and ref to the book by Sharon McGrayne (2011) to the Bayes rule section

  - sec 2.4.2 on student T distribution was missing subsection title; this change has

  caused all subsequent subsections in 2.4 to be renumbered

  - p.68: iff (if and only if) [and not "iff (***iff*** and only if)]

  - equation 3.14 (p.74). should be

  ***p(theta | D)*** equiv. p(D | theta) * p(theta) = (...)

  - p.74, 2nd parag.: missing ')' after first theta in p(D |

  theta***)*** equiv. P(s(D) | theta)

  - p.74, end of 1st line in section 3.3.2: missing 'be' in "it would

  ***be*** convenient (...)"

  - p.74, penultimate parag.: "and that we think it lives in the

  interval (0.05, 0.30) with

  robability ***???***, then ..." [is a value missing there???]

  - Page 84, line 8 of Algorithm 3.1. for theta_jc, you should have N_c, not N.

  - page 85, equation 3.67, the subindex k should be c.

  - eqn 3.90 (in exercise 3.3) typo: should be Gamma(a0+a1+1) = (a0+a1) Gamma(a0+a1)

  - eqn 3.93 (exercise 3.9) should be max(D, b) instead of max(D)

  - eqn 4.62 Should be delta_c = x’ beta_c + gamma_c

  - eqn 4.82 Should be vmu_{1|2} = -vL_1^{-1} vL_2 vx_2

  - eqn 4.181 Should be SN = SO + Smu, not inv(SN)

  - eqn 4.197 Should be exp(-1/2 tr(Sigma(-1) S)) not exp(-N/2 …)

  - sec 4.5 Distribution of scatter matrix is S ~ Wi(Sigma, N) not Wi(Sigma, 1)

  - ex 4.8c. Whitening uses U and Lambda, which are the eigenvectors /

  values of X'X, not X

  - sec 5.7.2.1 Added footnote that AUC is equivalent to a pairwise ranking criterion

评价:

[匿名评论]登录注册

评论加载中……