文章吧-经典好文章在线阅读:《机器学习》读后感10篇

当前的位置:文章吧 > 经典文章 > 读后感 >

《机器学习》读后感10篇

2022-05-18 02:05:18 来源:文章吧 阅读:载入中…

《机器学习》读后感10篇

  《机器学习》是一本由周志华著作,清华大学出版社出版的平装图书,本书定价:88.00元,页数:425,文章吧小编精心整理的一些读者的读后感,希望对大家能有帮助。

  《机器学习》读后感(一):《机器学习》周志华著,总结

  本书介绍了机器学习的基础知识、各种流派的学习算法,通读本书可对机器学习的原理、内容、功能、流派,应用有一个整体的认识。

  人工只能经历了“推理期”、“知识期”到“学习期”,目前学习算法主要包括符号学派(代表算法:决策树、基于逻辑的学习)、连接学派(代表算法:人工神经网络)、统计学派(代表算法:支持向量机、核方法)等。各个学派的算法具有自己的优势,也有自己的短板。例如符号学派模拟人的概念推理过程,知识表达能力强,但难以处理大规模问题;连接主义学派对于现实问题的有效处理得到了认可,但是知识是个黑箱模型,无法显式地表达,且模型大量参数的设置缺乏有效理论指导;统计学派可有效解决一些大规模复杂问题,但是仍然存在核函数选取困难等问题。不同的时期,不同的学派占据主义地位,其顺序为:符号->连接->统计->连续。目前连接学派里面的深度学习引起热潮,注意是得益于计算机硬件性能的提高和大数据时代,使得更多层的神经网络焕发青春。

  对于工程技术人员而已,从应用角度上应该做到:

  (1)清晰地认识自己要解决的问题,该问题很难手工或采用其它常规方法解决;

  (2)没有数据就没有机器学习,因此首先要获取到足够的相关数据;

  (3)了解各个机器学习算法的基本原理和功能,以方便选择合适的算法;

  (4)计算结果要反馈到实际中查看效果,以做进一步的调整和优化。

  《机器学习》读后感(二):目前看到过的,算是最好的“中文”机器学习“教科书”了。

  注意,这是一本“教科书”,所以其中有一些“不足”也就好理解了。

  书本身没有很厚,看起来不至于压力很大。毕竟是“教科书”,每一章只有短短的几十页,结合课程用来教学是不错,但自学只看这本书估计有点不太够,可以结合coursera上Andrew Ng和林轩田的课来使用,要是这本书早点出就好了,相见恨晚。以前一直想找一本这样脉络比较好的机器学习教材,一直没找到好的。

  除了前面提到的经典的公开课,顺带再介绍一些自学材料吧。EM算法“西瓜书”里只有两页,我觉得还是cs229的note讲得比较清楚。神经网络可以参考stanford的UFLDL课程,做做里面的课程实验,加深理解。类别不均衡问题,最近刚跟大牛学了EasyEnsemble这个trick,书里一句话带过,不注意可能就略过去了,这个trick还是挺简单好用的,值得了解一下。LDA可以看看"LDA数学八卦"。

  跟其他书比起来,可以说各有侧重,要结合自身情况阅读。经典的PRML打印了一本,因为现在已经上班了,远水解不了近渴,看了一些,然后暂时放边上吃灰了。我这种“实践派”,还不如看sklearn的文档来得实在,毕竟要搬砖赚钱吃饭。真羡慕那些已经“深入学习PRML”的人呐!

  把道理本身讲清楚是一方面,把道理讲得让别人容易懂是另一方面。所以就需要“西瓜书”绪论那样的引子和西瓜这种通俗易懂的例子。有人说李航的《统计学习方法》适合入门,我自己刚刚入门的时候倒觉得不好懂,不过后面开始摸着门道之后倒觉得不错,把原理和式子列一列,然后再举个例子,就差不多了。不需要太多“废话”。

  反正这些书都是好书,但适合不同的段位和需求的人。有时间的话,多看看,从不同角度加深理解也是极好。

  《机器学习》读后感(三):机器学习理论大集合

  冲着周教授的学术名气买的这本书,拿到书以后,稍微感觉有点失望。

  之前,曾经入手了 李航博士的《统计学习方法》,而且我是认认真真看了不止一遍的。

  对比周教授的这本《机器学习》,在内容的广度上,《机器学习》介绍的内容范围相对广一些,但是就单个领域的论述和可接受方面,《机器学习》就不如《统计学习方法》更加让人容易接受了。比如,对比决策树一章的内容,周教授只是介绍了整个决策树的算法流程,举了一个例子把整个流程演示了一遍而已。反观李航博士的《统计学习方法》,首先介绍了决策树的模型理论,然后举了几个例子来说明各个环节的做法;后面再把我们平常用到的几个经典的决策树算法,比如ID3算法、C4.5算法、CART算法都进行了理论方面的梳理,这样的知识框架安排,就要合理得多了,给人感觉言简意赅,提纲挈领。

  当然了,《机器学习》也有比较好的一面,比如对于各个算法的来龙去脉的历史介绍,后续阅读材料的介绍以及参考文献方面,都要比《统计学习方法》好些。

  《机器学习》读后感(四):这本书 应该没你们说的那么好

  看到这本书豆瓣上评到9.1,各种赞誉,很是惊奇,感叹国内作者能写出这样的书来真不容易。

  当然有好书我也想看,昨晚下单,今天到货,很不好意思,要泼点冷水,这本书没有你们说的你们好。

  简单说:这本书作为自学教材,是绝对不合适的。这本书其实是本:<机器学习导论>。

  以下是读这本书的感觉,都是个人观点。另外,周老师是机器学习的大牛,水平肯定不是盖的。以下评论对书不对人。

  我学习人工神经网络有段时间了,即使这样第五章神经网络部分读起来都十分晦涩,很难想象对于想拿着本书入门机器学习的人来说,到底能有多少收获。至少神经网络部分的学习体验,这本书远不如《神经网络在应用科学和工程中的应用:从基本原理到复杂的模式识别》,以下简称《神经网络》。。

  简单说几个问题:

  1、术语不规范

  网络权值更新,按训练样本多少,可以逐次更新或者样本集训练完整体更新一次。这本书的叫法是“累积BP算法”和“标准BP算法”,这个叫法我觉得晦涩且不确切;《神经网络》的叫法是:批量学习(离线学习)与在线学习;还有权值和阈值的叫法,其实阈值这个叫法也不确切,当然更不是阀值,相对的,《神经网络》这本书在前半部分就着重提出,这是b值,其实是”偏置“,从出从感知器和线性网络开始,b值就一直充当分类直线的偏置的作用。。。不一一描述。

  2、实在是实在是,太简略。

  正文400页,十几个算法,每页只印刷大半页。作者大概也没想正八景给你讲算法把。。。

  正则化一部分,为了获得更好的 泛化能力,其实 方法有很多,提早停止、正则化、人为增加训练集大小等,当然本书只提到正则化,并且基本上只给了一个概念和一个公式。至于什么权重值的调整”常通过交叉验证法来估计。“这个交叉验证法,作者是有必要给出三五句描述的。。。

  至于常用的径向基网络以及其他网络,基本只给了个概念。。。

  3、配图及符号表示有些乱

  是有些乱,不是特别乱。当然主要是我受《神经网络》那本书的影响,那本书的配图,及对各层输入输出权值偏置的表示非常清晰,阅读体验非常棒。(ps,那本书也有问题,这里并不是吹捧那本书。。。)这本书呢,各层输入输出权值偏置的表示的符号,不清晰,没规则,阅读体验差一些。想对着这本书的介绍自己写个程序实现神经网络的话,要先花点时间把错乱的符号理顺清楚才好。。。

  4、免不了的学院派

  既然这本书不适合做自学教材,适合做科普。。。按理说应该亲民一些,少些专业符号,公式可读性方面提高一些,至少能够让人清楚的理顺算法逻辑做到心中有数。但是这本书还是十分学院派,读起来很硬。国内作者写书的通病吧。对比的,还是《神经网络》那本书。。。

  这本书印刷精良,字体大小合适,排版上乘,纸张优质,是本值得收藏的书。。。也确实是本很”流行“的书。正如作者一直在讲西瓜的例子,并且把西瓜作为了封面图片,似乎也预示了,这本书可能不是一本十分严肃的教材。。。如果作为培训,有老师在课上一边详细的给你讲算法,你做笔记,配合本书,或许能有收获。。。否则看这本书,只能是作为课外阅读。

  怎么说呢,这可能是一本不错的读物。。。

  我只能给7-8分。

  《机器学习》读后感(五):这不是一本用来自学的书

  似乎中国的老师在写教材的时候是没打算让人自学的,经常写到懂得人不需要读,不懂的人读了也不明白的地步。这本书就对初学者很不友好,实在不是一本入门的自学读本,可能加上作者的授课倒是可以起到实际的效果。不过考虑到读者人数和作者能够教学的人数,恐怕大多数的读者都没有这个机会得到作者的讲解了。而且这本书的一个问题是内容过于的散了,没有对应的逻辑用来将各章节串联起来,也没有一个大纲给各个章节一个提纲挈领,让人总是在不同的章节中跳来跳去,这种感觉越到后面越严重。希望作者在改版的时候可以考虑一下这个情况,看看有没有办法讲一个完整系统的故事,可以让人将机器学习整个理顺,而不是仅仅写到机器学习导论为止。

  《机器学习》读后感(六):教材书籍

  周老师这本书用来当教材确实不错,不过自学的话跟李航老师的《统计学习方法》来比,确实不够详细,但周老师的书广度上要更加广泛。不过某些内容上,如线性判别函数,《模式分类》以及《现代模式识别》(第二版)都用了一章去讲的,但周老师的书又略显简略。个人建议,周老师的书可以用来当做一本教材,自学的话,可以根据周老师的书,辅以《模式分类》(前面的三章可以通读),《现代模式识别》(重公式推导),《统计学习方法》来进行加强学习 2016.3.19更新: 认真看了前面9章,不得不说,周老师写书确实有一套,基本上对算法原理,优点缺点,适用条件讲得非常清楚,详略得当。当然,作为教材不可能面面俱到,上面提到过的书籍都可以用作参考。 至于视频,理论性很强的台大林轩田的机器学习两门课可以配合着周老师的课本一起学习。 至于英文参考,我觉得cs229的课件就非常适合理论入门,至于esl,prml,mlapp可以用来当做进阶参考 2016.7.24更新 再加一本实战书籍《Python machine learning》用scikit-learn等包进行一些操作 至于R语言的,可以看看《R IN ACTION》第二版以及《applied predicted model》(都有中文版)

  2017.10.10更新

  视频的话,台大李毅宏机器学习跟深度学习的两套视频都很深入浅出,值得一看

  《机器学习》读后感(七):看了几章,还不错

  大致翻了下,目前详细看了第8章集成学习,和前5章。感觉还不错,不由得拿李航的书来比较。(只谈谈我目前看到过的几点,仅供参考)

  ①内容方面,李的书要少于周的书,周写的内容更多一些。

  ②由于只看了第八章,两者关于adaboost的公式讲解都差不多,但是李航的书有例题,一步步的计算。周的书没有例子,但是有一些在相同数据集上不同参数的比较图。

  ③周的书有个好处就是,行文中穿插了各个算法的来龙去脉,有点历史的感觉。

  ④参考文献两本书都有,这点就不比较了。

  ⑤最后一点,周的书比李航的书要厚许多,也是彩印,内容当然也要涵盖很多,但是不能说周的书是包含了李航的书,我的建议是两本都可以看看,都是不错的读物。

  《机器学习》读后感(八):看完《机器学习》的总结与心得

  这段时间利用下班晚上和周末在家的时间把《机器学习》看了一遍,总的来说,除了前两章是基础,其余章节都是介绍模型方法,应用场景、理论推导、优化过程、算法等,每章都可独立阅读而不受其他章节影响。

  如果只是每一章都看完,顶多就是了解了一种方法,相互之间是割裂的,这样当碰到一个实际问题,仍然无法思路完整的求解,因而有必要在阅读时就要有意识甚至刻意的建立起知识架构。实际上,所谓的机器学习,是面对一个具体的问题,从给定的数据中产生模型的算法,也就是说脱离了实际问题谈机器学习算法是毫无意义的。

  参考本书的章节内容,加上自己在读书、工作中的一些理解,简单总结一下基于机器学习的一般性问题解决方法。

  前面提到,脱离实际问题谈机器学习是毫无意义的,那么在给定数据集(所谓大数据)和具体问题的前提下,一般解决问题的步骤可以概括如下:

  1、数据抽象

  将数据集和具体问题抽象成数学语言,以恰当的数学符号表示。这样做自然是为了方便表述和求解问题,而且也更加直观。

  2、设定性能度量指标

  机器学习是产生模型的算法,一般来说模型都有误差。如果模型学的太好,把训练样本自身的一些特点当成所有潜在样本具有的一般性质,这种情况称为过拟合,这样的模型在面对新样本时就会出现较大误差,专业表述就是导致模型的泛化性能下降。

  与之相对的是欠拟合,模型对样本的一般性质都没学好,这种情况一般比较好解决,扩充数据集或者调整模型皆可。

  而一般来说无论是机器学习还是现在很火的深度学习,面对的主要问题都是过拟合。那么为了保证模型的泛化能力足够强,必须要有衡量模型泛化能力的评价标准,也就是性能度量的设定。

  很显然不同的性能度量会导致不同的评判结果,好的性能度量能够直观的显示模型的好坏,同时也能看到不同模型,或者模型的不同参数下对解决问题的程度好坏。

  进一步,有的问题可以直接基于设定的性能度量直接做最优化,得出该问题的一般求解模型。

  比如回归任务最常用的性能度量就是均方误差,目标就是让均方误差最小,这就直接转化成了一个最优化问题。

  其他一些常用的有错误率与精度、查准查全率、ROC与AOC等。

  当然更为重要的是,仅仅设定好性能度量是不够的,不同模型或者不同参数下得到的性能度量结果一般是不同的,一般来说不能简单的比较结果,而应该基于统计假设检验来做效果判定。也就是说通过比较检验的方法,我们就可以判断,如果观察到A比B好,在统计意义上A的泛化性能是否优于B,以及这个判断的把握有多大。

  3、数据预处理

  之所以要做数据预处理,是因为提供的数据集往往很少是可以直接拿来用的。

  可能的情况有:

  - 样本某些属性值缺失

  - 有未标记样本

  - 样本的属性太多

  - 样本量不足

  - 没有分出测试集和验证集

  - 不同类的样本数相差比较大

  - 不同类的样本数相差比较大

  这就是所谓类别不平衡问题。举个例子,样本里有998个反例,2个正例,如果一个模型对任何的新样本都预测为反例,那么它的精度为99.8%,虽然很高,但没有任何价值。

  这种情况使用的基本策略是再缩放,具体方法则是采样。通过不同的采样方法来使类别达到平衡。

  没有分出测试集和验证集

  再说第五种情况,为了方便训练和验证模型好坏,数据集一般会以9:1或者其他合适比例(比例选择主要基于实际问题)分为测试集和验证集。如果给定的数据集只是已经标记好的样本,那么划分时必须保证数据集和测试集的分布大致均匀,这就涉及到具体的划分算法了。

  样本量不足

  第四种情况一般图像问题比较常遇到,如果样本量不足,不够模型来学习,效果自然很差。常见的方法一般有两种:

  基于原数据集做扩充。比如对于图片,可以做各种处理,比如旋转、crop、对比度、亮度等基于像素值的调整,使得一个样本能够生成多个样本,从而达到扩充数据集的目的。

  通过人工标注生成样本。比如大名鼎鼎的ImageNet数据集就是通过全球众包完成的,当然这个不仅耗时长,人工成本也很高,需谨慎考虑。

  样本的属性太多

  对于第三种情况,如果样本属性太多,为了保证模型的泛化性能足够强,则理论上必须保证数据集包括有所有属性的所有值,而这随着属性数目以及属性值是呈指数上升,很有可能达到天文数字,不仅难以计算,在现实情况也不可能收集到这么多的样本。

  从数学角度看,每个样本的属性可以看成向量,属性数目是向量的维数,解决第三种情况一般有两种方法:

  - 降维

  - 特征选择

  特征选择比较好理解,就是选择有用相关的属性,或者用另外一种表达方式:选择样本中有用、跟问题相关的特征。事实上这也很正常,并不一定样本的所有属性对具体问题都是有用的,通过一定的方法选择合适的特征可以保证模型更优。常用的方法大致分三类:过滤式、包裹式和嵌入式。

  所谓的降维,即是多属性意味着是高维空间,在很多时候可以等价的映射到低维而不丢失主要信息。从空间映射的角度看,我们可以通过主成分分析PCA(线性映射)和核化主成分分析(非线性映射)来达到降维的目的。(补充:PCA是无监督降维方法,线性判别分析LDA则是监督降维防范)

  有未标记样本

  现实情况下往往很多数据集都有大量的未标记样本,有标记的样本反而比较少。如果直接弃用,很大程度上会导致模型精度低。这种情况解决的思路往往是结合有标记的样本,通过估计的方法把未标记样本变为伪的有标记样本。基本的方法有主动学习和半监督学习两种方法。

  样本某些属性值缺失

  样本的属性值缺失是很常见的一种情况。比如做书籍、视频、音乐等的个性化推荐时,需要用户对不同种类的偏好或评价。而用户不一定听过所有种类的歌,也不一定做出了评价。这就需要通过他已产生的样本数据和与之相类似的用户的数据来恢复和补全。

  从原理上讲,这和压缩感知根据部分信息恢复全部信息是有类似的。

  常用的方法涉及到协同过滤、矩阵补全等技术和方法。

  总的来说,数据预处理是一个非常重要的过程,实际上数据预处理往往会和模型选择结合在一起。

  4、选定模型

  在数据集完美的情况下,接下来就是根据具体问题选定恰当的模型了。

  一种方式是根据有没有标记样本考虑。

  如果是有标记样本,可以考虑有监督学习,反之则是无监督学习,兼而有之就看半监督学习是否派的上用场。

  无监督学习方法主要提到的是聚类。随机选定几个样本,通过一定的算法不停迭代直至收敛或者达到停止条件,然后便将所有样本分成了几类。

  对有监督学习而言,根据最终所需要的输出结果

  如果涉及到分类,可以参考的模型有线性回归及其非线性扩展、决策树、神经网络、支持向量机SVM、规则学习等

  如果是回归问题,可以认为是分类的连续形式,方法便是以上模型的变种或扩展

  如果涉及到概率,可以参考的有神经网络、贝叶斯、最大似然、EM、概率图、隐马尔科夫模型、强化学习等

  5、训练及优化

  选定了模型,如何训练和优化也是一个重要问题。

  如果要评估训练集和验证集的划分效果,常用的有留出法、交叉验证法、自助法、模型调参等

  如果模型计算时间太长,可以考虑剪枝

  如果是过拟合,则可通过引入正则化项来抑制(补偿原理)

  如果单个模型效果不佳,可以集成多个学习器通过一定策略结合,取长补短(集成学习)

  6、应用

  模型训练好之后,自然就是应用,针对未知样本做预测、推荐等。

  最后再简单谈一下神经网络。本书中神经网络仅仅是作为一个章节叙述,包括经典的BP算法。

  但技术书籍的推出总是落后于当前技术发展的。《机器学习》上市的时间,已经是深度学习大行其道了。

  多层的神经网络伴随的往往是大量参数的计算和对大数据的渴求。随着互联网的发展,人们产生的数据呈爆炸式增长,这使得大数据集越来越多,同时以NVIDIA为代表推出的基于GPU的机器的计算能力大幅提高,这使得应用多层神经网络解决实际问题成为可能。尤其是在ImageNet竞赛中基于卷积神经网络的模型以大幅优势夺冠后,无论是学术界还是工业界,都投入大量人力财力研究和应用。以前认为人工智能不可能击败围棋的论点也在今年AlphaGO战胜李世石不攻自破,AlphaGO赖以成功的基础就是几千万名家的对战棋谱(数据集)和多层神经网络(模型),当然还包括了强化学习和评估网络等辅助下棋策略。

  一个非常有趣的事实是,神经网络在经历了几次寒冬后,科学家们为了保证科研成果能够更大概率的发表,启用了新名词深度学习。(以neural network为关键词的paper拒稿率很高)所以从本质上讲,深度学习可以简单的认为是很深层的神经网络。

  《机器学习》读后感(九):周志华机器学习习题答案

  开个坑,慢慢填

  《机器学习》读后感(十):标准的教科书:理论知识,加比较新的研究总结

  豆瓣评分9分的书,全是理论知识,应该说还不错。 读完厚厚的一本书,能建立机器学习的框架,并有前瞻性的一些概念。 掌握各种算法的数学基础,能解决什么业务问题,有什么注意事项,能更好的指导我们的工程实践。 同时,补充书中没有的当前流行的计算环境和库,结合我们实际的各种业务问题,机器学习就能在我们的日常工作中开花结果了。

评价:

[匿名评论]登录注册

评论加载中……