文章吧-经典好文章在线阅读:算法霸权读后感摘抄

当前的位置:文章吧 > 原创文章 >

算法霸权读后感摘抄

2020-03-03 23:12:02 来源:文章吧 阅读:载入中…

算法霸权读后感摘抄

  《算法霸权》是一本由[美] 凯西·奥尼尔著作中信出版集团出版的精装图书,本书定价:68.00元,页数:320,特精心网络整理的一些读者读后感希望大家能有帮助

  《算法霸权》精选点评

  ●有霸权倾向数学模型输入来源群体输出作用于群体,其采纳本来就诞生了一种少数对多数单向的权力关系。因此用个体叙事对抗方法虽然力量微薄,但仍有价值

  ●不平等和决定论,是算法根深蒂固价值观

  ●这是一本很牵强,有偏见的书. 作者作为数据科学家给我的感觉就是害怕数据.数据本身是没有好坏的,到了人的手里有不同用法. 书中举的由于模型偏见带来的问题,我感觉作者是在讨好中下阶层的人.或许这些人才是这本书的受众,可以把自己不行归结到社会上. 整本书也没有给我更多的启发, 我也没有看到作者会为此做出切合实际行动或者建议. 书名吓人, 给偏见找一个帮凶(这本书是数据),提出一个可以泛泛而谈的问题,却没有实际建议. 这本书十分糟糕 说实话,模型不是万能的,需要透明化不断调整。这个观点赞同,但让算法跟公平牵扯在一起讨论就很牵强了。算法是真实的,但公平是不存在的,

  ●读完原版再来看中文版,还是3星。还是效率与公平的问题。美帝开放环境总是能引申出许多让许多社畜觉得,在一轮革新创造后又反回来矫枉过正、吃饱撑的社科研究。不过这不正是多元化、熵变的乐趣

  ●作者认为算法的三个特点导致了负面影响:不透明、规模化和毁灭性 对于什么是好的算法,什么可能产生误导,甚至负反馈带来灾难进行阐述。 作者在大学对冲基金互联网机构的从业经历,使得本书例子丰富,但是读完后并没有让自己有更多的思考。 建议方面,作者认为,增强监管手段提升开发工程师职业操守;还要保证数据的透明公开。但这从我来看好像没什么实际意义

  ●有点啰嗦,但还是有干货数字化时代人力会日益退化成资本效率系统中的资源,无论是从客户端,还是成本端,消费或被消费。 观点新颖: 大数据程序只能将过去编入代码,而不会创造未来。创造未来需要道想象力我们必须将更好的价值观嵌入我们的算法代码中。

  ●亚马逊的书评道理:Unfortunately, her desire to reinforce her own social beliefs infuse the same kinds of bias into her analysis that she asserts exist in current WMD’s, just in the opposite direction.

  ●一个数博士母亲碎碎念???

  ●如果说开复老师2018年的《AI·未来》是大胆假设的话,那么这本2016年的《大數據的傲慢與偏見》就是与其瑕瑜不相掩的小心求证了。正如作者在前言中所述: “本书将透视数学杀伤武器带来的种种危害和不公正分析其对人们人生关键时期(如上大学,借钱,入狱,或者是找工作和保住工作)所做决策造成误导的有害例证。我们将看到,人类生活的各个方面正越来越多地被数学杀伤性武器所控制。 欢迎参观大数据的阴暗面。”

  ●这本书必须配合一些互联网方法论类书籍对冲着读,否则就会沦为因噎废食之作

  《算法霸权》读后感(一):中性的科技

  虽然是很多事实的罗列,但如果不去看,可能永远也不会知道。前半部分比较无趣,后半部分有种战斗的感觉。

  人类发明出来的许多工具都是中性的,关键是如何利用。这可能不仅仅是一个科技上的问题,更是一个道德问题。风险共担的意识在大数据时代更为重要和宝贵。因为一旦违背道德的逻辑被写入算法,其影响将远胜于前数据时代。

  算法的问题可能是,算法实在过于复杂了,当加入了大量的计算逻辑数据点和平衡项,最后可能连设计它的人都难以把控计算结果。更不要说毫无知觉地被这些算法影响的人了。而有了迅猛发展的硬件和软件辅助,算法的发展又过快了,每一个算法都可以各行其是,缺乏监管。而即便想要监管,人力恐怕也难以企及了。

  《算法霸权》读后感(二):Ⅵ.践行G(定量之化)

  【春上春树随喜文化】 算法是层级和并行思维的融合 可视化,标准化,规模化,全球化 去中化,分布式计算,智能虚拟助手 乃至宗教般毋庸置疑的 民主和科学的感召 最后所有人被既得利益者 网罗为囊中之物 辛普森悖论 是《国富论》所谓的 看不见的手 阶层难以穿透 跃迁机会渺茫 穷者愈穷 富者愈富的马太效应 《21世纪资本论》所述的 承袭制资本主义 堂而皇之登上大雅之堂 美其名曰贵族文化传承 区别于过往的族观念 现在固化的是社会进步的原动力 人力资本的选育留用 你要我的山头 我要你的后方 当你把数据的主动权 与虚拟世界的游戏制定者交换 让他来掌控用,生活,工作 人只是流量经济中 增加的随机变量 庶民的胜利 便是小趋势 不玩他们主导的游戏 对自己比较优势的识别 扩大生命硬件重塑的输入带宽 一以贯之投资自己 刷新文化软件源代码 明修栈道 暗度陈仓 演好他们认为的 沉默的待宰的羔羊 不可逆转的世界 剧情翻转终局

  《算法霸权》读后感(三):观点并不新颖,消遣可以看看

  先写结论:作者对数据模型做了很好的总结,但是观点并不新颖。举例过于冗余,后半部分有点像在冲字数。一些观点过于偏激,比如全盘否定数据模型的在社科领域的作用。

  作者对数据模型有几个不错的总结,罗列如下:1. 数据模型擅长以低成本处理海量数据,2. 由于人们无法对模型进行修改,所以为了得到模型的高评价,人们的行为会偏向迎合算法的拟合结果,而非使用革命性的方式创造新的方法(data manipulate), 3. 由于人们无法直接测量他们想要获取的数据信息,因此会使用其他数据来替换这些直接的数据,并利用数据模型,通过分析其他数据来测算想要获取的直接数据,4. 由于经验,认知,文化等差异,模型制定者制定的模型会存在信息盲点,盲点也能够反映建模者的判断和优先级序列,5. 混淆相关性和因果性。

  作者批判的几个点,例如data manipulate确实是有害的,因为这使得一个评价模型变成了具有指导意义的发展模型。本身是为了衡量教学质量而设计的模型,但是因为教师知道了其评价方式,而刻意去提高一下分值,是得模型结果对教师更有利。我认为如果教师如果真实去提升自己的教学质量,那么这些指标很可能也会有极大的提升。但是为了指标而提升指标,就出现了本末倒置,这确实是模型在做评价时候的一个问题,只是这个问题并非由模型本身引起,而应该更多去思考制度如何设计。

  至于作者认为的,类似模型评价标准过于死板,千篇一律。我人为模型本身就是标准化和高效的产物,其评价必然是一个近乎冷漠的客观评价。如果要照顾到每个人的个性,那么模型是设置会更加复杂,最终演变为一个人一个模型,这显然不是模型设置的初衷。这个问题就好比:医学院是否应该对黑人学生降低毕业标准?如果按照毕业标准模型,那么很多黑人学生可能无法毕业,模型显然没有考虑黑人学生家庭条件困难,为了支付学费而疯狂找兼职,以至于无法专心学业的因素。从这点上看,模型显然是不公平的,是霸权的。但是如果模型设置的初衷是为了保障未来病人的权益,使所有医学院毕业生都可以高水平的救死扶伤,那么这个模型又是负责和公平的了。问题的关键在于,究竟是维护黑人学生公平重要,还是维护医学院毕业生的高水平声誉重要。其所谓的马太效应,很大程度上也源于此:究竟是要保护投资者的资金,还是要帮助更多贫民区的好人申请到贷款?

  最后,作者大量抨击了现有模型的缺点,但是并没有提出自己的改进意见,而是一刀切的认为模型损害了社会,损害了人的利益。综上,作者对数据模型的总结可圈可点,但是其结论有待讨论。

  《算法霸权》读后感(四):摘录点

  模型中的犹太效应: 作者担心数据模型会不断的自我预言自我实现,例如贫困的人因为贫困只能不断损害自己的信用,进而无法找到合适的工作导致更加贫困.

  作者的观点:

  - 错误总会出现,因为模型的本质就是简化。

  - 我们自己的价值观和欲望会影响我们的选择,包括我们选择去搜集的数据和我们要问的问题。而模型正是用数学工具包装出来的各种主观观点。

  - 一个模型的信息盲点能够反映建模者的判断和优先级序列。

  - 数学模型的本质是基于过去的数据推测未来,其基本假设是:模式会重复。

  点评: 当能意识到这个问题的时候,其实市场本身已经做出反应了. 例如现在的芝麻信用分, 高分的人可以得到更多人信任,也可以借到更多的钱. 低分的人难道就没有翻身的机会吗? 不会,支付宝并没有公布计算的具体细节,但他给用户做出了引导, 你更多的社交,购物,等等会让我们相信你是一个有价值的用户进而有机会提高信用分. 对支付宝来说,他们需要推广他们的产品,他们不希望只有一小部分用户使用, 所以每个人可以在里面尝试.

  模型与其说是一种简化,倒不如说是对现实生活的抽象. 问题不在于模型有优先级,我或许更害怕的是一个模型下来它就不会自我进化,也不会引导它的“实验对象”. 我更害怕的是这样的模型会在强制的条件下继续存在而没有被自然淘汰掉.

  所有的预测都是基于一个前提: 你相信过去发生的接下来可能继续发生. 我觉得这是人类能继续发展的一个重要前提,为啥呢? 我当然很愿意相信人类不会明天灭亡,太阳明天还会升起. 但哲学家 休谟 已经质疑这一点. 我不是说太阳永远都会升起,我只是相信在我渺小的几十年里面,它会继续存在着.

  不要去相信可以永恒的模式,但可以相信在你这辈子很有可能会有效的模式,这样的人生已经足够.

  作者在这本书只有一个地方说到点子上了: 存在的一家强大的公司能搜集到你大量的数据,并有可能引导你去实现政治目的.

  gt; 从未有研究人员从事过如此大规模的人类实验。Facebook能够在几小时之内收集数千万条甚至更多的数据,用以衡量每一个人对其投票行为的描述用语和互相分享过的链接带来的影响。这种权力是巨大的,而且拥有并行使这种权力的并不只有脸书一家公司。其他的上市公司,如谷歌、苹果、微软、亚马逊,以及威瑞森和美国电话电报公司等手机供应商也掌握着大量关于用户行为的数据以及引导我们做出特定选择的无数方式。我暂且不将Facebook 或者Google的算法视为政治领域的数学杀伤性武器,因为没有证据表明这些公司正在利用它们的算法伤害大众。但这些算法被滥用的可能性是巨大的.

  《算法霸权》读后感(五):自恋,自负,自私的,“神”

  现在的互联网世界,弥漫着一种“技术既正确”的气氛。高技术诚然引领了社会的经济增长,技术员也在这一波浪潮中赚了不少快钱。我没有要否定计算机技术的意思,但国内的氛围,似乎看不到对于技术的负面影响有什么怀疑。

  这本书在国内出版的意义就在于此。

  人类的技术正在做的,已经不仅仅是提高生产力这么简单。人类正在发展的人工智能技术,或许有一天就会创造出全新的硅基生命,人类的医疗与基因技术,正在延长人类的平均寿命,增强人类的肉体能力。而两者的结合,很有可能在未来将人类的能力提升到前所未有的地步。这些技术的应用,实际上正在扩张人类活动的边界。尤瓦尔·赫拉利在他的著作里称这个过程为,从智人到智神。

  人类在用科学技术,创造新的物种。除了最近比较敏感的生物基因技术,现阶段的人工智能,是大数据+算法+编码,其前景不可限量,甚至于有一天创造出和人类一样有意识的个体,也不是不可能。我认为一旦实现了有意识的人工智能机器人,和创造了新的物种是没有什么区别的。

  作者在这本书里提到的数据分析技术,以及人工智能技术,也完全可以在新物种的领域大放异彩,与此同时,作者所提到的缺陷也是不可忽视的。

  我认为这本书提到的算法的最大问题,就是算法本身判断的只是对错,优劣,而算法的价值观(如果有的话),也仅基于对对错,优劣的判断,以及算法本身的判断的绝对正确性假设。

  针对第一个条件,算法的价值观体现在对错,但不会考虑到是在谁的角度的对错,算法可以判断优劣,但不能知道是对于谁来说的优劣。算法的设计者完全可以设计更符合自身利益的算法,即使这种算法会损害很多人的利益。

  针对第二个条件,如果算法本身的判断存在错误的可能,无论是算法得出的结论,还是算法的价值观,都将不可避免地导致错误。即使排除电路和硬件故障,算法也还是可能会对现实造成误判的。毕竟算法的设计者是人类,人类犯错误的可能性永远不会是零。

  正如作者所说,“特权阶级更多地与具体的人打交道,而大众则被机器所操控。”这句话和“强者制定规则,弱者遵守规则”是一样的。制定算法规则的算法设计师本身就属于高收入群体,自然就会赋予同类特质的高收入群体更多权重和自由度,普罗大众就只能在规定的框架下生存,进而导致更大的不平等,强者恒强,弱者恒弱。

  书中的例子,无不体现了算法设计师有意地偏向,或者无意的错误导致更深入的不平等。

  其中让我最印象深刻的两个,一个是贷款利率的价格歧视。穷人贷款利率比富人更高,因为穷人的偿债风险更大,实际上高利率本身也深化了这种风险。纪录片《why poverty》提到,美国的顶级富豪的税率,比普通工薪阶层还低,因为有一位利益相关的纽约州议员,改革迟迟不能落地。另外一个例子,是某个名校毕业的富二代多次面试被拒绝,后来才通过一些渠道发现,是企业的人才筛选系统在幕后操作,通过一些与工作能力无关的因素,排除了他的简历。于是这位富二代和他的律师爸爸开始了针对不公平的筛选算法的旷日持久的起诉活动。如果没有足够维持生存的存款,恐怕只能自认倒霉了。

  计算机算法正在导致不公平,而且将来也会继续导致不公平。虽然作者也提到,不少专家学者已经意识到了算法模型的一些不合理的效果,但我仍然对此持悲观态度。作者潜意识里假设算法设计师是一群技术至上主义的geek,而不是有自利动机的经济人,现实情况恐怕不会和她的想法一致。

  实际上,未来的算法与工业,算法与武器,算法与生物的结合会更密切,无意的伤害很可怕,有意的掠夺可能更恐怖。

  “神”能做的,比凡人想象的多得多。

评价:

[匿名评论]登录注册

评论加载中……