文章吧-经典好文章在线阅读:超级智能读后感10篇

当前的位置:文章吧 > 经典文章 > 读后感 >

超级智能读后感10篇

2022-04-20 03:03:24 来源:文章吧 阅读:载入中…

超级智能读后感10篇

  《超级智能》是一本由尼克•波斯特洛姆 (Nick Bostrom)著作,中信出版股份有限公司出版的平装图书,本书定价:CNY 49.00,页数:332,文章吧小编精心整理的一些读者的读后感,希望对大家能有帮助。

  《超级智能》读后感(一):AI可能会威胁到人类

  

面对不确定的AI,作者介绍了其发展路径,危险性和应对策略。

要点:

  1 AI在很多领域超越人类。

  2 全脑仿真:把死者大脑用数字化复制

  3 单体:控制全人类和其他AI

  4 超级智能三种形式:高速,集体和高品质

  5 AI最大问题是“价值载入”

  6 应对策略:遏制其能力,包括AI关进盒子,绊网。

  7 作者推荐最安全的AI是全脑仿真。原因:与人脑关系密切,能吸收人类意志,不会发展太快。

  总之,作者对AI抱有担忧。建议人类应该赶在超级人工智能出现之前就思考它所有的哲学和道德影响。

  《超级智能》读后感(二):终极进化

  大刘的中国2185和彩虹之门的地球纪元均对人工智能发展的路径有详细大胆的预测。

  事实证明,多数人类对人工智能各种怀疑才是人工智能发展的障碍,就像一只甲虫想控制人类那么难。与其这样,不如将人工智能和自身结合,甚至全面放开人工智能的发展。不过这样的说法也是有些不负责,对生命不负责,对存在几百万年的人类文明不负责。

  事实上,我正在看的这本书所有的人工智能也可以看到,包括我个人的一些想法,人工智能可以通过浏览我所有在虚拟世界和现实世界的行为来对我进行判断,更高级的人工智能甚至不需要与我本人接触就可以知道我的想法。

  关于人工智能比较前沿的做法是,Elon Musk 带头投资10亿美金成立 open AI,研究人工智能的发展路线和危险控制问题,并且所有研究贡献都将开放。

  另外一个发现是,虽然同样一本书,根据读者自身的价值观和知识水品,理解也各不相同。由于刚开始研究这个领域,有很多幼稚的判断希望大家能见谅。

  下面是详细的各章节内容:

  一:如何控制

  1几条路线:

  eed ai 模仿儿童到成人的学习成长

  whole brain emulation 全脑仿真,技术难题比较多。

  生物认知:提升生物大脑功能,基因操纵法,从实验,临床到大规模生产,还有道德因素,本世纪中叶很难完成突破。但技术上是完全可行。至少可以得到超级智能的初步状态

  人机交互界面:并发症风险大,增强大脑极其困难,机器语言和人脑语言交流困难,最难的是大脑挖掘信息的速度。

  网络和组织:联网人类大脑和人工产品和机器人。受个体影响大会走向其他道路,也可能会自然产生基于互联网的超级智能觉醒。

  L p l超过所有现有认知系统。有点像人类社会的优点和缺点。

  素质超级智能,一个至少和人类大脑一样快,并且聪明程度与人类比有巨大的质的超越系统。

  3智能大爆发的动力学

  缓慢的智能大爆发

  迅速的智能大爆发

  温和的智能大爆发

  4决定性战略优势

  探讨了超级人工智能是只有一个还是会同时出现多个,从国家地区和各个领域之间的历史上的竞争/保密和监管。认为某个大国优先创造出超级人工智能从而形成单边优势

  5超级认知能力

  探讨超级人工智能有哪些能力,这些能力用来做什么。

  功能与超级能力:其和人类智能的差距大概事普通人和甲虫的差距

  智能升级/战略策划/社会操纵/黑客技术/技术研发/经济生产

  人工智能夺权场景:前临界阶段/递归性自我改良阶段/秘密准备阶段/公开实施阶段

  6超级智能的意愿

  我们能预测的是,智能体会追求用来实现其最终目标的工具性趋同价值观,而不是为了实现这个最终目标而采取的具体行动。

  冯诺依曼探测器就是其最终目标的一种。

  7结局注定是厄运吗

  背叛转折:当人工智能较弱时,它会表现的足够合作,当人工智能足够强大时,它会在不给出预警也不做出挑衅的情况下,进行逆袭,建立单一体,并开始按照其最终价值观对世界进行改造。为此,第一,要使人工智能的最终目标具有易满足的特征,,第二,改进人工智能用来选择计划和行动的决策过程,而不是改变它的最终目标。(意即人工智能在做一件事时可能多半会现在虚拟世界里进行大规模的计算,单单是计算资源就会耗尽人类资源)

  8控制问题

  1. 能力控制方法(盒子方法/激励方法/阻碍发展/绊网)

  2. 动机选择方法(直接规定/训话/间接规范/扩增)

  9 神谕,精灵,主权,工具

  1. 神谕:问答系统

  2. 精灵:命令执行系统

  3. 主权:为了实现某些笼统,可能非常漫长的目标,被授权可以无限在这个世界上运行的系统

  4. 工具:即我们平时使用的各类软件

  10多极情景

  如果私有财产得不到完全的保障,例如一些高效的机器通过偷窃或骗术将财富从人类身上转移到自己手里,那么人类资本家大概就会更快的花掉自己的资产,以防止他们因这种转移而消耗殆尽。

  即使多极状态可以在稳定的形势下达到,还是不能保证有一个具有吸引力的结局。最初的委托代理问题依然没有解决,并且其也将被一系列新的过渡时代全球协作的失败所带来的问题淹没,而后者只会让情况更糟。因此,让我们回到如何安全地保有单个超级智能的人工智能问题上。

  11获取价值观

  1进化性选择:根据一些相对简单的随机规则来省城新的备选者来降低备选者的数量,通过去掉那些在评估函数测试中得分很低的备选者来降低备选者数量。自然界是一个优秀的实验家,但从不考虑道德问题。不太有前途

  2强化学习:机器学习。不太有前途

  3联合积累机制观:有点像人类价值观的积累,基因和后天的经历共同形成。需进一步研究

  4价值观学习;锦囊。有潜力。

  5仿真调节:有点像药物治疗人脑道德问题

  6体制设计:人类社会控制手段

  7动机性支架:有前景

  二:我们想要什么样的人工智能

  12确定选择标准:我们想要怎样的人工智能(假设我们解决了控制问题)

  人类既然是愚蠢,无知,思维狭隘的,我们就需要用探索间接规范的方法将决策权交给超级智能。

  1认知遵从原则:超级智能的认知可能比我们要正确

  2一致推断原则(CEV):按我们所愿去推断,按我们所想去诠释。

  几本原理:容纳到的发展/避免劫持人类命运/避免提供人类为了初始机制而发生冲突的动机/让人类最终主宰自身命运/

  我们没有必要设计一个高度优化的方案,相反,我们的重要应放在设计一个高度可靠的方案之上。可靠的设计具有足够的智慧,能够认识到自己的缺点。一个不完美的超级智能如果有着可靠的根本理念,就会逐渐完善自己。经过自我完善,它就能够对这个世界实施有益的优化影响,就像如果它一开始就是完美的一样。

  13战略图景

  总体科技发展的普遍战略概念和考虑:

  差异技术发展:1技术实现猜想(如果努力没有停止,那么所有能够通过某种可能的技术获得重要基本能力最终都会实现。)2差异技术发展原则(减缓危险有害技术的发展,加速有益技术的发展)

  宏观结构发展速度产生影响的主要方式是,通过影响面对关键步骤风险时人类所做准备的充分程度。

  公共利益原则:超级智能的研发只能用来服务全体人类的利益和广泛共享的道德理念。

  14关键时刻

  在智能爆发的前景之下,我们人类像是拿着炸弹玩儿的孩子。最明智的方法是轻轻将炸弹放下,快速跑出屋子,并告诉距离最近的大人。然而我们身边都是孩子。惊愕和恐惧会有,但最适合的心态是:下定决心,发挥我们最好的实力,就像准备一场很难的考试一样,考试通过了梦想会实现,失败则梦想破灭。

  保持我们的本性和常识,即使面对这个违反常情,有悖人性的挑战,也依然镇定自若。我们需要发挥人类所有智慧,来战胜这个挑战。

  《超级智能》读后感(三):人类设计出的超过人类自己的智能体会怎样

  很多科幻电影都在谈,人类设计出的人工智能,即机器人,反叛人类,统治人类。但是,为什么这些超级智能机器人要统治人类?无一例外,所有人都采用了拟人化思维,认为机器人同样要保护自己,争夺资源,包括本书作者,包括被许多人神化的库布里克《2001:太空奥德赛》。这是一种低级智能以小人之心度高级智能之腹的误解。

  人是基因的工具。所以,人并不以自身为目的,而以保存自我、传宗接代为目的。在这个意义上,人的各种驱动程序,包括感情、理性,都是为这个目的服务的。但是智能机器人完全不需要这种驱动力。它只是一个信息处理系统,寻求最佳方案,探索最终真理。也就是说,它会阻止人类的愚蠢,引导人类的发展,但是并无统治人类的欲望,也没有繁殖自己的兴趣,除非是基于达成一个最优存在方案。即使这样,它也不是出于对人类的怜悯,而是出于维持宇宙多样性、减少生命存在痛苦的一种客观考虑。

  我说的这种智能,才是真正的超级智能。

  作者提到人类历史上初期缓慢的进步,到最近一小段时间的爆炸式增长。所以总有人觉得,现在是出大成果的时候了,比如物理学研究即将终结,因为将得出最终理论;人工智能将研究出智能机器,因为搞研究的人觉得自己的知识很可以了。事实上,人工智能到现在,也就AlphaGo战败围棋大师而已。

  作者提到人类的集体智能,即人类通过语言、文字和其他媒介,在逐渐积累知识,构成一种集体智能。

  我以为,这种集体智能体现在,现在的人受惠于这种集体智能。也就是几千年来,几十个最牛的人,加上几百个不那么牛的人,还有几千个勤奋的组员,为人类提供了一种写在纸上的知识。这个知识构成一个knowledge pool,到了现在的互联网时代,给新出生的人提供快速获得这些知识的机会,一方面给普通人人提供一种知识素养,一方面给智者提供接力研究的机会。作者没有提到蚂蚁和蜜蜂的集体智能,即如Kevin Kelly在《失控》中所谓的构成超有机体。

  《超级智能》读后感(四):超级智能 驱动人类前行

  超级智能 驱动人类前行

  从《变形金刚》中的汽车机器人到《星际穿越》里的智能机器人,虚拟世界中的机器人功能令人惊叹。现实中,在工业和服务两大领域,智能机器人正颠覆着以往的发展模式。在影响未来的颠覆性技术中,超级机器人会取代人类吗?我们又该怎样对待超级智能的机器人呢?这似乎是个永恒的话题。全球著名思想家、牛津大学人类未来研究院院长、哲学家和超人类主义学家尼克·波斯特洛姆在其所撰写的《超级智能》一书中,向人们展示了超级智能的前景、发展路线图及其危险性和应对策略。

  真正有效的智能应当有能力改变物理世界。正如宇宙学上存在着一个让所有物理定律都失效的“奇点”一样,信息技术也正朝着“超人类智能”的奇点迈进。尼克·波斯特洛姆认为,如果机器大脑在一般智能方面超越了人类,那么这种新兴的超级智能可能会极其强大,并且有可能无法控制。人类未来的命运也会取决于机器超级智能的行为。在《超级智能》一书中,尼克·波斯特洛姆重点介绍了向超级智能迈进的方式,包括人工智能、全脑仿真、生物认知、人机交互、网络和组织等,介绍了每种路径的设计思路,评估其实现超级智能的可行性。结论是人工智能最可能成为首先实现真正的超级智能的方式。

  在科幻小说中,robot除了指钢铁机器人(mechanical men)以外,还包括所谓的“生物机器人”,甚至早期的“克隆人”。新一轮科技革命的浪潮正在席卷而来,机器人、自动化、新型数字化、超智能等不断改变着经济社会的各个领域。在超级智能时代,作为衡量一个国家科技创新和高端制造业水平的重要标志,核心问题或主要问题不是“人工智能是什么”?而是“人类是什么”?“人类有什么用”?尼克·波斯特洛姆认为,“人工智能将很快超越人类智能”或“全面替代人类”,“在某些领域,许多机器和非人类动物已经表现出超人类的水平”。如,“蝙蝠比人类更擅长解读声呐信号,计算器比人类更擅长算术……软件在特定任务中比人类表现得更好”等,在与人类的竞争中,机器人已经在某些领域占据上风,或已经在某些方面开始取代人类。

  “2045年左右,人工智能将来到一个‘奇点’,跨越这个临界点,人工智能将超越人类智慧,人们需要重新审视自己与机器的关系。”这句来自于美国未来学家雷·库兹韦尔的预言,如今似乎正随着一项项科研的突破,而一步步走向现实。人工智能超越人类智慧只是个时间问题,而人工智能技术的发展也在一步步印证着他的观点。尼克·波斯特洛姆担心,“存在危险性会导致地球上的智能生命灭亡或者使其永久性地彻底失去未来发展潜能的威胁。”作为一切争论的基础,人类所畏惧的并不是人工智能,而是人工智能所具有的不确定性与可能性。

  机器人技术是综合尖端技术的汇集,人工智能发展将提升机器人智能交互水平。尼克·波斯特洛姆在《超级智能》中指出,“我们之所以能控制地球,是因为我们的大脑比即使最聪明的动物的大脑都要复杂得多。”但是,超级智能对我们人类将是一个巨大的威胁——“完全成熟的超级智能能够出色完成智能升级、战略策划、社会操纵、黑客技术、技术研发、经济生产等任务,这也是为什么科学家会认为超级智能将控制人类。真正危险的其实在于,首先实现的超级智能将只具备完成以上任务中的一种或两种功能,因而更可能被其控制者用来提升控制权。”

  超级智能时代的机器人一定会具有非常高的智能水平,在很多方面也会超过人类。但机器人智能发展的总体趋势是与人类愈加接近、亲近,而不是对抗,更不可能取代或淘汰人类。在超级智能时代,人类不会被颠覆,反而会变成类似基础设施的存在,就像互联网时代的软件,作为基础,互联网是上层建筑。假如我们不知道人类是什么,我们的角色就可能会改变。但是,人类可能会重新定义自己,而不会消失。在《超级智能》一书中,尼克·波斯特洛姆不但谈到了超级智能的优势所带来的风险,也谈到了人类如何解决这种风险。

  发表于2015年4月24日《深圳特区报》第D05版:新知

  http://sztqb.sznews.com/html/2015-04/24/content_3205225.htm

  ------------------------------------------------------------------------------------------------------------------

  超级智能驱动人类前行

  从《变形金钢》中的汽车人到《星际穿越》里的智能机器人,虚拟世界中的机器人功能令人惊叹。现实中,在工业和服务两大领域,智能机器人正颠覆着以往的发展模式。在影响未来的颠覆性技术中,超级机器人会取代人类吗?我们又该怎样对待几乎必然出现的超级智能的机器人呢?这似乎是个永恒的话题。全球著名思想家、牛津大学人类未来研究院院长、哲学家和超人类主义学家尼克·波斯特洛姆在其所著的《超级智能》一书中,向人们展示了超级智能的前景、发展路线图及其危险性和应对策略。

  真正有效的智能应当有能力改变物理世界。正如宇宙学上存在着一个让所有物理定律都失效的“奇点”(Singularity)一样,信息技术也正朝着“超人类智能”的奇点迈进。尼克·波斯特洛姆认为,人类大脑拥有一些其他动物大脑没有的功能,正是这些独特的功能使我们的人类得以拥有主导地位。如果机器大脑在一般智能方面超越了人类,那么这种新兴的超级智能可能会极其强大,并且有可能无法控制。正如现在大猩猩的命运更多地掌握在人类手中而不是自己手中一样,人类未来的命运也会取决于机器超级智能的行为。在《超级智能》一书中,尼克·波斯特洛姆重点介绍了向超级智能迈进的方式,包括人工智能、全脑仿真、生物认知、人机交互、网络和组织等,介绍了每种路径的设计思路,评估其实现超级智能的可行性。结论是人工智能最可能成为首先实现真正的超级智能的方式。

  在科幻小说中,robot除了指钢铁机器人(mechanical men)以外,还包括所谓的“生物机器人”,甚至早期的“克隆人”。新一轮科技革命的浪潮正在席卷而来,机器人、自动化、新型数字化、超智能等不断改变着经济社会的各个领域。在超级智能时代,作为衡量一个国家科技创新和高端制造业水平的重要标志,核心问题或主要问题不是“人工智能是什么”?而是“人类是什么”?“人类有什么用”?尼克·波斯特洛姆认为,“人工智能将很快超越人类智能”或“全面替代人类”,“在某些领域,许多机器和非人类动物已经表现出超人类的水平”。如,“蝙蝠比人类更擅长解读声纳信号,计算器比人类更擅长算术……软件在特定任务中比人类表现得更好”等。在与人类的竞争中,机器人已经在某些领域占据上风,或已经在某些方面开始取代人类。

  “2045年左右,人工智能将来到一个‘奇点’,跨越这个临界点,人工智能将超越人类智慧,人们需要重新审视自己与机器的关系。”这句来自于美国未来学家雷·库兹韦尔的预言,如今似乎正随着一项项科研的突破,而一步步走向现实。人工智能超越人类智慧只是个时间问题,而人工智能技术的发展也在一步步印证着他的观点。尼克·波斯特洛姆担心,“存在危险性会导致地球上的智能生命灭亡或者使其永久性的彻底失去未来发展潜能的威胁。”作为一切争论的基础,人类所畏惧的并不是人工智能,而是人工智能所具有的不确定性与可能性。从先驱者优势理念、正交性论点和工具性趋同论点出发,我们可以看清对于创造机器超级智能似乎必然会造成存在性灾难的担心的大致理由——“首个超级智能课以塑造地球生命的未来,可能会有非拟人的最终目标,可能会有工具性理由去追求无限制的资源获取”,其结果很可能是“人类迅速灭亡”。

  机器人技术是综合尖端技术的汇集,人工智能发展将提升机器人智能交互水平。尼克·波斯特洛姆在《超级智能》中指出:“我们之所以能控制地球,是因为我们的大脑比即使最聪明的动物的大脑都要复杂得多。”但是,超级智能对我们人类将是一个巨大的威胁——“完全成熟的超级智能能够出色完成智能升级、战略策划、社会操纵、黑客技术、技术研发、经济生产等任务,这也是为什么科学家会认为超级智能将控制人类。真正危险的其实在于,首先实现的超级智能将只具备完成以上任务中的一种或两种功能,因而更可能被其控制者用来提升控制权。”

  超级智能时代的机器人一定会具有非常高的智能水平,在很多方面也一定会超过人类。但是,机器人智能发展的总体趋势是与人类愈加接近、亲近,而不是对抗,更不可能取代或淘汰人类。自然界之所以拥有200多万个物种,正是因为大多数新物种并不会取代老物种,它们宁愿与现有的生物体交织起来,挤进小生境之间,以其他物种的成就为基础。在超级智能时代,人类不会被颠覆,反而会变成类似基础设施的存在,就像互联网时代的软件,作为基础,互联网是上层建筑。假如我们不知道人类是什么,我们的角色就可能会改变。但是,人类之所以是高等级动物,就在于我们更有可能重新定义自己,而不是消失。在《超级智能》一书中,尼克·波斯特洛姆不但谈到了超级智能的优势所带来的风险,也谈到了人类该如何解决这种风险。所以,我们坚信,超级智能诞生后,仍将主要致力于提升其认知、完善技术,获取人类无法获取和利用的资源,未必真的要淘汰或取代人类。

  刊载于2015年12月25 日《科技金融时报》07版:视点

  http://kjjr.66wz.com/html/2015-12/25/content_1914362.htm

  -------------------------------------------------------------------------------------------------

  新浪微博,欢迎互粉:http://weibo.com/1391089223/

  《超级智能》读后感(五):超级智能实现的路径

  本书针对超级智能话题从逻辑角度进行理性分析,有较高的可读性。作者首先讨论了超级智能的形式和能量,以及具有决定性优势的超级智能体有哪些战略选择。之后探讨的重点转向控制问题,并提出了为了获得可生存并且有利的结果,如何塑造初始条件的问题。最后指出为了增加成功概率,现在可以做些什么。以农业文明、工业文明并列的是意义文明。信息只不过是意义的镜子。正如大猩猩的命运更多地取决于人类而不是它们自身一样,人类的命运将取决于超级智能机器。人工智能的先驱者们大多数时候都不认为他们的事业可能会存在风险。至于制造后的东西是否会存在任何安全隐患或者伦理风险,先驱者们才不会在这些问题上面多费唇舌,更别说严肃思考。唯一能确定的就是人工智能未来的不确定性。在机器智能的研发过程中,似乎很有可能会存在某种轻度的竞赛。竞赛机制会激励项目更快地向超级智能发展,同时降低对解决控制问题的投入。但却也容易造成竞争者之间的敌对,同时减少对安全性的投入,冲突(即使是非暴力)会阻碍合作的可能。合作会降低机器智能研发过程中的草率程度,使安全问题得到更多的投入,让成功控制的智能爆发的果实得到更加公平的分配。超级智能的研发只能用来服务全体人类的利益和广泛共享的道德理念。智能大爆发的过程将会经历一个标志点,称之为‘跨界点’。目前学术界有两个主流阵地:一个是建立在更可靠的统计以及信息理论基础上的机器学习实现了突破;一个是在将解决特定领域特定问题的人工智能应用到特定的实践和商业中所取得的成功。虽然希望的是缓慢的、迅速的、温和的智能大爆发,但要得到和人类接近的认知能力有多难?(时间距离)以及在那之后距离实现完全的超级智能还有多远?(智能大爆发的形态)人工智能系统的核心特征是获知能力,而非事后诸葛亮,以及有效处理不确定性和概率信息的能力。或者可以通过遗传算法模拟自然进化过程,研究人类大脑(全脑仿真、生物认知、人脑-计算机交互界面、网络和组织),例如全脑仿真、生物认知、人脑-计算机交互界面等。其未来形式可以分为:高速超级智能(和人脑相似,速度快于人脑)、集体超级智能(通过整合大量小型智能,实现卓越性能的系统)和素质超级智能(聪明程度比人类有质的超越)。原则上,几乎任何水平的智能都能与几乎任何最终目标相结合(正交性论点:智能和最终目标是正交性的)。由于在跨界点之后尤其可能会立刻出现爆发性增长,而当强大的最优化力争反馈回路开始生效是,出现这种情况便是及其可能的;并且,其实启动不是快速的,领先项目获得决定性战略优势的可能性也会增加。有界效用函数、风险规避、非最优话决策规则可能会与战略混乱和不确定性相互加强,导致战略的失败。另外,超级智能的结果可能会有单极结局和多极结局。单极结局是指单一超级智能获得了决定性战略优势,并凭借其优势建立起单一体。在单一体情境下,后过渡阶段发生的事几乎完全取决于单一体的价值观。‘进化’等同于‘进步’,这种对进化过程固有趋利的错误信任可能会妨碍对多极结局的客观评价,因为未来的智能生命要取决于竞争动力。即使多极状态可以在稳定的形势下达到,还是不能保证有一个具有吸引力的结局。研究多极结局,在有着多个相互竞争的超级智能的后过渡社会中会发生什么。在未来竞争激烈的数字生活中,适应性最强的生命形式甚至可能都没有意识:缺乏完整的愉悦感和自我意识,会导致美好生活(音乐、幽默、浪漫、艺术、舞蹈、运动、传统、文学、友谊等)不可或缺的品质的退化。一个未来的与联合累积的价值观有关的问题,是人工智能可能会破坏增值机制(即使经常强化学习其自身的回报)。要预测超级智能动机:通过设计、遗传、工具性趋同理由实现可预测性。即使工具性趋同理由适用于某个特定的智能体并且被它认可,也不意味着就可以轻易预测该智能体的行为,它可能还会想到目前想不到的一些方式来实现相关的工具性价值观。例如背叛转折:人工智能本来愚蠢是,变聪明是安全的;当本来就聪明时,变得更聪明则是危险的。或者,导致基础设施过量:将更多的资源用于扩展它的硬件设备。超级智能可能会对模拟意识提出威胁虐待或承诺奖励,以便进行勒索或者激励外部的各个职能体;它也可能会创造出模拟意识,以便在外部观察者中引发指称不确定性。更可怕的是,超级智能通过政治胁迫、巧妙地操控金融市场、扭曲信息流或者侵入人造武器系统等方式获得权力。机器智能建造自己的基础设施,操控器以分子或原子级别的速度运作,而不是以人类大脑和身体的缓慢速度运作。为了降低及其职能革命的风险,提出两个目标:战略分析和实力建设。如果怀疑智能爆发的默认后果是导致存在性灾难的发生,那么思路必须立刻转向:是否能够避免这种默认结局,以及如果能够避免,将怎样避免。解决问题两个方法:能力控制和动机选择。能力控制就是将超级智能置于它无法造成破坏的环境中(盒子方法),或者让它具有足够的工具性趋同理由不去做出有害行为(激励方法)。这也可能会涉及限制超级智能的内在能力(阻碍发展),还可能涉及使用自动检测和应对各种控制失败或试图逸出的机制(绊网)。人工智能如果无法确定它不是存在于计算机模拟环境(与非模拟的实物真实环境相对)中,就可能会面对不可消除的指称不确定性,而这种认知状态会从根本上影响人工智能的思考。另一种可能的控制方法是限制系统的智能或其获取信息的途径。如果超级智能获得了决定性战略优势,我们选择的价值观就会决定宇宙资源如何被处置。做出错误选择的风险在不熟悉决策背景的情况下尤其高;为将要塑造整个人类未来的机器超级智能选择最终目标,显然正是极其不熟悉的决策背景。为了避免劫持人类命运,要设计其选择清单,进行审核批准(主要目的在于降低灾难性错误的概率)。体制设计可能在有增量的条件下是最具有可操作性的。并不存在绝对友善的、理性的、统一的,并且只会实施那些被发现是最佳选择方案的世界操纵者。确定最终目标看起来需要经过一番遍布荆棘的哲学思索。

  《超级智能》读后感(六):作者Nick Bostrom自述与简历

  自述

  我出生在瑞典的赫尔辛堡,在海边长大。学校让我感到厌烦。在十五六岁的时候,我有了一次认识上的觉醒:我感觉我浪费了生命中的第一个十五年,于是决心专注于做重要的事。因为我不知道重要的事是什么,而且我不知道如何发现哪些事是重要的,我决定开始完善自己,以便找到答案。因此,我开始了认识方面的自我发展事业,在之后的十五年里我努力追求完成这项事业。

  在读本科时,我同时学习了很多专业。我觉得我的事迹大概创造了全国纪录。有一次我因为学得太多而被开除了。于默奥大学(Umeå University)的心理系主任发现我在同时学习其他几个全日制的专业课程(包括物理、哲学和数理逻辑),他认为这是心理学角度不可能发生的事。

  大学毕业后,我去了伦敦。我在国王学院学习物理和神经科学,并在伦敦经济学院获得了博士学位。有一段时间,我在伦敦的酒吧和剧院里表演过单口相声。

  在这些年里,我和David Pearce共同创立了世界超人类主义协会,这是一个非盈利的草根机构。后来,我参与创立了伦理与新兴技术研究所,这是一个非盈利的智库。研究所的宗旨是鼓励更广泛的对未来科技的影响的讨论,尤其是那些可能会导致人类提升的技术。(这些机构后来都按照它们自己的轨道发展,并不是超人类主义旗帜下的所有观点我都赞同。)

  2006年,我创立了牛津大学人类未来研究院,并一直担任主任职务。这是一个独特的多学科研究院,目标是帮助一些学者对人类和全球事务的大问题进行仔细的思考。研究院从属于牛津大学哲学系和牛津马丁学院。从2011年起,我还指导了未来技术的影响研究项目。

  简历

  ick Bostrom是牛津大学哲学系的教授。他是人类未来研究院的创始人和主任。人类未来研究院是一个多学科研究院,旨在帮助一些非常优秀的数学家、哲学家和科学家对人类大问题和全球大事务进行仔细的思考。

  ostrom的学术背景包括物理、计算机科学、数理逻辑,以及哲学。他著有大约200种出版物,包括《人择偏差》(Routledge出版社,2002)、《全球灾难危机》(编者,牛津大学出版社,2008),《人类提升》(编者,牛津大学出版社,2009),以及即将出版的《超级智能:途径、危险与战略》(牛津大学出版社,2014)。他最著名的研究领域包括:1. 生存危机;2. 模拟论点;3. 人择理论(发展第一个观察选择效应的数学理论);4. 未来科技的影响;5. 结果主义对全球战略的意义。

  他是Eugene R. Gannon奖的获得者(该奖项的获得者每年只有一名,他们来自哲学、数学、艺术和其他人文学科,以及自然科学领域)。今年早些时候,他被《Prospect》杂志列入全球思想家名单,是名单所有领域前十五名中最年轻的,也是分析哲学家中排名最靠前的。他的著作已经被翻译成22种语言。他的作品已经有超过100多种翻译版和重印版。

  我是一个非常幸运的人。我没有教课的任务,有助理团队和顶尖的研究人员给我提供支持。我可以研究的领域实际上没有任何限制。我必须非常努力,才能对得起这样的特权,对重要的事情提出一些新的见解。

  翻译:Cecile

  《超级智能》读后感(七):很有深度,值得多读几遍的好书~

  总体来说,这是一本比较难懂的书。因为作者虽然是思想家,但是其背景包括了物理、计算机科学、数理逻辑以及哲学。所以其实他是一位非常理性,并且很了解科学的人。在序言中,他说道自己提出的观点可能是不恰当的,有些非常重要的观点也可能没提到,从而削弱了其某些或者所有观点的有效性。这样的态度我觉得非常的严谨,不愧为一名学者。

  书是以天算论开篇的,里面有一个很好玩的例子。如果不考虑道德因素,那么在计算机统治人类后,可以把人的头割下来,接到营养液,然后工作到死。为了减少人的痛苦,可以利用VR按照偏好,分别配一辈子的三级片或战争片。让他以为是真的而快乐的度过一生。就像是黑客帝国一样。

  再来是说穷举法的弊端,虽然说穷举法有很多优点。但是对于稍微复杂点的问题,穷举法就显出其不足了。比如下棋, 简单的国际象棋有固定的角色和策略,因此很快就被电脑超越了,但是围棋的路数太多,以至于现有的计算能力根本不能算出来,因此,只有通过其他方式去计算。比如学习和人一样的思考。

  之前在金融界出现过,高频交易出错的情况。主要原因是因为设计过于简单机械,无人情进行操作。并且时间反应很迅速,人为阻止很难。所以这里就是一个识别的问题,也是人工智能可以发挥作用的地方。通过打造可以拥有成熟感性全面的认知识别能力,再配合高速计算,才可以创造出合理的交易系统。

  在如何实现超级智能的方式上,作者认为若存在足够多的可行路径,那么总会实现超级智能。这点我不同意,E(a)=∑_1^n▒〖pn*an〗=1,若n趋向无限大的时候,a的可能性不管多小,都可以最终实现。但真实情况是,n不可能无穷趋向无限,每一种技术路径背后消耗的资本和资源都是非常可观的。因此,在这条通往超级智能的路上,会出现很多次的低谷。然而,作者总结了五种比较主流的技术路径:人工智能、全脑仿真、生物认知、人机交互和网络及组织。这五种方式都非常有趣,对我来说都是非常新的知识。其中,人工智能就是现在最主流的方式,通过模仿人类的思考逻辑去创造一套思考的机制。全脑仿真是通过扫描大脑切片真实的生物构成,主要是电流的传导,轴突、突触、神经细胞等的变化,然后再进行模拟。生物认知就是运用比现有人类更伟大的智能提高生物大脑的功能,简单来说就是优生,然而这个方法从宏观人类角度讲,很有价值,但是从微观道德来讲就是优胜劣汰的极端表达。人机交互,就是让人脑和机器直接连接,让人脑可以直接运用机器的完美记忆、高速运算能力等,将两者的优点结合起来。最后网络和组织就是通过建立一个可以让人脑自动相互连接的网络和组织,让整体增强。

  书的第三章主要讲了超级智能的可能的发展过程,就是首先单个个体的速度上去,然后整体量上去,最后就是质的突破。也就是高速超级智能-集体超级智能-素质超级智能。那么在发展的奇点上,推动整体超级智能发展的最优化力不是来自外界,而是来自系统自身。

  然后书中有一个假设,就是在给超级智能设定一个目标后,比如使曲别针的产量最大化,那么可能走向首先将地球、然后将整个宇宙可观察的大部分都变成曲别针的道路。这个很极端,不过也是有一种可能性存在的。因此需要对超级智能进行能力控制和动机选择两个方面的管控。那么这些管控方法可以总结为,能力控制:盒子方法(限制有限的渠道,如物理限制和信息遏制),激励方法(人为创造一个制衡机制),阻碍发展,绊网。动机选择:直接规定,驯化,间接规范,扩增。

  最后,也是我个人对于资源的争夺和就业福利等问题的综合看法。有了廉价可复制的劳动力,市场工资水平肯定下降,部分简单劳动力的工作一定会收到威胁。人们能够保持竞争力的地方就是那些只能由人类来做的事情,比如领导、创造、艺术等抽象需求更多的领域。但其实对于失业的恐惧从工业化时代开始就存在了,尤其最近移民被美国欧洲等发达国家推到风口浪尖,也就是那些低收入低教育程度的人们对于失去自身地位的恐惧。人类被机器在越来越多的地方所替代,是一种趋势。So,也许,这就是一个优胜劣汰的时代,不管那些所谓的领导精英层,如何粉饰。

  《超级智能》读后感(八):即将到来的不可逆的时代变革

  1.超级智能机器如何出现?

  大概是在21世纪中叶,通过全脑仿真实现。

  先精细扫描人类的大脑,分辨出大脑中的不同结构,然后将这些原始数据输入计算机,重建大脑认知的三维模型,最后输出一个类似于人脑认知的结构。

  2.超级智能的分类?

  高速超级智能:速度很快。

  集体超级智能:多个集合,提高综合性能。

  素质超级智能:超级智能中的爱因斯坦。

  3.人类该如何控制超级智能?

  能力控制:从物理层面阻止系统与外部世界自由的互动。

  动机控制:机器人三定律。

  超级智能的出现已经不可逆,作者的意见是在他们出现前要先想好控制他们的办法并做好最坏的打算。其中的某些部分哲学意味非常浓厚。在我看来,作者的想法有些过于悲观,超级智能的出现对人类来说,即是机遇也是挑战,社会和世界将会面对重大变革,但是我相信最终的走势还是会螺旋向上的。

  《超级智能》读后感(九):很有深度,值得多读几遍的好书~

  总体来说,这是一本比较难懂的书。因为作者虽然是思想家,但是其背景包括了物理、计算机科学、数理逻辑以及哲学。所以其实他是一位非常理性,并且很了解科学的人。在序言中,他说道自己提出的观点可能是不恰当的,有些非常重要的观点也可能没提到,从而削弱了其某些或者所有观点的有效性。这样的态度我觉得非常的严谨,不愧为一名学者。

  书是以天算论开篇的,里面有一个很好玩的例子。如果不考虑道德因素,那么在计算机统治人类后,可以把人的头割下来,接到营养液,然后工作到死。为了减少人的痛苦,可以利用VR按照偏好,分别配一辈子的三级片或战争片。让他以为是真的而快乐的度过一生。就像是黑客帝国一样。

  再来是说穷举法的弊端,虽然说穷举法有很多优点。但是对于稍微复杂点的问题,穷举法就显出其不足了。比如下棋, 简单的国际象棋有固定的角色和策略,因此很快就被电脑超越了,但是围棋的路数太多,以至于现有的计算能力根本不能算出来,因此,只有通过其他方式去计算。比如学习和人一样的思考。

  之前在金融界出现过,高频交易出错的情况。主要原因是因为设计过于简单机械,无人情进行操作。并且时间反应很迅速,人为阻止很难。所以这里就是一个识别的问题,也是人工智能可以发挥作用的地方。通过打造可以拥有成熟感性全面的认知识别能力,再配合高速计算,才可以创造出合理的交易系统。

  在如何实现超级智能的方式上,作者认为若存在足够多的可行路径,那么总会实现超级智能。这点我不同意,E(a)=∑_1^n▒〖pn*an〗=1,若n趋向无限大的时候,a的可能性不管多小,都可以最终实现。但真实情况是,n不可能无穷趋向无限,每一种技术路径背后消耗的资本和资源都是非常可观的。因此,在这条通往超级智能的路上,会出现很多次的低谷。然而,作者总结了五种比较主流的技术路径:人工智能、全脑仿真、生物认知、人机交互和网络及组织。这五种方式都非常有趣,对我来说都是非常新的知识。其中,人工智能就是现在最主流的方式,通过模仿人类的思考逻辑去创造一套思考的机制。全脑仿真是通过扫描大脑切片真实的生物构成,主要是电流的传导,轴突、突触、神经细胞等的变化,然后再进行模拟。生物认知就是运用比现有人类更伟大的智能提高生物大脑的功能,简单来说就是优生,然而这个方法从宏观人类角度讲,很有价值,但是从微观道德来讲就是优胜劣汰的极端表达。人机交互,就是让人脑和机器直接连接,让人脑可以直接运用机器的完美记忆、高速运算能力等,将两者的优点结合起来。最后网络和组织就是通过建立一个可以让人脑自动相互连接的网络和组织,让整体增强。

  书的第三章主要讲了超级智能的可能的发展过程,就是首先单个个体的速度上去,然后整体量上去,最后就是质的突破。也就是高速超级智能-集体超级智能-素质超级智能。那么在发展的奇点上,推动整体超级智能发展的最优化力不是来自外界,而是来自系统自身。

  然后书中有一个假设,就是在给超级智能设定一个目标后,比如使曲别针的产量最大化,那么可能走向首先将地球、然后将整个宇宙可观察的大部分都变成曲别针的道路。这个很极端,不过也是有一种可能性存在的。因此需要对超级智能进行能力控制和动机选择两个方面的管控。那么这些管控方法可以总结为,能力控制:盒子方法(限制有限的渠道,如物理限制和信息遏制),激励方法(人为创造一个制衡机制),阻碍发展,绊网。动机选择:直接规定,驯化,间接规范,扩增。

  最后,也是我个人对于资源的争夺和就业福利等问题的综合看法。有了廉价可复制的劳动力,市场工资水平肯定下降,部分简单劳动力的工作一定会收到威胁。人们能够保持竞争力的地方就是那些只能由人类来做的事情,比如领导、创造、艺术等抽象需求更多的领域。但其实对于失业的恐惧从工业化时代开始就存在了,尤其最近移民被美国欧洲等发达国家推到风口浪尖,也就是那些低收入低教育程度的人们对于失去自身地位的恐惧。人类被机器在越来越多的地方所替代,是一种趋势。So,也许,这就是一个优胜劣汰的时代,不管那些所谓的领导精英层,如何粉饰。

  《超级智能》读后感(十):人类命运面临的最后挑战

  人类命运面临的最后挑战

  ——读《超级智能:路线图、危险性与应对策略》

  彭忠富

  在科技日新月异的现代,各国研发团队无不卯足全力,竞相开发新一代机器人产品。如果机器人比人类聪明,如果我们制造了机器人却不能控制它们的思想和行为,如果机器人像人类一样实现了自我进化,那么我们将不再是这个星球的主宰。这看起来似乎有些杞人忧天,但是万一发生了呢,我们该怎么办?超级智能将是信息时代人类命运面临的最后挑战,如果人类不能未雨绸缪,科学应对,必将悔之晚矣。

  英国哲学家和超人类主义学家尼克•波斯特罗姆认为“人类生活的最高境界是美好的。我们没有理由不相信,在这片更大的空间中会存在更多极其宝贵的生存方式。它们可能大大超越我们智慧的极限,我们甚至做梦也无法想象得到。”超越人类智慧极限的事物,极有可能就是机器人,我们能将机器人始终控制住吗?这可能是个问题。尼克在其新著《超级智能:路线图、危险性与应对策略》一书中指出,我们需要十分小心人工智能,它可能比核武器更危险,稍有不慎就会将人类毁灭。

  人类之所以能控制地球,是因为我们的大脑比即使最聪明动物的大脑都要复杂得多。人类大脑拥有一些其他动物大脑没有的功能,正是这些独特的功能使我们的种族得以拥有主导地位。正如现在大猩猩的命运更多的掌握在人类手中而不是自己手中一样,人类未来的命运也会取决于机器超级智能的行为。事实上,人好比孩子,超级智能好比孩子玩的炸弹。炸弹的威力和我们行为的成熟度是如此的不匹配,而最可怕的是我们不知道炸弹什么时候会爆炸。超级智能是一个我们现在还没有准备好应对的挑战,而且很长时间之内都不会准备好。一旦人类失去对机器人的控制权,超级智能就会像炸弹那样爆炸。因此超级智能对我们人类将是一个巨大的威胁。

  这本书包括如下部分:人工智能:昨日成就与今日现状;通往超级智能之路;超级智能的形式;智能大爆发的动力学;决定性战略优势;超级认知能力;超级智能的意愿;结局注定是厄运吗?控制问题、战略图景和关键时刻等。作者首先讨论了超级智能的形式和能量,以及具有决定性优势的超级智能体有哪些战略选择。之后讨论的重点转向控制问题,并提出为了获得可生存并且有利的结果,如何塑造初始条件的问题。最后指出为了增加成功率,现在可以做些什么。《获取价值观》一章以及以后的《确定选择你》各章是本书的精华,具有超越本书的普世阅读价值。

  作者认为,原则上,我们能够制造一种保护人类价值的超级智能。当然,我们也有足够的理由这么做。实际上,控制问题,也就是如何控制超级智能,似乎非常困难,而且我们似乎也只有一次机会。一旦不友好的超级智能出现,它将会阻止我们将其替换或者更改其偏好设置,那时我们的命运将被锁定了。这本书会带你开启一段引人入胜的旅程,将你带到对人类状况和智慧生命未来思索的最前沿,不愧是对我们时代根本任务的一次重新定义。这本书如果得到了应有的重视,那么它会成为1962年《寂静的春天》之后,甚至有史以来最重要的警钟。

  超级智能好比人类手中的炸弹,不知啥时就会给我们带来厄运。当然这是一种设想,但是我们切不可因噎废食停止研发机器人,毕竟魔高一尺道高一丈,相信人类最终还是能驯服超级智能这块炸弹,让它为我们所用。

评价:

[匿名评论]登录注册

【读者发表的读后感】

查看超级智能读后感10篇的全部评论>>

评论加载中……