文章吧-经典好文章在线阅读:你看起来好像……我爱你经典读后感有感

当前的位置:文章吧 > 经典文章 > 经典美文 > 经典精选 >

你看起来好像……我爱你经典读后感有感

2022-05-30 09:30:02 来源:文章吧 阅读:载入中…

你看起来好像……我爱你经典读后感有感

  《你看起来好像……我爱你》是一本由(美) 贾内尔·沙内著作,中信出版社出版的平装图书,本书定价:49.00,页数:271,特精心收集的读后感,希望对大家能有帮助。

  《你看起来好像……我爱你》读后感(一):有关人工智能(AI)的工作原理和出现的各种问题的有趣科普书

  这本书的有趣不仅在于超可爱的插图,也在于作者做过的各种奇怪的人工智能项目(比如说俏皮话,本书的书名《你看起来好像。。。我爱你》就出自这个说俏皮话的AI),和其他研究团队各种极其有趣的人工智能案例。

  通过案例,作者深入浅出的解释了人工智能是什么,人工智能如何学习去解决问题,人工智能擅长解决什么问题,数据如何被人工智能使用,人工智能的局限与弱点等等。读来妙趣横生,一点也不枯燥。

  在这个人工智能无所不在的年代,增进对人工智能的了解越来越重要。推荐

  ------------------------------------

  书中的“人工智能”指机器学习算法,这是一种特殊的计算机程序。作者重点介绍了神经网络/深度学习,马尔可夫链算法,随机森林算法,进化算法,生成式对抗网络等

  其中,神经网络/深度学习模仿大脑运作,马尔可夫链常被智能手机用来预测文本,随机森林常用于预测和分类,进化算法常用来解决设计问题,生成式对抗网络则跨越了常规与创新之间的界限

  从推荐视频,撰写文章,筛选简历,过滤邮件,批准贷款,分析医学影像,辅助自动驾驶等,无所不在的人工智能并非完美无缺,有时算法会把人们引向更加两极化的观点,或者充满了偏见,算法的风险还可能导致安全上的隐患和非常严重的后果

  人工智能必须学习数据,自己找到训练数据里的规则。任务越具体,人工智能越聪明。不过现实生活中的问题通常都比它们第一眼看起来要更加宽泛。比如,制造自动驾驶汽车是一个看似很有吸引力,但实际上很困难的人工智能问题。

  但人工智能并不真正理解人类想让它解决的问题,有时它发现的策略是极其颠覆传统的。作者通过训练机器狗,设计机器人,打游戏等案例幽默地说明了如果有一个问题要解决,并且在如何解决这个问题上有足够的自由度,人工智能就能想出程序员做梦都想不到的解决方案。

  因为人们在训练人工智能遇到的各种奇奇怪怪匪夷所思的情况,谷歌的人工智能研究员写道,“我已经习惯于把人工智能想象成一个恶魔,它故意曲解你的奖励,并积极寻找最懒惰的局部最优解。这有点儿可笑,但我发现这其实是一种富有成效的心态。”

  因此,要最大程度利用好人工智能,我们就必须了解人工智能,选择合适的问题让它解决,预料到它的误解,选择正确的数据,防止它复制那些它在人类数据中发现的最糟糕的东西

  作为一本科普书,这本书涵盖的内容很全面。个人觉得有些训练记录略冗余,所以综合评分4.5 / 5

  《你看起来好像……我爱你》读后感(二):【阅读笔记】

  1.“人工智能能否解决问题,还是很大程度上取决于这项任务是否适用于人工智能来解决。” 2.“人工智能需要的只是一个目标和一个用来学习的数据集。” 3.让机器做什么?任务量大并且重复性的工作如 (1)分析医学影响

  (2)过滤垃圾邮件

  (3)高度个性化定制

  (4)创造性的工作,如修图、深度伪造

  好处是节省人类的时间,并且有更稳定一致的表现。

  4.“任务越具体,人工智能越聪明”

  (1)许多公司使用聊天机器人充作客服采用的策略,依赖于人类礼貌让谈话始终保持咋机器人可以独立掌控的话题上。当任务变得宽泛时,人工智能就变得力不从心。

  5.站在巨人的肩膀上

  (1)人工智能模型经常被重复使用,这个过程被称为迁移学习。在图像识别领域,人们特别喜欢使用迁移学习。

  6.人工智能是不是解决这个问题最简单的办法?人们很难写下解决问题的规则,但人工智能能分析很逗信息并形成自己的规则。危险的是错误的把复杂人工智能解决的方案应用于一些常识可以搞定的场景。

  3章 人工智能是如何学习的?

  1.神经网络:人工神经网络是人类大脑的仿制品。人工神经网络是由一些简单的模块拼接而成的,每个模块可以进行简单的数学运算。目前的神经网络没有人脑这么强大,大概和一条蠕虫差不多。

  2.训练过程:通过对模型的结果打分,来调整模型的阈值。来提高准确率。这里要警惕类别不平衡,比如三明治洞出来1000个三明治,机器学习偷懒把99%的都设置成不好吃。那准确率会提升。比如训练数据中没见过的数据,他就会拒绝来提升自己较好的准确率。

  3.马尔科夫链;是一种算法,解决和递归神经网络处理的问题类似的问题。当其记忆增长时,复杂度也指数级递增。

  4.随机森林:是一种机器算法,常用于预测和分类。比如预测用户行为,推荐图书或者判断红酒的品质。当有许多输入信息和选择时,决策树就变得很大。用来替代人类构建巨大的决策树额方式之一就是使用机器人学习中的随机森林法。

  5.进化算法:最简单的试错方法是沿着进步的方向走,比如你想要最大化一个数字,爬山算法;最小化一个数字,梯度下降。这里局部最大值。在进化算法中,每一种可能得解决方案就像一个有机体,在每一代中,最成功的生存下来,繁殖、突变、其他解决方案来生产不同的后代。

  6.生成式对抗网络

  7.混合、匹配、一同工作

  第4章 它在努力了

  1.什么原因使得人工智能无法有效的解决问题

  (1)问题本身太宽泛

  (2)没有足够的数据让人工智能弄清楚发生了什么

  (3)意外得给人工智能困惑或者浪费时间的数据

  (4)训练人工智能完成一个简单的任务,但实际生活中遇到的问题却复杂的多

  (5)在一个并不能代表真实世界的模拟环境中训练人工智能

  第9章 人类机器人

  1.要不要机器人?

  (1)这个问题有多宽泛

  (2)训练数据从何而来

  (3)这个问题需要大量的记忆么

  (4)他是否在模仿人类的偏见

  最后,表面上看,人工智能理解很多,其实都是模式匹配。它只知道自己看过的东西,而且只有看过的次数足够才有意义。

  《你看起来好像……我爱你》读后感(三):人工智能无处不在

  教一个AI(人工智能)调情,绝对不是我常做的事情。

  当然,我做过很多奇怪的人工智能项目。在我的博客“怪奇人工智能”上,我曾经训练过一个AI来给猫取名字——其中有一些不太成功的案例,比如叮当先生或者呕吐者,我还让一个AI来生成新的菜谱,其中一些菜谱会用到去皮迷迭香和破碎的玻璃作为原料。不过,教AI说一些人类的甜言蜜语是一件完全不同的事情。

  人工智能是通过样本来学习的——在我们的情境中是研究一些已有的搭讪俏皮话,然后用它们生成更多全新的话语。问题在于:我的电脑屏幕上的训练数据集是一些我从互联网上各处收集的俏皮话,而且它们全都很糟糕。它们当中包括油腻俗气的双关语和带有侮辱性的含沙射影。一旦我训练了一个人工智能程序模仿它们,只要点击一下按钮,这个程序就会生成成千上万个糟糕的俏皮话,就像一个易受外界影响的孩子一样,它不知道哪些语言应该模仿,哪些不应该模仿。这个人工智能程序会从一块对搭讪俏皮话一无所知的白板开始,从这些样本中学习,尽最大努力来模仿它发现的所有规律,当然也包括样本中粗俗的部分。

  我考虑过放弃这个项目,但是我需要写一篇博文,同时我已经花费了许多时间来收集这些用作样本的俏皮话。所以我开始训练程序。这个人工智能开始寻找样本中的规律,发明并检验一些可以帮助它预测哪些字母应该按照何种顺序出现在俏皮话中的规则。最终,训练结束了。带着一点儿诚惶诚恐的意味,我命令这个人工智能程序生成一些语句:

  我感到又惊又喜。这个人工智能的虚拟大脑(复杂度大概相当于一条蠕虫)没有能力辨别数据集的各种细节,比如厌女症和粗俗。它尽全力应付它设法发现的规律……然后获得一种完全不同——也许更好——的答案,来解决逗笑陌生人的问题。

  尽管对我而言,它能生成话语已经是一种引人注目的成功了,但对于那些关于人工智能的知识大多来自新闻头条和科幻小说的人来说,我的人工智能伙伴表现出的乱无头绪也许会让他们感到惊讶。我们常常见到一些公司声称人工智能可以像人类一样区分语言中各种细微的差异,甚至做得更好,或者人工智能将很快在许多工作领域代替人类。新闻界发布消息说,人工智能很快会无处不在。这些说法是正确的——同时也是大错特错的。

  事实上,人工智能已经无处不在了。我们在互联网上的体验取决于人工智能,它决定了我们能看到哪些广告,它推荐视频,同时检测社交媒体上的机器人和恶意网站。许多公司使用人工智能来进行简历筛选,判断该面试哪些应聘者,也会用人工智能来判断是否应该批准某项贷款申请。自动驾驶汽车中的人工智能已经驾驶了上百万英里(它们在陷入困惑时偶尔需要人类营救)。我们已经把人工智能应用在我们的智能手机中,它们会识别我们的语音指令,自动给相片中的人脸归类贴标签,甚至会在视频中加一个让我们看起来长着兔子耳朵的滤镜。

  但是不需要多长时间,我们就会体会到,这些我们每天都在使用的人工智能并非完美无缺。广告投放程序会不停地给我们推送我们买过的靴子的广告。垃圾邮件过滤器有时会让明显的骚扰邮件通过,或是在最不合时机的关头过滤掉一封至关重要的邮件。

  因为我们日常生活中的许多部分受到算法的支配,这些人工智能的“怪癖”除了造成不便,还开始带来一些严重的后果。视频网站YouTube(优兔)上的推荐算法会把人们引向观点更加两极化的内容,短短几次点击之间,人们就会从主流新闻被引导到去观看仇视社会的群体和阴谋家的视频。在假释、贷款和简历筛选方面帮助人类决策的算法是中立的,但是它们也可能像它们要替代的人类那样充满偏见——有时更甚之。人工智能控制的监控没有办法收受贿赂,但它们在被要求做某件事时,也无法出于道德原因而提出反对。研究者发现,一些看起来无足轻重的细节,比如一块小小的贴纸,就可以让一个图像识别的人工智能认为一把枪是一台烤面包机,而安全性能不足的指纹识别器被主人的指纹愚弄的概率是77%。

  人们经常兜售人工智能比实际上更能干的观点,号称他们的人工智能可以完成一些只有科幻小说中才会出现的情景。另一些人则自卖自夸他们的人工智能公正不阿,尽管它们的表现明显地带有偏见。同时,通常人们声称的人工智能所做的工作,实际上都是人类居于幕后在工作。作为这个星球上的消费者和公民,我们得避免上当受骗。我们需要理解我们的数据是如何被人工智能使用的,理解我们使用的人工智能究竟是什么。

  在“怪奇人工智能”博客上,我花了不少时间用人工智能做了一些有趣的项目。这意味着让人工智能模仿一些不同寻常的事物,比如俏皮话。另外,我想试试能不能让它们走出舒适区,比如我给一个图像识别算法展示电影人物阿纳金·天行者的图片,然后询问它看到了什么:它回答说阿纳金·天行者是一棵树,接着便开始和我争论起来。从我的经验来看,我发现,即便是最直截了当的任务也可能使人工智能失效,就像你和它开了一个玩笑。但是事实证明,和人工智能开这样的玩笑——交给它一项任务,然后看着它不知所措——是一种了解人工智能的绝佳途径。

  事实上,就像我们将在本书中看到的,人工智能算法的内部构造往往是如此复杂和怪异,以至于观察人工智能的输出可能是唯一一种我们能用来探索它理解了什么、哪里出现了问题的工具。当你让一个人工智能程序画一只猫或者写一个笑话时,它犯下的错误和它在处理指纹或医学影像时犯的错误是类似的,只是当它画出的猫有6条腿、讲的笑话里没有包袱的时候,你更容易知道它出了问题。另外——这些错真的很好笑。

  在我尝试让人工智能走出它们的舒适区,进入我们的世界时,我曾经让人工智能去写一篇小说的第一行、在不同寻常的场景中识别绵羊、写一份菜单、给豚鼠取名字,通常得到的结果都非常奇怪。但是从这些实验中,你可以学到许多有关人工智能的优缺点的知识——以及哪些事情它不太可能在你我的有生之年做到。

  这是我学到的:

  人工智能奇怪之处的五点原则:

  那么,让我们一起进入人工智能的奇怪世界吧!我们将会了解到人工智能是什么——以及它不是什么。我们会知道它擅长什么,在哪里一定会失败。我们会知道为什么未来的人工智能也许长得不太会像C–3PO那样,反而会更接近一群昆虫。我们将会知道为什么自动驾驶汽车在世界毁灭、丧尸横行时不太适合用来逃跑。

  我们将会知道为什么你永远也不应该自愿去测试一个分拣三明治的人工智能,同时我们将会遇到行走的人工智能,它不想做任何事只想行走。在这个过程中,我们将会知道人工智能如何工作,如何思考,为什么它将使世界变得更怪异。

  ——贾内尔·沙内(作者)

评价:

[匿名评论]登录注册

评论加载中……