HOME 首页
SERVICE 服务产品
XINMEITI 新媒体代运营
CASE 服务案例
NEWS 热点资讯
ABOUT 关于我们
CONTACT 联系我们
创意岭
让品牌有温度、有情感
专注品牌策划15年

    AI文章综述(ai 论文)

    发布时间:2023-03-29 09:38:18     稿源: 创意岭    阅读: 61        当前文章关键词排名出租

    大家好!今天让创意岭的小编来大家介绍下关于AI文章综述的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。

    开始之前先推荐一个非常厉害的Ai人工智能工具:开始之前先推荐一个非常厉害的Ai人工智能工具,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等

    只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端

    官网:https://ai.de1919.com

    本文目录:

    AI文章综述(ai 论文)

    一、2021-10-21 如何阅读综述性论文 (Review Papers)

    原始网址: https://www.wikihow.com/Read-a-Scientific-Paper#aiinfo

    一般来说,科学论文可以分为综述论文(review paper)和实证研究论文(research paper)。这两种类型都可以作为深入了解特定科学研究领域的极好来源。然而,这些论文密集,并且包括一些可能令人生畏的术语。如果你有耐心,并有条不紊地研究论文,你将能够理解呈现的研究,并将其纳入你自己的工作中。[1]

    1、确定论文是综述论文。 综述论文总结了许多其他论文的数据和结论,为您提供特定主题或领域的概述。 通常,您会在论文的标题或摘要中看到“综述(review)”一词。[2]

    a. 如果你不熟悉某个特定领域,一篇综述文章(review paper)可以让你更好地理解。综述论文还可以帮助你确定你需要阅读的经验性论文 (research paper),或将其作为你自己工作的来源。

    2、确定论文是叙述性综述还是系统性综述。 叙述性综述通常更容易阅读,并提供对特定学术领域或研究领域的广泛概述。 系统综述更详细,可以评估所综述的论文的方法和数据。 [3]

    a. 作者通常在论文的标题或摘要中说明综述的类型。系统评论在医学研究中最为常见。

    3、通读论文的摘要和介绍。 摘要是综述论文的总结,包括提出的问题和论文作者找到的答案。 引言解释了作者选择进行综述的原因。 [4]

    a. 在阅读了摘要和导言之后,如果你认为这篇论文与你的兴趣无关,就没有必要再阅读了。

    4、批判性地评估综述的设计。 一个系统的综述结合了几个不同研究的结果,以产生对研究领域更全面的理解。然而,只有当综述包括使用相同方法的已发表和未发表研究时,这才有效。

    a. 在某些研究领域,已发表研究的结果与未发表研究的结果不同。 仅包括已发表研究的综述并不能呈现该领域研究状态的全貌。

    b. 一些综述论文可能会考虑不同类型的研究,特别是在尚未完成大量研究的新兴研究领域。

    5、跳转到论文的结果部分。 首先阅读结果部分可以让你在阅读论文的其余部分时知道要寻找什么。一旦你知道作者的结论,你就可以专注于支持这一结论的研究中的数据。[5]

    a. 结果部分应该有逻辑地组织并且相对容易让您遵循。 它还通常包括作者综述的任何给定类型研究数量的摘要。

    6、仔细分析综述的方法。 对于综述论文,方法学部分将讨论如何选择研究内容纳入综述。这包括综述作者使用的标准,以及他们搜寻的研究数据来源。[6]

    a. 作者通常会讨论他们用来确定一项研究是否应包括在他们的综述中的标准。 想想这些标准是否给综述带来了一些偏见。

    b. 方法论还包括综述作者如何综合综述研究结果的描述。 通过综合,该综述得出了一个新的(通常是更广泛的)结论,而不是所综述的任何单个研究。 [7]

    7、研究呈现的合成数据图形。 一篇系统性的综述论文利用被称为“森林图(forest plots)”的图表来评估综述中所有研究的所有结果。一旦你知道如何解释它们,你可能会发现森林图比其他统计图更容易阅读。[8]

    a. 水平方向是综述所分析的条件或实验方法。 纵轴表示没有效果。 在该轴的左侧,将根据其结果的极限程度绘制得出结论有效的研究。 在轴的右侧,绘制了有利于控制而不是实验或干预的研究。

    b. 通过大多数综述,您应该能够一眼看出大多数研究是否支持实验或干预。

    密切的研究森林图: 除基本图外,森林图还包括大量其他信息,包括所综述研究的作者姓名、每项综述研究进行或发表的年份,以及每项研究中实验组和对照组的患者数量。

    8、从头到尾把这篇论文翻一遍。 现在,您已经对该综述及其方法有了深刻的理解,您将能够更好地理解本文的其余部分。积极阅读,边走边记笔记。记下你可能想自己阅读的综述中包含的个人实证论文。[9]

    a. 如果您看到任何您不理解的内容,请突出显示或记下。 您可以稍后在线查找,或查看科学词典。

    b. 在阅读时做笔记可以帮助您在以后自己的写作中转述论文中的信息,而不必担心抄袭原始来源。

    1.↑ https://aspb.org/wp-content/uploads/2016/04/HowtoReadScientificPaper.pdf

    ↑ https://www.sciencebuddies.org/science-fair-projects/competitions/how-to-read-a-scientific-paper

    ↑ https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4548566/

    ↑ https://www.editage.com/insights/a-young-researchers-guide-to-a-systematic-review

    ↑ https://www.editage.com/insights/a-young-researchers-guide-to-a-systematic-review

    ↑ https://pdfs.semanticscholar.org/337f/6a3c5cde6480ca6d47be3d27778aa86b0f89.pdf

    ↑ https://academic.oup.com/ndt/article/31/6/897/1751656

    ↑ https://www.students4bestevidence.net/tutorial-read-forest-plot/

    9.↑ https://pdfs.semanticscholar.org/337f/6a3c5cde6480ca6d47be3d27778aa86b0f89.pdf

    二、【心理学与AI】记忆系统交互

    在序列运动学习中,陈述性记忆系统(基于海马体)、程序性记忆系统(基于纹状体)都会对这个过程产生影响。但是这两个系统共同竞争神经资源,所以在运动学习之后进行一个陈述性记忆的任务,会影响之前运动序列的学习。

    之前的研究发现这个影响可以发生在程序性记忆consolidate的阶段,这篇研究进一步发现这个影响甚至也发生在提取阶段。

    研究背景

    运动学习结束之后,就算不做实际的动作,相关的记忆还是会继续加强(consolidation)。但是如果在4-8小时内又引入了新的学习,这个加强的效果就会减弱甚至消失,研究者们把这个现象称为“干扰效应”。

    以往大家都在关注这个动作学习中程序性记忆的组分,发现比如第一个任务和第二个任务有相似的学习序列,干扰效应会更严重,即使是用不同的效应器也还是会。

    最近大家开始关注陈述性记忆和程序性记忆的交互。传统的观点认为这两个系统是相互独立的,但是现在很多证据表明他们之间的交互是存在的。比如有 在动物身上的实验发现,海马体的损伤会带来运动表现的增强 。这表明这两个系统可能是竞争的关系。另外还有在人身上的实验说 这两个系统共享一些神经网络,因为在一些内隐学习的任务中也观察到海马体的激活(相反的观点see Hardwick et al., 2013)

    记忆干扰范式也有一些证据表明这两个系统的交互作用。比如Brown and Robertson(2007)中发现, 如果在运动序列学习之后,马上做一个陈述性记忆任务(比如记一个单词表),会严重影响动作序列学习的consolidation 。而且这个影响的程序还和这个陈述性记忆任务的量成正相关。反过来也会有影响。还有一篇综述讲这个影响 (Morehead et al., 2011)。

    实验简述

    前人只知道影响可以发生在consolidation的阶段,但是不知道能不能发生在retrieval的阶段。所以对比了两个组,第一天都学一个运动任务(FOS,按顺序动手指的任务)+一个视觉搜索任务(比如在一副图片里找三只猪)。第二天对照组直接测试前一天学的运动任务,实验组先做前一天视觉搜索的回忆任务,再测试运动任务。

    结果是发现第二天先做回忆任务的组运动任务的绩效受到了影响。

    讨论

    为什么第一天的视觉搜索任务没有严重影响运动任务的绩效呢?

    可能视觉搜索中海马体和纹状体并没有起主要作用。如果和陈述性或程序性记忆没有直接相关的任务可能对运动任务干扰不大。比如 简单的数学问题(Tibi et al., 2013),数元音的数量(Brown and Robertson, 2007)对运动记忆的保持并没有大的影响

    另外一种可能性在于,睡眠可能会巩固之前的运动记忆。有些研究发现,如果retention期间是醒着的,可能会看到干扰效应,而如果是睡着的反而观察不到。(Brown and Robertson, 2007)

    Albouy et al. (2015)发现海马体在运动序列学习中的作用是支持动作序列的空间表征(这是啥。。还要再看看),因此很有可能本文中看到的两个任务的相互干扰是主要和海马体的空间表征相关。

    神经科学研究表明,运动的初期海马体参与的比较多,而后面逐渐减少。(adaptation是初期小脑参与多,后期皮层参与,为什么?)

    除了海马体,DLPFC背侧前额叶也可能相关,cohen等人发现激活这个区域可以降低两个任务之间的干扰。

    陈述性记忆和程序性记忆可能是两条记忆的通路,在神经表现上有很大的差异。内侧颞叶损伤的病人,可以进行运动技能的学习,并且可以长期保存,但是他们描述不了自己掌握了什么技能。

    序列反应时任务(Serial Reaction Time Task, SRTT)是一个被用来研究两个系统交互的范式。在这个任务中,被试会看到屏幕上依次呈现一个个的visual cue,根据每个cue来按键。如果这些cue的呈现顺序是按照某个序列循环的话,被试就会在动作上也形成记忆,他们的按键反应时就会降低。而且反应时的降低并不一定需要被试意识到这个序列的顺序。

    而这个范式不能说明这两个系统的互相影响是发生在哪个阶段,是编码,存储,巩固还是提取阶段?因此研究者认为,如果在SRTT这种任务之后,引入另一个任务,它和SRTT在陈述性或程序性记忆系统上相互竞争,就会降低SRTT的任务表现。

    经典的实验发现第二个任务和第一个任务之间的干扰是双向的(上面讲过)。那么这种互相影响,是不是由于干扰了verbal rehearsal呢?没有明显陈述性成分的运动学习是不是就更少受到干扰呢?

    最近的研究(Keisler and Shadmehr, 2010)发现, 两个语义上完全无关的任务也会互相干扰,比如力场的适应学习会受到词表学习的干扰 。我们知道运动适应有一个经典的双过程模型,认为运动适应是由两个过程叠加的结果,一个过程对环境的变化适应的很快消退得也很快,另一个过程适应得很慢但消退的也很慢。研究者让被试充分适应力场A(几百个试次,意味着慢速过程也适应得较好了),再适应力场B(20个试次,只有快速过程适应好了),然后再做一个词汇学习任务。他们发现模型拟合的结果支持,词汇学习只影响了快速过程,而没有影响慢速过程。

    这个结果有两种解释,词汇学习任务对运动任务的干扰,是因为陈述性记忆和运动记忆在竞争某个资源;另一种解释就是运动的快速过程本身就是陈述性记忆。如果是后者这种解释,我们应该能观察到,当我们减少运动学习中可以被verbalized的成分,这种干扰会减小,比如突然引入力场和逐渐引入力场,后者的干扰应该更小。

    现在大多数对双系统交互作用的研究,干扰任务用的都是verbal task。如果我们能观察到非语言任务不能造成干扰了就会很有意思。

    上述的工作得出了一个非常有趣的结论,就是如果要运动学习retention的过程中受到的干扰小,就要尽可能使被试无法用语言描述所学到的内容是什么。(这个结论好奇怪。。。不太符合常识)

    前人发现陈述性记忆的任务一定会对动作学习的retention造成干扰,但作者认为,如果这两个任务之间有语义联系,不会干扰反而会促进retention。因此这个干扰不是固定存在的。(感觉是废话,重点看一下导言和讨论)

    研究背景

    procedural和declarative两个记忆系统过去被认为在神经机制和功能上都是没有联系的。

    程序性记忆系统依赖于一个网状的脑部结构,涉及部分基底神经节、小脑和前额皮质,其中前额皮质包括前运动皮层和布洛卡氏区(大脑左前下部控制言语的部分)的后部。陈述性记忆则主要是受海马体、内侧颞叶附近的脑区、新皮层以及部分前额叶调控。

    研究也发现,其中一个系统的损伤并不一定意味着另一个系统的损伤。比如老年痴呆症患者学习和回忆事实和事件的能力严重受损,但是他们仍然可以学习新的运动技能。而小脑损伤的病人比如huntington's disease,他们学习会议事件的能力没问题,但是运动技能受损了。

    而最近的研究发现这两个系统之间其实也有相互联系。比如内侧颞叶(和陈述性记忆相关的脑区)的激活,和纹状体(和程序性记忆相关的脑区)的激活是有关联的(Poldrack et al., 2001)。另一方面,海马体作为主要和陈述性记忆相关的脑区,研究发现在有外显策略的动作学习,以及没有策略的学习中都有海马体的激活(可是难道不是外显策略不能摘除干净?)。

    还有一类研究是用“干扰效应”来支持这两个记忆系统之间的交互(这个上面几篇文章也说过了)。

    讨论

    线索对记忆的提取有重要作用。Heuer, Crawford, and Schubö (2017) 做了一个这样的实验,他们在记忆项和测试项之间插入了一个cue(一个箭头指向8个位置中的一个),他们发现 当cue和目标测试项越接近,cue的作用就越好 。同时,语义链接对cue的作用影响也很大,比如Rosinski(1977)做了图片和词汇配对的学习实验,发现词汇和图片有语义联系的情况被试学的更快。语义的链接可以用扩散激活理论来理解(Collins & Loftus, 1975)。所以当动作的语义成分和语言任务的语义成分相近的时候,语言任务的执行也会激活动作任务的记忆,达到类似于再学习的效果。

    但是,实验也发现仅仅有语义的链接是不够的,在序列学习任务中,序列信息也是至关重要的,也就是说如果语言任务的序列和运动任务是一致的,就可以促进运动任务的retention,而如果不一致则没有这个效果。

    三、求一篇《计算机发展史》文献综述(和论文稍有区别),2000~3000字拜托各位了 3Q

    1946年2月,第一台电子计算机ENIAC在美国加州问世,ENIAC用了18000个电子管和86000个其它电子元件,有两个教室那么大,运算速度却只有每秒300次各种运算或5000次加法,耗资100万美元以上。尽管ENIAC有许多不足之处,但它毕竟是计算机的始祖,揭开了计算机时代的序幕。 计算机的发展到目前为止共经历了四个时代,从1946年到1959年这段时期我们称之为“电子管计算机时代”。第一代计算机的内部元件使用的是电子管。由于一部计算机需要几千个电子管,每个电子管都会散发大量的热量,因此,如何散热是一个令人头痛的问题。电子管的寿命最长只有3000小时,计算机运行时常常发生由于电子管被烧坏而使计算机死机的现象。第一代计算机主要用于科学研究和工程计算。 从1960年到1964年,由于在计算机中采用了比电子管更先进的晶体管,所以我们将这段时期称为“晶体管计算机时代”。晶体管比电子管小得多,不需要暖机时间,消耗能量较少,处理更迅速、更可靠。第二代计算机的程序语言从机器语言发展到汇编语言。接着,高级语言FORTRAN语言和cOBOL语言相继开发出来并被广泛使用。这时,开始使用磁盘和磁带作为辅助存储器。第二代计算机的体积和价格都下降了,使用的人也多起来了,计算机工业迅速发展。第二代计算机主要用于商业、大学教学和政府机关。 从1965年到1970年,集成电路被应用到计算机中来,因此这段时期被称为“中小规模集成电路计算机时代”。集成电路(Integrated Circuit,简称r)是做在晶片上的一个完整的电子电路,这个晶片比手指甲还小,却包含了几千个晶体管元件。第三代计算机的特点是体积更小、价格更低、可靠性更高、计算速度更快。第三代计算机的代表是IBM公司花了50亿美元开发的IBM 360系列。 从1971年到现在,被称之为“大规模集成电路计算机时代”。第四代计算机使用的元件依然是集成电路,不过,这种集成电路已经大大改善,它包含着几十万到上百万个晶体管,人们称之为大规模集成电路(LargeScale lntegrated Circuit,简称LSI)和超大规模集成电路(Very Large Scale lntegrated Circuit,简称VLSI)。1975年,美国1BM公司推出了个人计算机PC(PersonaI Computer),从此,人们对计算机不再陌生,计算机开始深入到人类生活的各个方面 .

    四、人工智能有什么好的参考书么?

    Peter Norvig 的《AI, Modern Approach 2nd》(无争议的领域经典)

    Bishop, 《Pattern Recognition and Machine Learning》. 没有影印的,但是网上能下到。经典中的经典。Pattern Classification 和这本书是两本必读之书。《Pattern Recognition and Machine Learning》是很新(07年),深入浅出,手不释卷。

    推荐两本有意思的书,

    一本是《Simple Heuristics that Makes Us Smart》

    另一本是《Bounded Rationality: The Adaptive Toolbox》

    ---------------------------------------------------------------------

    <从CSDN上转载的>

    机器学习与人工智能学习资源导引

    我经常在 TopLanguage 讨论组上推荐一些书籍,也经常问里面的牛人们搜罗一些有关的资料,人工智能、机器学习、自然语言处理、知识发现(特别地,数据挖掘)、信息检索这些无疑是 CS 领域最好玩的分支了(也是互相紧密联系的),这里将最近有关机器学习和人工智能相关的一些学习资源归一个类:

    首先是两个非常棒的 Wikipedia 条目,我也算是 wikipedia 的重度用户了,学习一门东西的时候常常发现是始于 wikipedia 中间经过若干次 google ,然后止于某一本或几本著作。

    第一个是“人工智能的历史”(History of Artificial Intelligence),我在讨论组上写道:

    而今天看到的这篇文章是我在 wikipedia 浏览至今觉得最好的。文章名为《人工智能的历史》,顺着 AI 发展时间线娓娓道来,中间穿插无数牛人故事,且一波三折大气磅礴,可谓"事实比想象更令人惊讶"。人工智能始于哲学思辨,中间经历了一个没有心理学(尤其是认知神经科学的)的帮助的阶段,仅通过牛人对人类思维的外在表现的归纳、内省,以及数学工具进行探索,其间最令人激动的是 Herbert Simon (决策理论之父,诺奖,跨领域牛人)写的一个自动证明机,证明了罗素的数学原理中的二十几个定理,其中有一个定理比原书中的还要优雅,Simon 的程序用的是启发式搜索,因为公理系统中的证明可以简化为从条件到结论的树状搜索(但由于组合爆炸,所以必须使用启发式剪枝)。后来 Simon 又写了 GPS (General Problem Solver),据说能解决一些能良好形式化的问题,如汉诺塔。但说到底 Simon 的研究毕竟只触及了人类思维的一个很小很小的方面 —— Formal Logic,甚至更狭义一点 Deductive Reasoning (即不包含 Inductive Reasoning , Transductive Reasoning (俗称 analogic thinking)。还有诸多比如 Common Sense、Vision、尤其是最为复杂的 Language 、Consciousness 都还谜团未解。还有一个比较有趣的就是有人认为 AI 问题必须要以一个物理的 Body 为支撑,一个能够感受这个世界的物理规则的身体本身就是一个强大的信息来源,基于这个信息来源,人类能够自身与时俱进地总结所谓的 Common-Sense Knowledge (这个就是所谓的 Emboddied Mind 理论。 ),否则像一些老兄直接手动构建 Common-Sense Knowledge Base ,就很傻很天真了,须知人根据感知系统从自然界获取知识是一个动态的自动更新的系统,而手动构建常识库则无异于古老的 Expert System 的做法。当然,以上只总结了很小一部分我个人觉得比较有趣或新颖的,每个人看到的有趣的地方不一样,比如里面相当详细地介绍了神经网络理论的兴衰。所以我强烈建议你看自己一遍,别忘了里面链接到其他地方的链接。

    顺便一说,徐宥同学打算找时间把这个条目翻译出来,这是一个相当长的条目,看不动 E 文的等着看翻译吧:)

    第二个则是“人工智能”(Artificial Intelligence)。当然,还有机器学习等等。从这些条目出发能够找到许多非常有用和靠谱的深入参考资料。

    然后是一些书籍

    书籍:

    1. 《Programming Collective Intelligence》,近年出的入门好书,培养兴趣是最重要的一环,一上来看大部头很容易被吓走的:P

    2. Peter Norvig 的《AI, Modern Approach 2nd》(无争议的领域经典)。

    3. 《The Elements of Statistical Learning》,数学性比较强,可以做参考了。

    4. 《Foundations of Statistical Natural Language Processing》,自然语言处理领域公认经典。

    5. 《Data Mining, Concepts and Techniques》,华裔科学家写的书,相当深入浅出。

    6. 《Managing Gigabytes》,信息检索好书。

    7. 《Information Theory:Inference and Learning Algorithms》,参考书吧,比较深。

    相关数学基础(参考书,不适合拿来通读):

    1. 线性代数:这个参考书就不列了,很多。

    2. 矩阵数学:《矩阵分析》,Roger Horn。矩阵分析领域无争议的经典。

    3. 概率论与统计:《概率论及其应用》,威廉·费勒。也是极牛的书,可数学味道太重,不适合做机器学习的。于是讨论组里的 Du Lei 同学推荐了《All Of Statistics》并说到

    机器学习这个方向,统计学也一样非常重要。推荐All of statistics,这是CMU的一本很简洁的教科书,注重概念,简化计算,简化与Machine Learning无关的概念和统计内容,可以说是很好的快速入门材料。

    4. 最优化方法:《Nonlinear Programming, 2nd》非线性规划的参考书。《Convex Optimization》凸优化的参考书。此外还有一些书可以参考 wikipedia 上的最优化方法条目。要深入理解机器学习方法的技术细节很多时候(如SVM)需要最优化方法作为铺垫。

    王宁同学推荐了好几本书:

    《Machine Learning, Tom Michell》, 1997.

    老书,牛人。现在看来内容并不算深,很多章节有点到为止的感觉,但是很适合新手(当然,不能"新"到连算法和概率都不知道)入门。比如决策树部分就很精彩,并且这几年没有特别大的进展,所以并不过时。另外,这本书算是对97年前数十年机器学习工作的大综述,参考文献列表极有价值。国内有翻译和影印版,不知道绝版否。

    《Modern Information Retrieval, Ricardo Baeza-Yates et al》. 1999

    老书,牛人。貌似第一本完整讲述IR的书。可惜IR这些年进展迅猛,这本书略有些过时了。翻翻做参考还是不错的。另外,Ricardo同学现在是Yahoo Research for Europe and Latin Ameria的头头。

    《Pattern Classification (2ed)》, Richard O. Duda, Peter E. Hart, David G. Stork

    大约也是01年左右的大块头,有影印版,彩色。没读完,但如果想深入学习ML和IR,前三章(介绍,贝叶斯学习,线性分类器)必修。

    还有些经典与我只有一面之缘,没有资格评价。另外还有两本小册子,论文集性质的,倒是讲到了了不少前沿和细节,诸如索引如何压缩之类。可惜忘了名字,又被我压在箱底,下次搬家前怕是难见天日了。

    (呵呵,想起来一本:《Mining the Web - Discovering Knowledge from Hypertext Data》 )

    说一本名气很大的书:《Data Mining: Practical Machine Learning Tools and Techniques》。Weka 的作者写的。可惜内容一般。理论部分太单薄,而实践部分也很脱离实际。DM的入门书已经不少,这一本应该可以不看了。如果要学习了解 Weka ,看文档就好。第二版已经出了,没读过,不清楚。

    信息检索方面,Du Lei 同学再次推荐:

    信息检索方面的书现在建议看Stanford的那本《Introduction to Information Retrieval》,这书刚刚正式出版,内容当然up to date。另外信息检索第一大牛Croft老爷也正在写教科书,应该很快就要面世了。据说是非常pratical的一本书。

    对信息检索有兴趣的同学,强烈推荐翟成祥博士在北大的暑期学校课程,这里有全slides和阅读材料:http://net.pku.edu.cn/~course/cs410/schedule.html

    maximzhao 同学推荐了一本机器学习:

    加一本书:Bishop, 《Pattern Recognition and Machine Learning》. 没有影印的,但是网上能下到。经典中的经典。Pattern Classification 和这本书是两本必读之书。《Pattern Recognition and Machine Learning》是很新(07年),深入浅出,手不释卷。

    最后,关于人工智能方面(特别地,决策与判断),再推荐两本有意思的书,

    一本是《Simple Heuristics that Makes Us Smart》

    另一本是《Bounded Rationality: The Adaptive Toolbox》

    不同于计算机学界所采用的统计机器学习方法,这两本书更多地着眼于人类实际上所采用的认知方式,以下是我在讨论组上写的简介:

    这两本都是德国ABC研究小组(一个由计算机科学家、认知科学家、神经科学家、经济学家、数学家、统计学家等组成的跨学科研究团体)集体写的,都是引起领域内广泛关注的书,尤其是前一本,后一本则是对 Herbert Simon (决策科学之父,诺奖获得者)提出的人类理性模型的扩充研究),可以说是把什么是真正的人类智能这个问题提上了台面。核心思想是,我们的大脑根本不能做大量的统计计算,使用fancy的数学手法去解释和预测这个世界,而是通过简单而鲁棒的启发法来面对不确定的世界(比如第一本书中提到的两个后来非常著名的启发法:再认启发法(cognition heuristics)和选择最佳(Take the Best)。当然,这两本书并没有排斥统计方法就是了,数据量大的时候统计优势就出来了,而数据量小的时候统计方法就变得非常糟糕;人类简单的启发法则充分利用生态环境中的规律性(regularities),都做到计算复杂性小且鲁棒。

    关于第二本书的简介:

    1. 谁是 Herbert Simon

    2. 什么是 Bounded Rationality

    3. 这本书讲啥的:

    我一直觉得人类的决策与判断是一个非常迷人的问题。这本书简单地说可以看作是《决策与判断》的更全面更理论的版本。系统且理论化地介绍人类决策与判断过程中的各种启发式方法(heuristics)及其利弊(为什么他们是最优化方法在信息不足情况下的快捷且鲁棒的逼近,以及为什么在一些情况下会带来糟糕的后果等,比如学过机器学习的都知道朴素贝叶斯方法在许多情况下往往并不比贝叶斯网络效果差,而且还速度快;比如多项式插值的维数越高越容易 overfit,而基于低阶多项式的分段样条插值却被证明是一个非常鲁棒的方案)。

    在此提一个书中提到的例子,非常有意思:两个团队被派去设计一个能够在场上接住抛过来的棒球的机器人。第一组做了详细的数学分析,建立了一个相当复杂的抛物线近似模型(因为还要考虑空气阻力之类的原因,所以并非严格抛物线),用于计算球的落点,以便正确地接到球。显然这个方案耗资巨大,而且实际运算也需要时间,大家都知道生物的神经网络中生物电流传输只有百米每秒之内,所以 computational complexity 对于生物来说是个宝贵资源,所以这个方案虽然可行,但不够好。第二组则采访了真正的运动员,听取他们总结自己到底是如何接球的感受,然后他们做了这样一个机器人:这个机器人在球抛出的一开始一半路程啥也不做,等到比较近了才开始跑动,并在跑动中一直保持眼睛于球之间的视角不变,后者就保证了机器人的跑动路线一定会和球的轨迹有交点;整个过程中这个机器人只做非常粗糙的轨迹估算。体会一下你接球的时候是不是眼睛一直都盯着球,然后根据视线角度来调整跑动方向?实际上人类就是这么干的,这就是 heuristics 的力量。

    相对于偏向于心理学以及科普的《决策与判断》来说,这本书的理论性更强,引用文献也很多而经典,而且与人工智能和机器学习都有交叉,里面也有不少数学内容,全书由十几个章节构成,每个章节都是由不同的作者写的,类似于 paper 一样的,很严谨,也没啥废话,跟《Psychology of Problem Solving》类似。比较适合 geeks 阅读哈。

    另外,对理论的技术细节看不下去的也建议看看《决策与判断》这类书(以及像《别做正常的傻瓜》这样的傻瓜科普读本),对自己在生活中做决策有莫大的好处。人类决策与判断中使用了很多的 heuristics ,很不幸的是,其中许多都是在适应几十万年前的社会环境中建立起来的,并不适合于现代社会,所以了解这些思维中的缺点、盲点,对自己成为一个良好的决策者有很大的好处,而且这本身也是一个非常有趣的领域。

    (完)

    以上就是关于AI文章综述相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。


    推荐阅读:

    chainchat怎么赚钱(chainchat注册有风险吗)

    opengpt官网(OpenAi ChatGPT官网入口)

    容易被ai取代的职业(容易被ai取代的职业清单)

    微信视频号怎么保存视频

    东莞花园景观设计加盟费(东莞花园景观设计加盟费多少钱)