我也算是 wikipedia 的重度用户了,学习一门东西的时候常常发现是始于 wikipedia 中间经过若干次 google ,然后止于某一本或几本著作。
而今天看到的这篇文章是我在 wikipedia 浏览至今觉得最好的。
文章名为《人工智能的历史》,顺着 AI 发展历史娓娓道来,中间穿插无数牛人故事,且一波三折大气磅礴,可谓"事实比想象更令人惊讶"。人工智能始于哲学思辨,中间经历了一个没有心理学(尤其是认知神经科学的)的帮助的阶段,仅通过牛人对人类思维的外在表现的归纳、内省,以及数学工具进行探索,其间最令人激动的是 Herbert Simon 写的一个自动证明机,证明了罗素的数学原理中的二十几个定理,其中有一个定理比原书中的还要优雅,Simon 的程序用的是启发式搜索,因为公理系统中的证明可以简化为从条件到结论的树状搜索(但由于组合爆炸,所以必须使用启发式剪枝)。后来 Simon 又写了 GPS (General Problem Solver),据说能解决一些能良好形式化的问题,如汉诺塔。(对这两个东西哪位牛人有深入的了解请不吝赐教)但说到底 Simon 的研究毕竟只触及了人类思维的一个很小很小的方面 ---- Formal Logic,甚至更狭义一点 Deductive Reasoning (即不包含 Inductive Reasoning , Transductive Reasoning (俗称 analogic thinking)。还有诸多比如 Common Sense、Vision、尤其是最为复杂的 Language 、Consciousness 都还谜团未解。还有一个比较有趣的就是有人认为 AI 问题必须要以一个物理的 Body 为支撑,一个能够感受这个世界的物理规则的身体本身就是一个强大的信息来源,基于这个信息来源,人类能够自身与时俱进地总结所谓的 Common-Sense Knowledge (这个就是所谓的 Emboddied Mind 理论。 ),否则像一些老兄直接手动构建 Common-Sense Knowledge Base ,就很傻很天真了,须知人根据感知系统从自然界获取知识是一个动态的自动更新的系统,而手动构建常识库则无异于古老的 Expert System 的做法。
我也算是 wikipedia 的重度用户了,学习一门东西的时候常常发现是始于 wikipedia 中间经过若干次 google ,然后止于某一本或几本著作。
而今天看到的这篇文章是我在 wikipedia 浏览至今觉得最好的。
文章名为《人工智能的历史》,顺着 AI 发展历史娓娓道来,中间穿插无数牛人故事,且一波三折大气磅礴,可谓"事实比想象更令人惊讶"。人工智能始于哲学思辨,中间经历了一个没有心理学(尤其是认知神经科学的)的帮助的阶段,仅通过牛人对人类思维的外在表现的归纳、内省,以及数学工具进行探索,其间最令人激动的是 Herbert Simon 写的一个自动证明机,证明了罗素的数学原理中的二十几个定理,其中有一个定理比原书中的还要优雅,Simon 的程序用的是启发式搜索,因为公理系统中的证明可以简化为从条件到结论的树状搜索(但由于组合爆炸,所以必须使用启发式剪枝)。后来 Simon 又写了 GPS (General Problem Solver),据说能解决一些能良好形式化的问题,如汉诺塔。(对这两个东西哪位牛人有深入的了解请不吝赐教)但说到底 Simon 的研究毕竟只触及了人类思维的一个很小很小的方面 ---- Formal Logic,甚至更狭义一点 Deductive Reasoning (即不包含 Inductive Reasoning , Transductive Reasoning (俗称 analogic thinking)。还有诸多比如 Common Sense、Vision、尤其是最为复杂的 Language 、Consciousness 都还谜团未解。还有一个比较有趣的就是有人认为 AI 问题必须要以一个物理的 Body 为支撑,一个能够感受这个世界的物理规则的身体本身就是一个强大的信息来源,基于这个信息来源,人类能够自身与时俱进地总结所谓的 Common-Sense Knowledge (这个就是所谓的 Emboddied Mind 理论。 ),否则像一些老兄直接手动构建 Common-Sense Knowledge Base ,就很傻很天真了,须知人根据感知系统从自然界获取知识是一个动态的自动更新的系统,而手动构建常识库则无异于古老的 Expert System 的做法。
我也算是 wikipedia 的重度用户了,学习一门东西的时候常常发现是始于 wikipedia 中间经过若干次 google ,然后止于某一本或几本著作。
而今天看到的这篇文章是我在 wikipedia 浏览至今觉得最好的。
文章名为《人工智能的历史》,顺着 AI 发展历史娓娓道来,中间穿插无数牛人故事,且一波三折大气磅礴,可谓"事实比想象更令人惊讶"。人工智能始于哲学思辨,中间经历了一个没有心理学(尤其是认知神经科学的)的帮助的阶段,仅通过牛人对人类思维的外在表现的归纳、内省,以及数学工具进行探索,其间最令人激动的是 Herbert Simon 写的一个自动证明机,证明了罗素的数学原理中的二十几个定理,其中有一个定理比原书中的还要优雅,Simon 的程序用的是启发式搜索,因为公理系统中的证明可以简化为从条件到结论的树状搜索(但由于组合爆炸,所以必须使用启发式剪枝)。后来 Simon 又写了 GPS (General Problem Solver),据说能解决一些能良好形式化的问题,如汉诺塔。(对这两个东西哪位牛人有深入的了解请不吝赐教)但说到底 Simon 的研究毕竟只触及了人类思维的一个很小很小的方面 ---- Formal Logic,甚至更狭义一点 Deductive Reasoning (即不包含 Inductive Reasoning , Transductive Reasoning (俗称 analogic thinking)。还有诸多比如 Common Sense、Vision、尤其是最为复杂的 Language 、Consciousness 都还谜团未解。还有一个比较有趣的就是有人认为 AI 问题必须要以一个物理的 Body 为支撑,一个能够感受这个世界的物理规则的身体本身就是一个强大的信息来源,基于这个信息来源,人类能够自身与时俱进地总结所谓的 Common-Sense Knowledge (这个就是所谓的 Emboddied Mind 理论。 ),否则像一些老兄直接手动构建 Common-Sense Knowledge Base ,就很傻很天真了,须知人根据感知系统从自然界获取知识是一个动态的自动更新的系统,而手动构建常识库则无异于古老的 Expert System 的做法。
当然,以上只总结了很小一部分我个人觉得比较有趣的,每个人看到的有趣的地方不一样,所以我强烈建议你看自己一遍,别忘了里面链接到其他地方的链接:)
via: http://en.wikipedia.org/wiki/History_of_artificial_intelligence
Reference
科普的:
[1] IBM 的蓝脑计划:在分子层面模拟哺乳动物包括人类的神经网络结构。
[2] On Intelligence, Jeff Hawkins. (读了一部分,蛮有趣的,包括 hawkins 这个人,我会在 twitter 上写读书笔记,比如这里,这里,还有这里,欢迎 follow me。)
[3] Scientific American Mind Magazine (电子版 gigapedia.org 上有下,这是 sciam 专门为脑科学开设的子刊物,我一般挑封面文章读,封面文章质量还是蛮高的)
[4] 这个 wikipedia 条目后面的大量参考资料。
[5] AI on wikipedia
科普的书(这三本我都看过,推荐,相当不错):
[1] In Search of Memory
[2] Searching for Memory
[3] Synaptic Self
专业的书:([1] 还没看。[2] 拿来参考过一些,很权威。[3] 很科普,写得也很好。
[1] AI: A Modern Approach 2nd
[2] Principle of Neural Science
[3] 专业的科普书一本:Programming Collective Intelligence
[4] 这个 wikipedia 条目(机器学习)后面的若干机器学习参考书目,需要深入细节的可以拿来参考。其中我觉得比较好的参考(其实也是公认的):
4.1. The.Elements.of.Statistical.Learning_Data.Mining,.Inference.and.Prediction
4.2. Springer - Vapnik V.N. The nature of statistical learning theory (2ed., Springer, 2000)(K)(150dpi)(T)(332s)
4.3. Neural Networks for Pattern Recognition
4.3.1. 最后例外地转一个 video, The Next Generation of Neural Networks, by Hinton 看上去很靠谱的一个方法。
当然,这三本只是参考书,一般来说拿 Programming Collective Intelligence 这样的书以及 wikipedia 条目作 Overview 式的概览,遇到觉得有兴趣深入的,再找大部头权威的书深入进去,
神经网络的模拟在计算量上遇到困难.
我在CPU上模拟的时候,实在是等不起.
不过,比较看好用CUDA在GPGPU上模拟神经网络.
MIT在这方面有些研究...
没错。其中的核心人物之一就是 Hinton ,就是那个 video 的演讲者。他主要是提出了一种新的神经网络学习方法,比 back propagation 的计算复杂度小,也更靠谱。但 Jeff Hawkins 在 On Intelligence 里面又提到,目前的神经网络还太幼稚,跟人类大脑的神经网络的复杂性根本不在一个级别上。我们人类新皮层( neocortex) 的神经网络到底是如何学习与记忆的,还是个很大的谜团。
P.S. SVM 其实是神经网络的一个特例。SVM 的前身等价于perceptron----只有一层节点的神经网络,只能拟合线性决策边界。后来有人引入非线性核函数使得它能够拟合非线性边界,神经网络则天生就能拟合非线性决策边界。此外,神经网络具有 SVM 不具备的两个能力:1. 人脑的神经网络是多层的金字塔结构,越往上层认知越是抽象,这种对知识的抽象能力似乎是 SVM 不具备的,SVM 归根到底只是一个基于非线性拟合的分类器。2. 神经网络能够在突触之间分布式存储"记忆", Hawkins 称之为 auto-associative memory ,auto 是指当记忆的某一些局部线索在外界出现并被感知到的时候我们的大脑就能够据此提取出完整的记忆 (scienceblog上的 the frontal cortex 博客的作者写过一本有名的科普读物 《普鲁斯特是个神经科学家》----普鲁斯特在作品中对记忆的一些现象做了很多的归纳和描述)。这也是极其重要的一个功能。
没错。其中的核心人物之一就是 Hinton ,就是那个 video 的演讲者。他主要是提出了一种新的神经网络学习方法,比 back propagation 的计算复杂度小,也更靠谱。但 Jeff Hawkins 在 On Intelligence 里面又提到,目前的神经网络还太幼稚,跟人类大脑的神经网络的复杂性根本不在一个级别上。我们人类新皮层( neocortex) 的神经网络到底是如何学习与记忆的,还是个很大的谜团。
P.S. SVM 其实是神经网络的一个特例。SVM 的前身等价于perceptron----只有一层节点的神经网络,只能拟合线性决策边界。后来有人引入非线性核函数使得它能够拟合非线性边界,神经网络则天生就能拟合非线性决策边界。此外,神经网络具有 SVM 不具备的两个能力:1. 人脑的神经网络是多层的金字塔结构,越往上层认知越是抽象,这种对知识的抽象能力似乎是 SVM 不具备的,SVM 归根到底只是一个基于非线性拟合的分类器。2. 神经网络能够在突触之间分布式存储"记忆", Hawkins 称之为 auto-associative memory ,auto 是指当记忆的某一些局部线索在外界出现并被感知到的时候我们的大脑就能够据此提取出完整的记忆 (scienceblog上的 the frontal cortex 博客的作者写过一本有名的科普读物 《普鲁斯特是个神经科学家》----普鲁斯特在作品中对记忆的一些现象做了很多的归纳和描述)。这也是极其重要的一个功能。
我来说几句:
1. "神经系统是已经被证实具有智能的唯一系统" 我没发现出处. 唯一和神经网络有关系的一个理论是3层神经网络可以拟合任意连续非线性函数.
(可能还有一些其他条件).
3. 实践证明, 很难说现在的神经网络比 SVM 好. 特别是大数据集合上. 也很难说因为人脑神经网络比SVM复杂抽象所以神经网络比SVM
好. 我们在说神经网络的时候, 其实都忽略了人工二字. 标准的术语应该叫做 人工神经元网络 (ANN)
----------------------------------------------------------------------------------
Yours Sincerely
Kun
blog: www.forwind.cn
2008/8/19 pongba <pon...@gmail.com>:
2008/8/19 Eric <xu.ma...@gmail.com>我来说几句:
1. "神经系统是已经被证实具有智能的唯一系统" 我没发现出处. 唯一和神经网络有关系的一个理论是3层神经网络可以拟合任意连续非线性函数.
(可能还有一些其他条件).
我也没发现。我觉得这样的证明不会容易,因为这样的证明面对的是无穷多种可能性的智能模型。不过如果说(生物)神经网络是目前为止已知唯一能够承载智能的结构,还是可以这么说的。
不过神经网络未必是三层啊,可以有多层&局部连通的,9几年就有人手动构造了在手写字体识别上非常不错的 LeNet-5,就是一个多层&局部连通的网络。另外还有 Hawkins 提出来的 HTM 。
恩。如何从上帝老人家手里窃取生物神经网络的设计奥秘,是个问题啊:-) 目前研究机器学习的主流思路还是从数学入手,而 Hawkins 则是从神经科学入手,我个人倾向于后者,既然都有了成品在那里,自然是反向工程抄袭来得快嘛:P3. 实践证明, 很难说现在的神经网络比 SVM 好. 特别是大数据集合上. 也很难说因为人脑神经网络比SVM复杂抽象所以神经网络比SVM
好. 我们在说神经网络的时候, 其实都忽略了人工二字. 标准的术语应该叫做 人工神经元网络 (ANN)
btw. 有篇相关文章: Machine Intelligence Meets Neuroscience 。要 ieee 或 acm 帐号,我不在学校,谁能发给我一下?:P
--
刘未鹏(pongba)|C++的罗浮宫TopLanguage
为什么能这么说呢?
> 我也没发现。我觉得这样的证明不会容易,因为这样的证明面对的是无穷多种可能性的智能模型。不过如果说(生物)神经网络是目前为止已知唯一能够承载智能的结构,还是可以这么说的。
>
说道不完全归纳这类"创新"性的智能,一个立刻引起的联想就是"遗传算法"了。
遗传算法中专门有一个环节是人为在genome中随机选择某些位,改变他们的值,来模拟自然界的基因突变。
然后再放到种群样本中,进行选择。
@tinyfool
我一有空就去做这个事情。 这几天太忙了
@pongba
那篇YouTube 上的 The Next Generation of Neural Networks 你全看完了么? 我好多年不碰ANN了,
很多技术细节已经不熟悉了, 听他说的有些部分已经云里雾里了。 如有空,可在线与你交流一下。