“教学参考-07”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
第1行: 第1行:
 
==教学目标==
 
==教学目标==
  
* 了解图灵去世后(1950)到达特茅斯会议之前(1956),人工智能学者们的探索,理解人工智能产生的历史背景
+
* 了解达特茅斯会议后人工智能的发展历程,对人工智能的发展有整体理解
* 了解香农、约翰·麦卡锡、马文·闵斯基、赫伯特·西蒙、艾伦·纽厄尔等人工智能早期代表人物的工作
+
* 了解每个阶段的典型技术,讨论背后的历史必然性
* 了解达特茅斯会议所讨论的内容,了解人工智能学者们所关注的问题
+
* 讨论人工智能的发展历史带来的启示
* 通过本节讲解,进一步引导学生建立正确的人工智能史观,理解人工智能研究的对象和领域(例如,人工智能只是编程吗?人工智能是机器人吗?)
+
  
 
==教学内容==
 
==教学内容==
  
===风起云涌===
+
===风风雨六十年===
 +
* 人工智能的发展总体可以分为三次浪潮;前两次浪潮都终结于低谷,我们正在经历第三次浪潮,目前还没看到走向低谷的趋势
 +
* 总体来说,第一次浪潮基于通用规则,第二次浪潮基于专业知识,即专家系统的时代,第三次浪潮基于机器学习。人工智能从“人向机器灌输知识”一步步走向“让机器自主学习知识”。
  
* 上世纪50年代,通用计算机刚刚诞生,其强大的计算能力引起来了研究者的广泛关注。另一方面,随着数理逻辑的发展,思维可计算的理念已经深入人心。受图灵“机器智能”思想的影响,利用计算机来模拟人类思维、实现类人智能激发起年轻学者的极大热情。
 
* 1950年,人工智能的开创者,著名计算机学家图灵自杀离世,大洋彼岸的美国却有一批年轻人接过了图灵未竟的事业,开启了对后世产生深远影响的一场惊天革命。
 
* 1950-1956年间,一批新的研究成果涌现,包括的克劳德·香农的对弈算法,赫伯特•西蒙和艾伦•纽厄尔的“逻辑理论家”定理证明系统, 马文·闵斯基的SNARC神经网络学习机。这些成果启发人们,计算机能做的事可能远超过人们的想象。
 
  
===成果酝酿1:对弈程序===
+
===规则时代:黄金十年(1956-1974)===
  
* 对弈一向被认为是需要很强智能才能完成的游戏,因此,对弈机器一直承载着人类的智能梦想。最早的自动对弈机器由西班牙数学家莱昂纳多·托里斯于1910年发明[https://www.chessprogramming.org/El_Ajedrecista]。
+
* 达特茅斯会议后的十年被称为黄金十年,是人工智能的第一次高潮。当时很多人持有乐观情绪,认为经过一代人的努力,创造出与人类具有同等智能水平的机器并不是个问题。1965年,赫伯特·西蒙就曾乐观预言:“二十年内,机器人将完成人能做到的一切工作。” 1970年,马文·闵斯基也发表看法:“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”
* 计算机发明以后,包括图灵在内的很多科学家都研究过对弈算法(图灵没有机器,是用笔算的走棋步骤)。其中,克劳德·香农的研究最为深入。他在1949年的一篇论文中深入探讨了一种称为MinMax的走棋算法,并给出了优化方案。同年,香农还设计了一台电动走棋机器[https://www.chessprogramming.org/Claude_Shannon]。
+
* 在这十年里,包括ARPA在内的资助机构向AI研究投入大笔资金,希望制造出具有通用智能的机器。这一时期的典型方法是符号方法,该方法遵循思维计算化的基本思路,以基本假设为前提,利用符号演算解决推理问题。启发式搜索是这一时期的典型算法。这一时期的代表性成果包括定理证明、基于模板的对话机器人等。
  
===成果酝酿2:定理证明===
+
===严冬到来(1974-1980)===
  
* 定理证明是一项高智商活动。然而,数理逻辑的发展让人们相信,基于若干基础假设和简单的推理规则,通过计算是可以实现定理证明的。
+
* 到了70年代,人们发现对AI的预期过于乐观,失望情绪开始蔓延,人工智能走入低谷。
* 1955年,赫伯特•西蒙和艾伦·纽厄尔开始探讨机器定理证明的可能性,最后由来自兰德的计算机程序员约翰·克里夫·肖完成了程序编写。他们把这个程序命名为“逻辑理论家”[https://en.wikipedia.org/wiki/Logic_Theorist]。
+
* 首先,符号主义遇到瓶颈。虽然在定理证明这类确定性问题上符号主义表现优异,但在实际问题中存在大量不确定性,不太可能完全用逻辑推理方法来解决。另一方面,不依赖逻辑演算的神经网络被证明具有严重局限性。这些问题使研究者失去方向感。
* 逻辑理论家是一个树搜索程序,根结点是基础假设,通过设计好的推理原则进行扩展,直到扩展到定理的结论。这一程序的诞生具有深刻的历史意义,是“思维即计算”这一哲学思想的有力证明。
+
* 另外,计算复杂性带来对算法实用性的质疑。1972年美国计算机学家理查德·卡普证明人工智能中的很多问题只能在指数时间内获解。换句话说,除了特别简单的情况,大部分问题是不太可能在合理的时间内完成计算的。这让人们对人工智能的实用性产生了怀疑。
  
===成果酝酿3:神经网络===
+
===短暂回暖(1980-1987)===
  
* 科学家们很早就知道,大脑是我们的智能中枢,而大脑是由大量神经元组成。这些神经元是同质的,互相连接起来产生功能。通过模拟大脑的这种连接机制,有可能复现人类的智能。
+
* 到80年代,人们渐渐意识到通用AI过于遥远,人工智能首先应该关注受限任务。受此思潮影响,以专家系统为代表的知识型AI走上历史舞台。和传统AI不同,专家系统通过收集具体的领域知识来解决任务,获得巨大成功。据统计,当时福布斯500强企业中有2/3的企业使用专家系统。
* 1951年,当时还是普林斯顿大学数学系研究生的马文·闵斯基设计了一个称为[[SNARC]][https://en.wikipedia.org/wiki/Stochastic_neural_analog_reinforcement_calculator]的人工神经网络。这个网络包括40个神经突触,从随机状态开始运行,并通过操作员的反馈进行训练。SNARC是早期神经网络的代表性工作。
+
* 另一方面,反向传播算法的提出使神经网络焕发出青春,机器自我学习的能力进一步增强。
  
===约翰·麦卡锡===
 
  
* 1927年9月4日,麦卡锡出生于美国波士顿一个共产党家庭。父母的工作性质决定全家需不断搬迁,从波士顿迁到纽约,然后又到了洛杉矶。
+
===二次低潮(1987-1993)===
* 信仰爱尔兰天主教的父亲当过木匠、渔夫和工会组织者,同时也是一位发明家,拥有捻船缝机和桔汁冷冻机两项专利。他的母亲是立陶宛犹太人,最初在联合通讯社当记者,后来在一家共产党报社工作。夫妻俩都曾参加过美国给出的,受父母的影响,麦卡锡从小就把自己对科学的兴趣与家庭的政治倾向结合起来。
+
* 麦卡锡认为自己的青少年时期平淡无奇,但事实证明并非如此。在上高三时,他得到了一份加州理工学院的课程目录,上面列出了该校一年级和二年级的微积分课本。他买了这些书,完成了所有的练习题目。这使得他最终在 1944 年进入加州理工后得以免修头两年的数学课程。
+
* 1948年,他获得了加州理工学院数学学士学位,在1951年又获得了普林斯顿大学数学博士学位。
+
* 1948年9月,他参加了加州理工主办的希克森脑行为机制研讨会,大数学家、计算机设计大师冯·诺依曼在会上演讲了一篇关于自复制自动机的论文,这是一种可以对自身进行复制的机器。
+
* 尽管当时的与会人员并没有明确地将机器智能与人类智能联系起来,但冯·诺依曼的讲话却激发了麦卡锡的好奇心。麦卡锡敏锐地将机器智能与人的智能联系起来,打算从事更深入的研究。第二年,在普林斯顿大学数学系做博士论文时,麦卡锡幸运地与冯·诺依曼一起工作。
+
* 在冯·诺依曼的鼓励和支持下,麦卡锡决定从在机器上模拟人的智能入手,主要研究方向定为计算机下棋。
+
  
===达特茅斯会议申请===
+
* 80年代后期到90年代初期,人们发现专家系统维护起来相当困难,新知识难以加入,老知识互相冲突。例如,由匹兹堡大学设计的疾病诊断系统CADUCEUS仅建立知识库就花了近十年。对AI的投资再次削减,AI 又一次进入低谷。
 +
* 人们进一步反思传统人工智能中的符号逻辑方法,意识到推理、决策等任务也许并不是人工智能的当务之急;实现感知、移动、交互等基础能力也许是更现实、更迫切的事,而这些任务与符号逻辑并没有必然联系。
  
* 1952年,普林斯顿大学的一个研究生向麦卡锡建议,可以找一些对机器智能感兴趣的人去收集一些该领域的文章。麦卡锡找到了贝尔实验室的克劳德·香农——“信息论”的创始人。在人工智能方面的若干深入探讨之后,他们萌生召开一次研讨会的共识。在洛克菲勒基金会的一笔微薄的赞助下,他们邀请到当时哈佛大学的明斯基和IBM工程师罗彻斯特等几位学者,参加这次会议
+
===务实与复苏(1993-2010)===
* 1955年9月2日,约翰·麦卡锡(达特矛斯学院数学助理教授)联合克劳德·香农(贝尔电话实验室数学家) ,马文·闵斯基(哈佛大学数学与神经学初级研究员)和纳撒尼尔·罗切斯特(IBM信息研究经理)向洛克菲勒基金会提出申请,希望举办一次为期两个月,大约10人参加的讨论会。
+
* 在申请中,麦卡锡等人首次提出“人工智能 (Artificial Intelligence)”的概念,为一门新学科的诞生埋下了种子[https://web.archive.org/web/20080930164306/http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html]。
+
  
 +
* 经过80年代末和90年代初的反思,一大批脚踏实地的研究者脱去AI鲜亮的外衣,开始认真研究特定领域内特定问题的解决方法,在语音识别、图像识别、自然语言处理等领域取得了一系列突破。
 +
* 在这一过程中,研究者越来越意识到数据的重要性和统计模型的价值,贝叶斯模型和神经网络越来越受到重视,机器学习成为AI的主流方法。
  
===达特茅斯会议===
+
===迅猛发展(2011-今)===
  
* 会议大约开始于6月18号,差不多8月17号结束,前后大约有47人参加。讨论在达特矛斯数学系一座教学楼里进行,有时候会有人做主讲报告成果,更多时候是自由讨论。
+
* 2011以后,得益于大数据的积累和计算能力的增长,以深度神经网络为代表的机器学习方法取得了极大成功,开启了以大数据学习为基本特征的人工智能新时代。
* 除了组织者麦卡锡、香农、闵斯基、罗切斯特,与会者还包括赫伯特·西蒙、艾伦·纽厄尔、阿瑟·塞缪尔、雷·所罗门诺夫、约翰·纳什等。这些人在接下来的几十年里都是人工智能领域的领军人物,完成了一次又一次创举和突破,包括麦卡锡的LISP语言,塞费里奇的机器感知理论,塞缪尔的机器学习方法等。
+
* 2011年,苹果发布了iPhone4S,其中一款称为Siri的语音对话软件引了公众的关注,重新燃起了人们对人工智能技术的热情。2016年DeepMind的AlphaGo在围棋对奕中取得辉煌战绩,进一步激发起人们对人工智能的关注。
* 特茅斯会议宣告人工智能作为一门新学科正式登上历史舞台。
+
* 今天,人工智能飞速发展,不仅在图像处理、自然语言处理、语音信号处理等领域大显身手,更加渗透到物理、材料、化学、医学、天文学、地质学、生物学等各个领域,释放出了让人震惊的生产力。我们将在后续章节对这些成果一一介绍。
 
+
===会议讨论的内容===
+
 
+
*麦卡锡等人的达特茅斯会议申请中列出的讨论内容包括:
+
:*如何对计算机进行编程;
+
:*如何让计算机理解和使用语言;
+
:*如何用神经网络来表达概念;
+
:*如何定义计算效率和复杂性;
+
:*如何实现机器的自我改进;
+
:*如何实现对象的抽象表示;
+
:*如何实现随机性和创造性。
+
 
+
* 可见,当时人工智能的研究方向还是很宽泛的,很多基础的事情都需要人工智能的学者们考虑。尽管如此,现代人工智能的主要研究内容已经基本确定了。
+
 
+
* 从某种意义上讲,人工智能可能是计算机诞生后的第一个研究方向。当时计算机刚出现,人们对计算机的强大能力极为期待,希望它做更多的事情。让它做什么事呢?研究者们首先想到的是让它模似人的能力,成为人们的助手。“除了计算,那就干点儿人干的事”,这是当时很自然的思路。
+
* 随着人们探索的深入,才出出了如网络,多媒体处理等细分研究领域,而这些技术在没有出现之前,也是“智能”的,也是人工智能学者们想要达到的目标。
+

2022年7月31日 (日) 07:45的版本

教学目标

  • 了解达特茅斯会议后人工智能的发展历程,对人工智能的发展有整体理解
  • 了解每个阶段的典型技术,讨论背后的历史必然性
  • 讨论人工智能的发展历史带来的启示

教学内容

风风雨六十年

  • 人工智能的发展总体可以分为三次浪潮;前两次浪潮都终结于低谷,我们正在经历第三次浪潮,目前还没看到走向低谷的趋势
  • 总体来说,第一次浪潮基于通用规则,第二次浪潮基于专业知识,即专家系统的时代,第三次浪潮基于机器学习。人工智能从“人向机器灌输知识”一步步走向“让机器自主学习知识”。


规则时代:黄金十年(1956-1974)

  • 达特茅斯会议后的十年被称为黄金十年,是人工智能的第一次高潮。当时很多人持有乐观情绪,认为经过一代人的努力,创造出与人类具有同等智能水平的机器并不是个问题。1965年,赫伯特·西蒙就曾乐观预言:“二十年内,机器人将完成人能做到的一切工作。” 1970年,马文·闵斯基也发表看法:“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”
  • 在这十年里,包括ARPA在内的资助机构向AI研究投入大笔资金,希望制造出具有通用智能的机器。这一时期的典型方法是符号方法,该方法遵循思维计算化的基本思路,以基本假设为前提,利用符号演算解决推理问题。启发式搜索是这一时期的典型算法。这一时期的代表性成果包括定理证明、基于模板的对话机器人等。

严冬到来(1974-1980)

  • 到了70年代,人们发现对AI的预期过于乐观,失望情绪开始蔓延,人工智能走入低谷。
  • 首先,符号主义遇到瓶颈。虽然在定理证明这类确定性问题上符号主义表现优异,但在实际问题中存在大量不确定性,不太可能完全用逻辑推理方法来解决。另一方面,不依赖逻辑演算的神经网络被证明具有严重局限性。这些问题使研究者失去方向感。
  • 另外,计算复杂性带来对算法实用性的质疑。1972年美国计算机学家理查德·卡普证明人工智能中的很多问题只能在指数时间内获解。换句话说,除了特别简单的情况,大部分问题是不太可能在合理的时间内完成计算的。这让人们对人工智能的实用性产生了怀疑。

短暂回暖(1980-1987)

  • 到80年代,人们渐渐意识到通用AI过于遥远,人工智能首先应该关注受限任务。受此思潮影响,以专家系统为代表的知识型AI走上历史舞台。和传统AI不同,专家系统通过收集具体的领域知识来解决任务,获得巨大成功。据统计,当时福布斯500强企业中有2/3的企业使用专家系统。
  • 另一方面,反向传播算法的提出使神经网络焕发出青春,机器自我学习的能力进一步增强。


二次低潮(1987-1993)

  • 80年代后期到90年代初期,人们发现专家系统维护起来相当困难,新知识难以加入,老知识互相冲突。例如,由匹兹堡大学设计的疾病诊断系统CADUCEUS仅建立知识库就花了近十年。对AI的投资再次削减,AI 又一次进入低谷。
  • 人们进一步反思传统人工智能中的符号逻辑方法,意识到推理、决策等任务也许并不是人工智能的当务之急;实现感知、移动、交互等基础能力也许是更现实、更迫切的事,而这些任务与符号逻辑并没有必然联系。

务实与复苏(1993-2010)

  • 经过80年代末和90年代初的反思,一大批脚踏实地的研究者脱去AI鲜亮的外衣,开始认真研究特定领域内特定问题的解决方法,在语音识别、图像识别、自然语言处理等领域取得了一系列突破。
  • 在这一过程中,研究者越来越意识到数据的重要性和统计模型的价值,贝叶斯模型和神经网络越来越受到重视,机器学习成为AI的主流方法。

迅猛发展(2011-今)

  • 2011以后,得益于大数据的积累和计算能力的增长,以深度神经网络为代表的机器学习方法取得了极大成功,开启了以大数据学习为基本特征的人工智能新时代。
  • 2011年,苹果发布了iPhone4S,其中一款称为Siri的语音对话软件引了公众的关注,重新燃起了人们对人工智能技术的热情。2016年DeepMind的AlphaGo在围棋对奕中取得辉煌战绩,进一步激发起人们对人工智能的关注。
  • 今天,人工智能飞速发展,不仅在图像处理、自然语言处理、语音信号处理等领域大显身手,更加渗透到物理、材料、化学、医学、天文学、地质学、生物学等各个领域,释放出了让人震惊的生产力。我们将在后续章节对这些成果一一介绍。