“教学参考-14”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
(以“==教学目标== * 了解机器学习的四大流派及其背后的基础思想 * 理解不同学派之间的对比优缺点 * 理解不同学派在同历史阶段...”为内容创建页面)
 
 
第8行: 第8行:
 
==教学内容==
 
==教学内容==
  
===AI的潜在风险===
+
===符号学派===
  
* AI的潜在风险有两个主要根源:一是人为对人工智能技术的滥用,危力越大,滥用起来越严重。二是人工智能技的不可控性。当前人工智能技术是通过学习获得能力的,学成什么样是不确定的,有时候人们难以控制结果。特别是通过学习,机器可能获得超过人的能力,这样无形中就放大了不可控带来的后果。
+
* 符号学派起源于基于符号演算的人工智能方法。传统上,符号系统的知识是人为定义的,是不可更改的。然而,真实场景中还可能出现一些没有被覆盖的新知识。不论哪种场景,这涉及到对知识库的修改。
* 目前来看,还没有迹象表明AI会学成一个攻击人类的“社会败类”,但学成一个熊孩子还是有可能的。
+
* 引入学习方法,基于实际数据对知识内容或其应用顺序进行调整,或总结出新知识,可以使符号系统的适用性更强。
* 事实上,AI的行为是由训练数据决定的,什么样的训练数据得到什么样的智能系统。所以只要控制好了数据,机器的学习行为总体上还是可控的。困难在于,当数据量过于庞大时,往往很难对训练数据进行检查。同时,大数据训练出的模型确实有可能产生让人意料之外的行为,导致潜在风险。
+
* 符号学派的学习能力较弱,一般不允许对知识主体做大规模改动。
* 最后,一些智能系统具有自适应能力,在和用户的互动中会改变自己的行为。这种自适应学习增加了学成熊孩子的风险。例如,2016年,微软的聊天机器人Tay被用户调教成了不良少女,无奈下线。
+
  
 +
===贝叶斯学派===
  
 +
* 贝叶斯学派将事件描述成变量,将事件之间的相关性描述成变量之间的条件概率。模型设计者可以依据领域知识设计变量之间的条件概率的形式,但不确定其具体参数。
 +
* 以一个预测降雨的贝叶斯概率模型为例,设降雨与云量和湿度都有关系,且具有简单的相关形式如下: P(降雨=1)=sigma(a X 云量 + b X 温度 + c)。
 +
* 在模型学习时,通过调整模型参数(a,b,c),使得模型尽可能精确地描述训练集中的样本。当训练完成时,即可以通过概率公式计算出不同情况下的降雨可能性。
 +
* 贝叶斯模型将知识存储在概率模型中,具有坚实的理论基础和强大的学习能力。
  
===机器人三定率===
 
  
* 阿西莫夫于1942年发表科幻小说《转圈圈》(后收录于小说集《我,机器人》 ),首次就未来社会的人机伦理关系进行了思考,提出了著名的“机器人三定律”。
+
===连接学派===
:*第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观;
+
:*第二定律:机器人应服从人的一切命令,但不得违反第一定律;
+
:*第三定律:在不违反第一定律和第二定律的情况下,机器人应保护自身的安全。
+
  
* 然而,这些定律存在一些问题,执行起来比较困难。比如当机器人遇到坏人行凶时,依第一定律,机器人不能伤害坏人,也不能看到好人受到伤害而袖手旁观,这是让机器人非常矛盾的事情。
+
* 连接学派的基本思想是通过模拟人的神经系统实现智能。人的神经系统,特别是大脑,是由大量神经元互相连接形成的,每个神经元都具有同样的简单结构,但当它们互相连接起来形成神经网络以后,就可以表现出强大的智能。
* 有人担心,如果机器真的聪明到需要用三定律来约束他们的时候,恐怕这三定律也起不到什么效果。未来恐怕还需要探索更合理的准则和方式来约束人与人工智能之间的关系,保证机器永远是人类的助手和伙伴 。
+
* 基于这一思路,连接学派设计了人工神经元网络模型,网络中每个节点模拟一个神经元,神经元互相连接形成功能。这些连接在模型设计时取随机值,并在模型训练时进行调整。因此,神经网络是利用连接的强弱(称为连接权重)来存储知识的。
 +
* 神经网络概念清晰直观,结构简单,可学习性强,在人工智能发展之初就得到研究者的广泛关注。然而,直到近十年,随着数据的积累和深度学习算法的提出,神经网络才真正展现出其特有的优势。
 +
* 右图是用来预测降雨发生与否的神经网络。训练时将训练样本的湿度和云量作为输入,训练目标是使得网络输出尽可能接近样本标记(即是否降雨)。
  
===AI的现实风险===
+
===符号学派、贝叶斯学派、连接学派比较===
  
* 虽然人工智能还没有发展到威胁人类的地步,但一些现实风险已经出现,包括隐私泄露风险、法律风险、伦理风险等。
+
* 符号系统需要大量人为设计,因此知识依赖性最强;概率模型需要设计变量以及变量间的概率关系,知识依赖性较弱;神经网络只需设计网络结构,知识依赖性最低。对应的,符号学派限制最多,可学习性最差,需要的数据最少,概率模型次之,神经网络最为灵活,可学习性最强,数据需求也最大。最后,过于灵活的结构使得神经网络模型难以理解,可解释性下降。
* 人脸识别被滥用的可能性正在增加。在对方不知情的前提下对人脸进行扫描和识别,可能严重侵犯个人隐私,也可能被不法分子仿冒攻击,造成财产损失和安全隐患。
+
* 人工智能技术可以轻松改变视频中的人脸和声音,生成高度逼真的伪造视频。这些伪造视频不仅带来社会混乱,还可能被不法分子用作诈骗工具。
+
* 自动驾驶汽车发生车祸,责任主体不明确。因为没有直接责任人,需要设计多方参与的保险体系,以便及时对事故损失方进行赔偿。另外,事故处理流程也需要完善,以防二次损失出现。
+
  
===AI抢人饭碗===
 
  
* 2019年1月8号,英国的BBC网站发布了未来会被人工智能取代的七大“高危”职业,其中不乏我们眼中的铁饭碗:医生、律师、建筑师、飞行员、警察、房地产中介。
+
===进化仿生学派===
* 未来可能会有更多职业被人工智能取代,包括很多专业性很强、需要长时间经验积累的岗位。
+
 
* 历史上每次技术革命都会取代一些旧岗位,同时催生一些新的岗位,人工智能也是如此。人们应该对这一变化有足够的心理准备,并及时调整职业规划,选择更具有创造性的行业。
+
 
 +
* 进化仿生学派认为,人类的智能是生物长期进化的结果,包括以交叉繁衍和个体变异为基础的繁衍过程和以自然选择为基础的优胜劣汰机制。模拟这一进化过程可以实现类人的智能。进化仿生学派把优胜劣汰作为产生智能的基础原则。
 +
* 遗传算法是进化仿生学派的代表性算法。这一算法把机器学习的目标函数视为自然选择的标准,将每个可能的解决方案视为种群个体,通过参数互换和随机扰动生成新的解决方案。基于这样的设计,以自然选择为基础的进化过程即可模拟目标函数的优化过程。
 +
* 什么意呢?假设我们想优化一个模型,它有很多参数,记为W。如何做呢?可以采用尝试法,随机生成一个W,然后基于W来计算目标函数值。把那些取得较高目标函数(假设目标函数越大越好,如果某个问题不是这样,可加个负号将最小化问题转成最大化问题)的W拿出来组成一个种群,让这个种群交叉、变异,生成新种群W',再去计算新种群W'的目标函数。这意味着我们是用目标函数作为进化的目标来进行自然选择的。这样的过程重复进行,即可得到越来越好的个体,即具有更高目标函数值的解W。
 +
* 和前四个学派不同,进化仿生方法并不对应特别的模型,而是一种优化方法。这一方法可用于优化符号系统、概率模型或神经网络,也可以用于求解不具有明确模型结构的一般性问题,如右图所示的天线设计。

2022年8月4日 (四) 01:24的最后版本

教学目标

  • 了解机器学习的四大流派及其背后的基础思想
  • 理解不同学派之间的对比优缺点
  • 理解不同学派在同历史阶段兴盛发展的原因


教学内容

符号学派

  • 符号学派起源于基于符号演算的人工智能方法。传统上,符号系统的知识是人为定义的,是不可更改的。然而,真实场景中还可能出现一些没有被覆盖的新知识。不论哪种场景,这涉及到对知识库的修改。
  • 引入学习方法,基于实际数据对知识内容或其应用顺序进行调整,或总结出新知识,可以使符号系统的适用性更强。
  • 符号学派的学习能力较弱,一般不允许对知识主体做大规模改动。

贝叶斯学派

  • 贝叶斯学派将事件描述成变量,将事件之间的相关性描述成变量之间的条件概率。模型设计者可以依据领域知识设计变量之间的条件概率的形式,但不确定其具体参数。
  • 以一个预测降雨的贝叶斯概率模型为例,设降雨与云量和湿度都有关系,且具有简单的相关形式如下: P(降雨=1)=sigma(a X 云量 + b X 温度 + c)。
  • 在模型学习时,通过调整模型参数(a,b,c),使得模型尽可能精确地描述训练集中的样本。当训练完成时,即可以通过概率公式计算出不同情况下的降雨可能性。
  • 贝叶斯模型将知识存储在概率模型中,具有坚实的理论基础和强大的学习能力。


连接学派

  • 连接学派的基本思想是通过模拟人的神经系统实现智能。人的神经系统,特别是大脑,是由大量神经元互相连接形成的,每个神经元都具有同样的简单结构,但当它们互相连接起来形成神经网络以后,就可以表现出强大的智能。
  • 基于这一思路,连接学派设计了人工神经元网络模型,网络中每个节点模拟一个神经元,神经元互相连接形成功能。这些连接在模型设计时取随机值,并在模型训练时进行调整。因此,神经网络是利用连接的强弱(称为连接权重)来存储知识的。
  • 神经网络概念清晰直观,结构简单,可学习性强,在人工智能发展之初就得到研究者的广泛关注。然而,直到近十年,随着数据的积累和深度学习算法的提出,神经网络才真正展现出其特有的优势。
  • 右图是用来预测降雨发生与否的神经网络。训练时将训练样本的湿度和云量作为输入,训练目标是使得网络输出尽可能接近样本标记(即是否降雨)。

符号学派、贝叶斯学派、连接学派比较

  • 符号系统需要大量人为设计,因此知识依赖性最强;概率模型需要设计变量以及变量间的概率关系,知识依赖性较弱;神经网络只需设计网络结构,知识依赖性最低。对应的,符号学派限制最多,可学习性最差,需要的数据最少,概率模型次之,神经网络最为灵活,可学习性最强,数据需求也最大。最后,过于灵活的结构使得神经网络模型难以理解,可解释性下降。


进化仿生学派

  • 进化仿生学派认为,人类的智能是生物长期进化的结果,包括以交叉繁衍和个体变异为基础的繁衍过程和以自然选择为基础的优胜劣汰机制。模拟这一进化过程可以实现类人的智能。进化仿生学派把优胜劣汰作为产生智能的基础原则。
  • 遗传算法是进化仿生学派的代表性算法。这一算法把机器学习的目标函数视为自然选择的标准,将每个可能的解决方案视为种群个体,通过参数互换和随机扰动生成新的解决方案。基于这样的设计,以自然选择为基础的进化过程即可模拟目标函数的优化过程。
  • 什么意呢?假设我们想优化一个模型,它有很多参数,记为W。如何做呢?可以采用尝试法,随机生成一个W,然后基于W来计算目标函数值。把那些取得较高目标函数(假设目标函数越大越好,如果某个问题不是这样,可加个负号将最小化问题转成最大化问题)的W拿出来组成一个种群,让这个种群交叉、变异,生成新种群W',再去计算新种群W'的目标函数。这意味着我们是用目标函数作为进化的目标来进行自然选择的。这样的过程重复进行,即可得到越来越好的个体,即具有更高目标函数值的解W。
  • 和前四个学派不同,进化仿生方法并不对应特别的模型,而是一种优化方法。这一方法可用于优化符号系统、概率模型或神经网络,也可以用于求解不具有明确模型结构的一般性问题,如右图所示的天线设计。