“第十三章 学习方法”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
第2行: 第2行:
 
*[[教学参考-13|教学参考]]
 
*[[教学参考-13|教学参考]]
 
*[http://aigraph.cslt.org/courses/13/course-13.pptx 课件]
 
*[http://aigraph.cslt.org/courses/13/course-13.pptx 课件]
*小清爱提问:什么是爬山法?[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486886&idx=1&sn=a9959dfb953fd7383589236676d6bb08&chksm=c3080764f47f8e72809d3502ecdd0da6940d680fc9ecb0423f7aeec504bcb83026cdb544a11a&scene=178#rd]
+
*小清爱提问:监督学习和无监督学习有什么不同?[]
*小清爱提问:什么是模拟退火算法?[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486965&idx=1&sn=30da3c422773f7cb530eb6047d91b30e&chksm=c3080737f47f8e21802ca8650d8a39d434102f09ef9693b8041f4c24f8888f7d5c1c5a6fc05c&scene=178#rd]
+
*小清爱提问:什么是强化学习?[]
*小清爱提问:什么是奥卡姆剃刀准则? [https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486241&idx=1&sn=328b83f1c63103ffff86b1d38c3ac048&chksm=c30801e3f47f88f539f0e68f4cfc5a1e8a46e861ea0f2c732ed370530c4996e40b49a2ee6da6&scene=178#rd]
+
*小清爱提问:? []
*小清爱提问:为什么说数据是人工智能的粮食?[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247485586&idx=1&sn=1892fe37396e19e57b1728604402e186&chksm=c3080250f47f8b46a9b96f88739e3c698b89fd24d90c1b2cad41fa9a3fb4956abc5306a5c7b5&scene=178#rd]
+
 
+
  
  

2022年8月3日 (三) 08:17的版本

教学资料

  • 教学参考
  • 课件
  • 小清爱提问:监督学习和无监督学习有什么不同?[]
  • 小清爱提问:什么是强化学习?[]
  • 小清爱提问:? []


扩展阅读

  • 维基百科:没有免费的午餐定理 [1]
  • 维基百科:梯度下降法[2][3]
  • 百度百科:梯度下降法[4][5]
  • 知乎:梯度下降法[6]
  • 知乎:小批量梯度下降法[7]
  • 知乎:动量梯度下降法[8][]
  • 维基百科:模拟退火算法 [9][10]
  • 百度百科:模拟退火算法[11][12]
  • 知乎:模拟退火详解 [13]
  • 维基百科:牛顿法 [14][15]
  • 维基百科:奥卡姆剃刀[16][17]
  • 百度百科:奥卡姆剃刀[18][19]
  • 维基百科:过拟合[20][21]
  • 维基百科:GPT-3 [22][23]
  • 机器之心:当谈论机器学习中的公平公正时,我们该谈论些什么?[24]
  • 机器之心:数据增强 [25]
  • 知乎:数据增强 [26][27]
  • 什么是模型预训练[28]
  • 迁移学习 [29]


演示链接

  • 优化方法在线演示 [30]
  • 基于神经网络的二分类任务演示 [31]

开发者资源

高级读者

  • 王东,机器学习导论,第一章“绪论”,第十一章“优化方法”[32]
  • Wolpert, David (1996), "The Lack of A Priori Distinctions between Learning Algorithms", Neural Computation, pp. 1341–1390 [33]
  • Sebastian Ruder, An overview of gradient descend algorithms,2017 [34]
  • Kirkpatrick, S.; Gelatt Jr, C. D.; Vecchi, M. P. (1983). "Optimization by Simulated Annealing". Science. 220 (4598): 671–680. [35]
  • Brown et al., Language Models are Few-Shot Learners [36]