“第十二章 机器学习基本流程”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
第18行: 第18行:
 
* 百度百科:模拟退火算法[https://baike.baidu.com/item/%E6%A8%A1%E6%8B%9F%E9%80%80%E7%81%AB%E7%AE%97%E6%B3%95/355508][http://baike.baidu.com/l/Smyp3NfN]
 
* 百度百科:模拟退火算法[https://baike.baidu.com/item/%E6%A8%A1%E6%8B%9F%E9%80%80%E7%81%AB%E7%AE%97%E6%B3%95/355508][http://baike.baidu.com/l/Smyp3NfN]
 
* 知乎:模拟退火详解 [https://zhuanlan.zhihu.com/p/266874840]
 
* 知乎:模拟退火详解 [https://zhuanlan.zhihu.com/p/266874840]
 +
* 维基百科:牛顿法 [http://aigraph.cslt.org/courses/12/Newton's_method.pdf][http://aigraph.cslt.org/courses/12/牛顿法.pdf]
  
  
第31行: 第32行:
 
==高级读者==
 
==高级读者==
  
* 王东,机器学习导论,第一章“绪论”[http://mlbook.cslt.org]
+
* 王东,机器学习导论,第一章“绪论”,第十一章“优化方法”[http://mlbook.cslt.org]
 
* Wolpert, David (1996), "The Lack of A Priori Distinctions between Learning Algorithms", Neural Computation, pp. 1341–1390 [https://web.archive.org/web/20161220125415/http://www.zabaras.com/Courses/BayesianComputing/Papers/lack_of_a_priori_distinctions_wolpert.pdf]
 
* Wolpert, David (1996), "The Lack of A Priori Distinctions between Learning Algorithms", Neural Computation, pp. 1341–1390 [https://web.archive.org/web/20161220125415/http://www.zabaras.com/Courses/BayesianComputing/Papers/lack_of_a_priori_distinctions_wolpert.pdf]

2022年8月2日 (二) 13:42的版本

教学资料

  • 教学参考
  • 课件
  • 小清爱提问:什么是爬山法?[1]
  • 小清爱提问:什么是模拟退火算法?[2]
  • 小清爱提问:什么是奥卡姆剃刀准则? [3]
  • 小清爱提问:为什么说数据是人工智能的粮食?[4]


扩展阅读

  • 维基百科:没有免费的午餐定理 [5]
  • 维基百科:梯度下降法[6][7]
  • 百度百科:梯度下降法[8][9]
  • 知乎:梯度下降法[10]
  • 维基百科:模拟退火算法 [11][12]
  • 百度百科:模拟退火算法[13][14]
  • 知乎:模拟退火详解 [15]
  • 维基百科:牛顿法 [16][17]


演示链接

开发者资源

高级读者

  • 王东,机器学习导论,第一章“绪论”,第十一章“优化方法”[18]
  • Wolpert, David (1996), "The Lack of A Priori Distinctions between Learning Algorithms", Neural Computation, pp. 1341–1390 [19]