第十三章 学习方法
来自cslt Wiki
教学资料
- 教学参考
- 课件
- 小清爱提问:监督学习和无监督学习有什么不同?[]
- 小清爱提问:什么是强化学习?[]
- 小清爱提问:什么是聚类? [1]
- 小清爱提问:什么是流形学习?[]
- 小清爱提问:机器学习里有哪些回归模型[]
- 小清爱提问:机器学习里有哪些分类模型[2]
扩展阅读
演示链接
开发者资源
高级读者
- 王东,机器学习导论,第一章“绪论”,第十一章“优化方法”[5]
- Wolpert, David (1996), "The Lack of A Priori Distinctions between Learning Algorithms", Neural Computation, pp. 1341–1390 [6]
- Sebastian Ruder, An overview of gradient descend algorithms,2017 [7]
- Kirkpatrick, S.; Gelatt Jr, C. D.; Vecchi, M. P. (1983). "Optimization by Simulated Annealing". Science. 220 (4598): 671–680. [8]
- Brown et al., Language Models are Few-Shot Learners [9]