“第十三章 学习方法”版本间的差异
来自cslt Wiki
第4行: | 第4行: | ||
*小清爱提问:监督学习和无监督学习有什么不同?[] | *小清爱提问:监督学习和无监督学习有什么不同?[] | ||
*小清爱提问:什么是强化学习?[] | *小清爱提问:什么是强化学习?[] | ||
− | * | + | *小清爱提问:什么是聚类? [https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247487378&idx=1&sn=bd2ec82d7baf0d4c3074f2b09bd678aa&chksm=c3080550f47f8c46308ce16dfe3facff9f9f09482c0da5ceb50c2ed0ba0043e5e3960bbf7df6&scene=178#rd] |
+ | *小清爱提问:什么是流形学习?[] | ||
+ | *小清爱提问:机器学习里有哪些回归模型[] | ||
+ | *小清爱提问:机器学习里有哪些分类模型[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486850&idx=1&sn=313502e7f4533d70fc627240df7fc4db&chksm=c3080740f47f8e56dbb88a8f9bdbf4486843b3a6a5b4a6dd31061cbcbca1f5f0f97cfbee87b6&scene=178#rd] | ||
+ | |||
==扩展阅读== | ==扩展阅读== | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
第33行: | 第18行: | ||
− | * 优化方法在线演示 [https://www.benfrederickson.com/numerical-optimization/] | + | * 优化方法在线演示(回归任务演示) [https://www.benfrederickson.com/numerical-optimization/] |
− | * 基于神经网络的二分类任务演示 [https://cs.stanford.edu/people/karpathy/convnetjs/demo/classify2d.html] | + | * 基于神经网络的二分类任务演示 (分类任务演示) [https://cs.stanford.edu/people/karpathy/convnetjs/demo/classify2d.html] |
+ | * | ||
==开发者资源== | ==开发者资源== |
2022年8月3日 (三) 09:26的版本
教学资料
- 教学参考
- 课件
- 小清爱提问:监督学习和无监督学习有什么不同?[]
- 小清爱提问:什么是强化学习?[]
- 小清爱提问:什么是聚类? [1]
- 小清爱提问:什么是流形学习?[]
- 小清爱提问:机器学习里有哪些回归模型[]
- 小清爱提问:机器学习里有哪些分类模型[2]
扩展阅读
演示链接
开发者资源
高级读者
- 王东,机器学习导论,第一章“绪论”,第十一章“优化方法”[5]
- Wolpert, David (1996), "The Lack of A Priori Distinctions between Learning Algorithms", Neural Computation, pp. 1341–1390 [6]
- Sebastian Ruder, An overview of gradient descend algorithms,2017 [7]
- Kirkpatrick, S.; Gelatt Jr, C. D.; Vecchi, M. P. (1983). "Optimization by Simulated Annealing". Science. 220 (4598): 671–680. [8]
- Brown et al., Language Models are Few-Shot Learners [9]