“第十三章 学习方法”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
第4行: 第4行:
 
*小清爱提问:监督学习和无监督学习有什么不同?[]
 
*小清爱提问:监督学习和无监督学习有什么不同?[]
 
*小清爱提问:什么是强化学习?[]
 
*小清爱提问:什么是强化学习?[]
 +
 +
==扩展阅读==
 +
 
*小清爱提问:什么是聚类? [https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247487378&idx=1&sn=bd2ec82d7baf0d4c3074f2b09bd678aa&chksm=c3080550f47f8c46308ce16dfe3facff9f9f09482c0da5ceb50c2ed0ba0043e5e3960bbf7df6&scene=178#rd]
 
*小清爱提问:什么是聚类? [https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247487378&idx=1&sn=bd2ec82d7baf0d4c3074f2b09bd678aa&chksm=c3080550f47f8c46308ce16dfe3facff9f9f09482c0da5ceb50c2ed0ba0043e5e3960bbf7df6&scene=178#rd]
 
*小清爱提问:什么是流形学习?[]
 
*小清爱提问:什么是流形学习?[]
第9行: 第12行:
 
*小清爱提问:机器学习里有哪些分类模型[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486850&idx=1&sn=313502e7f4533d70fc627240df7fc4db&chksm=c3080740f47f8e56dbb88a8f9bdbf4486843b3a6a5b4a6dd31061cbcbca1f5f0f97cfbee87b6&scene=178#rd]
 
*小清爱提问:机器学习里有哪些分类模型[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486850&idx=1&sn=313502e7f4533d70fc627240df7fc4db&chksm=c3080740f47f8e56dbb88a8f9bdbf4486843b3a6a5b4a6dd31061cbcbca1f5f0f97cfbee87b6&scene=178#rd]
  
 
+
*UC Berkley的科学家用一小时教会机器人站立、抓取等动作[https://arxiv.org/pdf/2206.14176.pdf][https://danijar.com/project/daydreamer/][http://aigraph.cslt.org/courses/08/DayDreamer.mp4]
 
+
*DeepMind AlphaGo博客[https://www.deepmind.com/research/highlighted-research/alphago]
==扩展阅读==
+
*维基百科: AlphaGo [http://aigraph.cslt.org/courses/13/AlphaGo.pdf][http://aigraph.cslt.org/courses/13/AlphaGo_chs.pdf]
 +
*DeepMind AlphaStar博客[https://www.deepmind.com/blog/alphastar-mastering-the-real-time-strategy-game-starcraft-ii]
 +
*维基百科: AlphaStar[http://aigraph.cslt.org/courses/13/AlphaStar.pdf]
  
  
第26行: 第31行:
 
==高级读者==
 
==高级读者==
  
* 王东,机器学习导论,第一章“绪论”,第十一章“优化方法”[http://mlbook.cslt.org]
+
* 王东,机器学习导论,2021,清华大学出版社 [http://mlbook.cslt.org]
* Wolpert, David (1996), "The Lack of A Priori Distinctions between Learning Algorithms", Neural Computation, pp. 1341–1390 [https://web.archive.org/web/20161220125415/http://www.zabaras.com/Courses/BayesianComputing/Papers/lack_of_a_priori_distinctions_wolpert.pdf]
+
* Sebastian Ruder, An overview of gradient descend algorithms,2017 [https://arxiv.org/pdf/1609.04747.pdf]
+
* Kirkpatrick, S.; Gelatt Jr, C. D.; Vecchi, M. P. (1983). "Optimization by Simulated Annealing". Science. 220 (4598): 671–680. [https://sci2s.ugr.es/sites/default/files/files/Teaching/GraduatesCourses/Metaheuristicas/Bibliography/1983-Science-Kirkpatrick-sim_anneal.pdf]
+
* Brown et al., Language Models are Few-Shot Learners [https://arxiv.org/pdf/2005.14165.pdf]
+

2022年8月3日 (三) 09:58的版本

教学资料

  • 教学参考
  • 课件
  • 小清爱提问:监督学习和无监督学习有什么不同?[]
  • 小清爱提问:什么是强化学习?[]

扩展阅读

  • 小清爱提问:什么是聚类? [1]
  • 小清爱提问:什么是流形学习?[]
  • 小清爱提问:机器学习里有哪些回归模型[]
  • 小清爱提问:机器学习里有哪些分类模型[2]
  • UC Berkley的科学家用一小时教会机器人站立、抓取等动作[3][4][5]
  • DeepMind AlphaGo博客[6]
  • 维基百科: AlphaGo [7][8]
  • DeepMind AlphaStar博客[9]
  • 维基百科: AlphaStar[10]


演示链接

  • 优化方法在线演示(回归任务演示) [11]
  • 基于神经网络的二分类任务演示 (分类任务演示) [12]

开发者资源

高级读者

  • 王东,机器学习导论,2021,清华大学出版社 [13]