“第十二章 机器学习基本流程”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
第2行: 第2行:
 
*[[教学参考-12|教学参考]]
 
*[[教学参考-12|教学参考]]
 
*[http://aigraph.cslt.org/courses/12/course-12.pptx 课件]
 
*[http://aigraph.cslt.org/courses/12/course-12.pptx 课件]
*小清爱提问:人工智能与机器学习是什么关系? [https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486822&idx=1&sn=026419f790745317c8af3acf058d20b0&chksm=c30807a4f47f8eb29aa997c03626f895ff39be8caf460c22685023c1e276b7149efaa84eeaeb&scene=178#rd]
+
*小清爱提问:什么是爬山法?[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486886&idx=1&sn=a9959dfb953fd7383589236676d6bb08&chksm=c3080764f47f8e72809d3502ecdd0da6940d680fc9ecb0423f7aeec504bcb83026cdb544a11a&scene=178#rd]
 +
*小清爱提问:什么是模拟退火算法?[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486965&idx=1&sn=30da3c422773f7cb530eb6047d91b30e&chksm=c3080737f47f8e21802ca8650d8a39d434102f09ef9693b8041f4c24f8888f7d5c1c5a6fc05c&scene=178#rd]
 +
*小清爱提问:什么是奥卡姆剃刀准则? [https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247486241&idx=1&sn=328b83f1c63103ffff86b1d38c3ac048&chksm=c30801e3f47f88f539f0e68f4cfc5a1e8a46e861ea0f2c732ed370530c4996e40b49a2ee6da6&scene=178#rd]
 +
*小清爱提问:为什么说数据是人工智能的粮食?[https://mp.weixin.qq.com/s?__biz=Mzk0NjIzMzI2MQ==&mid=2247485586&idx=1&sn=1892fe37396e19e57b1728604402e186&chksm=c3080250f47f8b46a9b96f88739e3c698b89fd24d90c1b2cad41fa9a3fb4956abc5306a5c7b5&scene=178#rd]
 +
 
  
  
 
==扩展阅读==
 
==扩展阅读==
 
* 维基百科:学习[http://aigraph.cslt.org/courses/11/Learning.pdf][http://aigraph.cslt.org/courses/11/学习.pdf]
 
* 维基百科:机器学习[http://aigraph.cslt.org/courses/11/机器学习.pdf][http://aigraph.cslt.org/courses/11/Machine_learning.pdf]
 
* 维基百科:亚瑟•塞缪尔 [http://aigraph.cslt.org/courses/11/Arthur_Samuel.pdf]
 
* 百度百科:机器学习[https://baike.baidu.com/item/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/217599]
 
* 植物也学习 [https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5133544/]
 
  
  
 
==演示链接==
 
==演示链接==
  
* 线性回归 [https://www.geogebra.org/m/AuRrgqNV]
+
 
  
  
 
==开发者资源==
 
==开发者资源==
  
* Linear regression python code [https://www.geeksforgeeks.org/linear-regression-python-implementation/]
+
 
  
 
==高级读者==
 
==高级读者==
* Arthur Samuel, Some studies in machine learning using the game of checkers, IBM Journal of Research and Development. 44: 206–226. doi:10.1147/rd.441.0206. [https://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.368.2254]
+
 
* 知乎(化简可得):用人话讲明白线性回归LinearRegression [https://zhuanlan.zhihu.com/p/72513104]
+
 
* 百度百科:线性回归[https://baike.baidu.com/item/%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92/8190345]
+
* 王东,机器学习导论,第一章“绪论”[http://mlbook.cslt.org]
* 王东,机器学习导论,第一章“绪论”,第二章“线性模型”[http://mlbook.cslt.org]
+

2022年8月2日 (二) 11:31的版本

教学资料

  • 教学参考
  • 课件
  • 小清爱提问:什么是爬山法?[1]
  • 小清爱提问:什么是模拟退火算法?[2]
  • 小清爱提问:什么是奥卡姆剃刀准则? [3]
  • 小清爱提问:为什么说数据是人工智能的粮食?[4]


扩展阅读

演示链接

开发者资源

高级读者

  • 王东,机器学习导论,第一章“绪论”[5]