“第十一章 基于学习的AI”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
高级读者
第27行: 第27行:
 
* 知乎(化简可得):用人话讲明白线性回归LinearRegression [https://zhuanlan.zhihu.com/p/72513104]
 
* 知乎(化简可得):用人话讲明白线性回归LinearRegression [https://zhuanlan.zhihu.com/p/72513104]
 
* 百度百科:线性回归[https://baike.baidu.com/item/%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92/8190345]
 
* 百度百科:线性回归[https://baike.baidu.com/item/%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92/8190345]
* 王东,机器学习导论,第二章“线性模型”[http://mlbook.cslt.org]
+
* 王东,机器学习导论,第一章“绪论”,第二章“线性模型”[http://mlbook.cslt.org]

2022年8月2日 (二) 09:10的版本

教学资料


扩展阅读

  • 维基百科:学习[2][3]
  • 维基百科:机器学习[4][5]
  • 维基百科:亚瑟•塞缪尔 [6]
  • 百度百科:机器学习[7]
  • 植物也学习 [8]


演示链接

  • 线性回归 [9]


开发者资源

  • Linear regression python code [10]

高级读者

  • Arthur Samuel, Some studies in machine learning using the game of checkers, IBM Journal of Research and Development. 44: 206–226. doi:10.1147/rd.441.0206. [11]
  • 知乎(化简可得):用人话讲明白线性回归LinearRegression [12]
  • 百度百科:线性回归[13]
  • 王东,机器学习导论,第一章“绪论”,第二章“线性模型”[14]