“第三十一章 围棋国手”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
 
(相同用户的6个中间修订版本未显示)
第5行: 第5行:
  
 
==扩展阅读==
 
==扩展阅读==
 +
 +
* 18个围棋故事 [https://www.sohu.com/a/329680063_495640]
 +
* 围棋的历史典故和发展历史 [https://www.fengyungoschool.com/weiqi/weiqi_story_CHN.htm]
 +
* 百度百科:中国围棋规则 [https://baike.baidu.com/item/%E4%B8%AD%E5%9B%BD%E5%9B%B4%E6%A3%8B%E8%A7%84%E5%88%99/5425065]
 +
* 知乎:围棋的简单规则 [https://www.zhihu.com/question/38042128]
  
 
* AI100问:阿尔法狗和深蓝算法有什么不同? [http://aigraph.cslt.org/ai100/AI-100-30-AlphaGo和深蓝在算法上有什么不同.pdf]
 
* AI100问:阿尔法狗和深蓝算法有什么不同? [http://aigraph.cslt.org/ai100/AI-100-30-AlphaGo和深蓝在算法上有什么不同.pdf]
第23行: 第28行:
 
* 图灵的象棋程序[http://aigraph.cslt.org/courses/31/Turing-chess.mp4]
 
* 图灵的象棋程序[http://aigraph.cslt.org/courses/31/Turing-chess.mp4]
 
* Bilibili: 李世石神之一手[https://www.bilibili.com/video/BV1Qs411Q7oJ/]
 
* Bilibili: 李世石神之一手[https://www.bilibili.com/video/BV1Qs411Q7oJ/]
 +
* AlphaGo Movie[http://aigraph.cslt.org/courses/31/alphago-movie.mp4]
  
 
==演示链接==
 
==演示链接==
  
*  
+
 
 +
* Gomoku [https://gomoku.yjyao.com/]
 +
 
  
 
==开发者资源==
 
==开发者资源==
  
*  
+
* BetaGo [*][https://github.com/maxpumperla/betago]
*  
+
* MiniGo [*][https://github.com/maxpumperla/betago]
 +
* AlphaZero [*][https://github.com/suragnair/alpha-zero-general]
 +
* 五子棋 [*][https://github.com/GuoYi0/alphaFive][https://github.com/junxiaosong/AlphaZero_Gomoku]
 +
 
 +
 
  
 
==高级读者==
 
==高级读者==

2023年8月13日 (日) 02:21的最后版本

教学资料

扩展阅读

  • 18个围棋故事 [2]
  • 围棋的历史典故和发展历史 [3]
  • 百度百科:中国围棋规则 [4]
  • 知乎:围棋的简单规则 [5]
  • AI100问:阿尔法狗和深蓝算法有什么不同? [6]
  • AI100问:AlphaZero是如何从零学习的? Zero是如何从零学习的.pdf
  • AI100问:alphago是如何战胜人类的? [7]
  • DeepMind AlphaGO [8]
  • 百度百科:AlphaGo [9]
  • 维基百科:Alpha Go [10][11]
  • 薛永红, 王洪鹏, 机器下棋的历史与启示——从“深蓝”到AlphaZero [12]
  • AlphaGo赢得首场人机对决奇点离人更近了? [13]
  • Reconstructing Turing's "Paper Machine" [14]
  • 李世石神之一手 [15][16][17]


视频展示

  • 图灵的象棋程序[18]
  • Bilibili: 李世石神之一手[19]
  • AlphaGo Movie[20]

演示链接


开发者资源


高级读者

  • Silver D, Schrittwieser J, Simonyan K, et al. Mastering the game of go without human knowledge[J]. nature, 2017, 550(7676): 354-359. [27]
  • Schrittwieser J, Antonoglou I, Hubert T, et al. Mastering atari, go, chess and shogi by planning with a learned model[J]. Nature, 2020, 588(7839): 604-609.[28]