“第三十一章 围棋国手”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
 
(相同用户的一个中间修订版本未显示)
第9行: 第9行:
 
* 围棋的历史典故和发展历史 [https://www.fengyungoschool.com/weiqi/weiqi_story_CHN.htm]
 
* 围棋的历史典故和发展历史 [https://www.fengyungoschool.com/weiqi/weiqi_story_CHN.htm]
 
* 百度百科:中国围棋规则 [https://baike.baidu.com/item/%E4%B8%AD%E5%9B%BD%E5%9B%B4%E6%A3%8B%E8%A7%84%E5%88%99/5425065]
 
* 百度百科:中国围棋规则 [https://baike.baidu.com/item/%E4%B8%AD%E5%9B%BD%E5%9B%B4%E6%A3%8B%E8%A7%84%E5%88%99/5425065]
 +
* 知乎:围棋的简单规则 [https://www.zhihu.com/question/38042128]
 +
 
* AI100问:阿尔法狗和深蓝算法有什么不同? [http://aigraph.cslt.org/ai100/AI-100-30-AlphaGo和深蓝在算法上有什么不同.pdf]
 
* AI100问:阿尔法狗和深蓝算法有什么不同? [http://aigraph.cslt.org/ai100/AI-100-30-AlphaGo和深蓝在算法上有什么不同.pdf]
 
* AI100问:AlphaZero是如何从零学习的? [http://aigraph.cslt.org/ai100/AI-100-54-AlphaGo Zero是如何从零学习的.pdf]
 
* AI100问:AlphaZero是如何从零学习的? [http://aigraph.cslt.org/ai100/AI-100-54-AlphaGo Zero是如何从零学习的.pdf]
第36行: 第38行:
 
==开发者资源==
 
==开发者资源==
  
* BetaGo [https://github.com/maxpumperla/betago]
+
* BetaGo [*][https://github.com/maxpumperla/betago]
* MiniGo [https://github.com/maxpumperla/betago]
+
* MiniGo [*][https://github.com/maxpumperla/betago]
* AlphaZero [https://github.com/suragnair/alpha-zero-general]
+
* AlphaZero [*][https://github.com/suragnair/alpha-zero-general]
* 五子棋 [https://github.com/GuoYi0/alphaFive][https://github.com/junxiaosong/AlphaZero_Gomoku]
+
* 五子棋 [*][https://github.com/GuoYi0/alphaFive][https://github.com/junxiaosong/AlphaZero_Gomoku]
  
  

2023年8月13日 (日) 02:21的最后版本

教学资料

扩展阅读

  • 18个围棋故事 [2]
  • 围棋的历史典故和发展历史 [3]
  • 百度百科:中国围棋规则 [4]
  • 知乎:围棋的简单规则 [5]
  • AI100问:阿尔法狗和深蓝算法有什么不同? [6]
  • AI100问:AlphaZero是如何从零学习的? Zero是如何从零学习的.pdf
  • AI100问:alphago是如何战胜人类的? [7]
  • DeepMind AlphaGO [8]
  • 百度百科:AlphaGo [9]
  • 维基百科:Alpha Go [10][11]
  • 薛永红, 王洪鹏, 机器下棋的历史与启示——从“深蓝”到AlphaZero [12]
  • AlphaGo赢得首场人机对决奇点离人更近了? [13]
  • Reconstructing Turing's "Paper Machine" [14]
  • 李世石神之一手 [15][16][17]


视频展示

  • 图灵的象棋程序[18]
  • Bilibili: 李世石神之一手[19]
  • AlphaGo Movie[20]

演示链接


开发者资源


高级读者

  • Silver D, Schrittwieser J, Simonyan K, et al. Mastering the game of go without human knowledge[J]. nature, 2017, 550(7676): 354-359. [27]
  • Schrittwieser J, Antonoglou I, Hubert T, et al. Mastering atari, go, chess and shogi by planning with a learned model[J]. Nature, 2020, 588(7839): 604-609.[28]