“第二十八章 机器作家”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
(以“==教学资料== *教学参考 *[http://aigraph.cslt.org/courses/28/course-28.pptx 课件] *小清爱提问:机器如何写小说? [https://m...”为内容创建页面)
 
第21行: 第21行:
  
 
* 彩云小梦中文小说续写 [https://if.caiyunai.com/]
 
* 彩云小梦中文小说续写 [https://if.caiyunai.com/]
 +
* 小说不停写 (RWKV-RNN) [https://blinkdl.github.io/AI-Writer/]
 
* InferKit英文续写 [https://app.inferkit.com/demo]
 
* InferKit英文续写 [https://app.inferkit.com/demo]
  
第26行: 第27行:
 
==开发者资源==
 
==开发者资源==
  
 +
* AI Writer [https://github.com/BlinkDL/AI-Writer]
 +
* GPT2 Chinese [https://github.com/Morizeyao/GPT2-Chinese][https://www.qbitai.com/2019/08/6581.html]
  
  

2022年8月12日 (五) 07:12的版本

教学资料

扩展阅读

  • AI100问:机器如何写小说? [2]
  • 维基百科:语言模型[3][4]
  • 机器人写的小说入围日本文学奖 由人设定故事梗概 [5]
  • AI续写小说悄然流行:人类特有的创作力,已经被AI复制? [6]
  • 我是如何使用 AI (GPT-2)来写下一部小说的 [7]


视频展示

  • 用彩云小梦写小说 [8]


演示链接

  • 彩云小梦中文小说续写 [9]
  • 小说不停写 (RWKV-RNN) [10]
  • InferKit英文续写 [11]


开发者资源


高级读者

  • 王东,利节,许莎, 《人工智能》,第四章,理解你的语言 [15]
  • Better Language Models and Their Implications [16]
  • GPT-3 Powers the Next Generation of Apps [17]
  • Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018. [18]
  • Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901. [19]
  • Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[J]. OpenAI blog, 2019, 1(8): 9.[]
  • Ethayarajh K. How contextual are contextualized word representations? comparing the geometry of BERT, ELMo, and GPT-2 embeddings[J]. arXiv preprint arXiv:1909.00512, 2019. [20]