第二十八章 机器作家

来自cslt Wiki
2023年9月25日 (一) 09:14Cslt讨论 | 贡献的版本

(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳转至: 导航搜索

教学资料

扩展阅读

  • AI100问:机器如何写小说? [2]
  • 维基百科:语言模型[3][4]
  • 机器人写的小说入围日本文学奖 由人设定故事梗概 [5]
  • AI续写小说悄然流行:人类特有的创作力,已经被AI复制? [6]
  • 我是如何使用 AI (GPT-2)来写下一部小说的 [7]


视频展示

  • 用彩云小梦写小说 [8]


演示链接

  • 彩云小梦中文小说续写 [9]
  • 小说不停写 (RWKV-RNN) [10]
  • InferKit英文续写 [11]


开发者资源


高级读者

  • 王东,利节,许莎, 《人工智能》,第四章,理解你的语言 [15]
  • Better Language Models and Their Implications [16]
  • GPT-3 Powers the Next Generation of Apps [17]
  • Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018. [18]
  • Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901. [19]
  • Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[J]. OpenAI blog, 2019, 1(8): 9.[]
  • Ethayarajh K. How contextual are contextualized word representations? comparing the geometry of BERT, ELMo, and GPT-2 embeddings[J]. arXiv preprint arXiv:1909.00512, 2019. [20]