“第二十八章 机器作家”版本间的差异
来自cslt Wiki
(以“==教学资料== *教学参考 *[http://aigraph.cslt.org/courses/28/course-28.pptx 课件] *小清爱提问:机器如何写小说? [https://m...”为内容创建页面) |
(没有差异)
|
2022年8月12日 (五) 07:03的版本
教学资料
扩展阅读
- AI100问:机器如何写小说? [2]
- 维基百科:语言模型[3][4]
- 机器人写的小说入围日本文学奖 由人设定故事梗概 [5]
- AI续写小说悄然流行:人类特有的创作力,已经被AI复制? [6]
- 我是如何使用 AI (GPT-2)来写下一部小说的 [7]
视频展示
- 用彩云小梦写小说 [8]
演示链接
开发者资源
高级读者
- 王东,利节,许莎, 《人工智能》,第四章,理解你的语言 [11]
- Better Language Models and Their Implications [12]
- GPT-3 Powers the Next Generation of Apps [13]
- Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018. [14]
- Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901. [15]
- Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[J]. OpenAI blog, 2019, 1(8): 9.[]
- Ethayarajh K. How contextual are contextualized word representations? comparing the geometry of BERT, ELMo, and GPT-2 embeddings[J]. arXiv preprint arXiv:1909.00512, 2019. [16]