“Text-2014-08-19”版本间的差异
来自cslt Wiki
(以内容“x”创建新页面) |
|||
| 第1行: | 第1行: | ||
| − | + | QA Research: | |
| + | ProMe: 对我们有帮助的地方有: | ||
| + | 1. Question classification 其中需要注意的是question type的定义 | ||
| + | 2. Key-Word extraction | ||
| + | Leveraging social Q&A collections for improving complex question answering: 对我们有帮助的地方有: | ||
| + | 1. Question type classification. | ||
| + | 2. 依据 question type classification 对 answer 做 re-score. | ||
| + | |||
| + | QA Develop: | ||
| + | 1. Mean value by using word2vec training question treat as baseline. | ||
| + | 2. 先做分类,再做搜索。 | ||
| + | 3. Question 分类 ==> Lucene 40 best (加入 word2vec 策略, 加入 translation 策略(ps:邢超完成)) ==> content 分类 (lasso 精确匹配) | ||
| + | 4. 爬去百度知道的数据 | ||
| + | |||
| + | 晓曦: | ||
| + | word2vec train 字的vector ==> predict 实体vector (领域可以是公司名称识别) | ||
| + | 王老师提供的思路: | ||
| + | 词的vector 作为baseline | ||
| + | 字的vector <=> 词的vector | ||
| + | 转化为 | ||
| + | 选几组词作为测试,看看有没有什么相对靠谱一些的转化思路。 | ||
| + | 建议:这周能够使用translation model的结果 | ||
| + | |||
| + | Knowledge Vector: | ||
| + | learning cost fuction ==> Link from wiki | ||
| + | ==> 正文的over lap程度(相似度) | ||
| + | 思路:可以用我们之前做过的text vector 辅助 计算相似度 | ||
| + | ==> 已经结构化好的模块,比如说wiki中的上下位关系等 | ||
| + | Link 的长度以及深度 | ||
| + | 子类在某一程度上聚集在父类的周围 | ||
| + | |||
| + | |||
| + | recorded by Chao Xing | ||
2014年8月19日 (二) 15:42的版本
QA Research:
ProMe: 对我们有帮助的地方有: 1. Question classification 其中需要注意的是question type的定义 2. Key-Word extraction Leveraging social Q&A collections for improving complex question answering: 对我们有帮助的地方有: 1. Question type classification. 2. 依据 question type classification 对 answer 做 re-score.
QA Develop:
1. Mean value by using word2vec training question treat as baseline. 2. 先做分类,再做搜索。 3. Question 分类 ==> Lucene 40 best (加入 word2vec 策略, 加入 translation 策略(ps:邢超完成)) ==> content 分类 (lasso 精确匹配) 4. 爬去百度知道的数据
晓曦:
word2vec train 字的vector ==> predict 实体vector (领域可以是公司名称识别)
王老师提供的思路:
词的vector 作为baseline
字的vector <=> 词的vector
转化为
选几组词作为测试,看看有没有什么相对靠谱一些的转化思路。
建议:这周能够使用translation model的结果
Knowledge Vector:
learning cost fuction ==> Link from wiki
==> 正文的over lap程度(相似度)
思路:可以用我们之前做过的text vector 辅助 计算相似度
==> 已经结构化好的模块,比如说wiki中的上下位关系等
Link 的长度以及深度
子类在某一程度上聚集在父类的周围
recorded by Chao Xing