|
|
| 第1行: |
第1行: |
| − | QA Research:
| |
| − | ProMe: 对我们有帮助的地方有:
| |
| − | 1. Question classification 其中需要注意的是question type的定义
| |
| − | 2. Key-Word extraction
| |
| − | Leveraging social Q&A collections for improving complex question answering: 对我们有帮助的地方有:
| |
| − | 1. Question type classification.
| |
| − | 2. 依据 question type classification 对 answer 做 re-score.
| |
| | | | |
| − | QA Develop:
| |
| − | 1. Mean value by using word2vec training question treat as baseline.
| |
| − | 2. 先做分类,再做搜索。
| |
| − | 3. Question 分类 ==> Lucene 40 best (加入 word2vec 策略, 加入 translation 策略(ps:邢超完成)) ==> content 分类 (lasso 精确匹配)
| |
| − | 4. 爬去百度知道的数据
| |
| | | | |
| − | 晓曦:
| |
| − | word2vec train 字的vector ==> predict 实体vector (领域可以是公司名称识别)
| |
| − | 王老师提供的思路:
| |
| − | 词的vector 作为baseline
| |
| − | 字的vector <=> 词的vector
| |
| − | 转化为
| |
| − | 选几组词作为测试,看看有没有什么相对靠谱一些的转化思路。
| |
| − | 建议:这周能够使用translation model的结果
| |
| | | | |
| − | Knowledge Vector:
| + | recorded by Rong Liu |
| − | learning cost fuction ==> Link from wiki
| + | |
| − | ==> 正文的over lap程度(相似度)
| + | |
| − | 思路:可以用我们之前做过的text vector 辅助 计算相似度
| + | |
| − | ==> 已经结构化好的模块,比如说wiki中的上下位关系等
| + | |
| − | Link 的长度以及深度
| + | |
| − | 子类在某一程度上聚集在父类的周围
| + | |
| − | | + | |
| − | | + | |
| − | recorded by Chao Xing | + | |