“Text-2014-08-19”版本间的差异

来自cslt Wiki
跳转至: 导航搜索
(以内容“x”创建新页面)
 
第1行: 第1行:
x
+
QA Research:
 +
  ProMe: 对我们有帮助的地方有:
 +
    1. Question classification 其中需要注意的是question type的定义
 +
    2. Key-Word extraction
 +
  Leveraging social Q&A collections for improving complex question answering: 对我们有帮助的地方有:
 +
    1. Question type classification.
 +
    2. 依据 question type classification 对 answer 做 re-score.
 +
 
 +
QA Develop:
 +
  1. Mean value by using word2vec training question treat as baseline.
 +
  2. 先做分类,再做搜索。
 +
  3. Question 分类 ==> Lucene 40 best (加入 word2vec 策略, 加入 translation 策略(ps:邢超完成)) ==> content 分类 (lasso 精确匹配)
 +
  4. 爬去百度知道的数据
 +
 
 +
晓曦:
 +
  word2vec train 字的vector ==> predict 实体vector (领域可以是公司名称识别)
 +
  王老师提供的思路:
 +
    词的vector 作为baseline
 +
    字的vector <=> 词的vector
 +
              转化为
 +
    选几组词作为测试,看看有没有什么相对靠谱一些的转化思路。
 +
    建议:这周能够使用translation model的结果
 +
 
 +
Knowledge Vector:
 +
  learning cost fuction ==> Link from wiki
 +
                        ==> 正文的over lap程度(相似度)
 +
                            思路:可以用我们之前做过的text vector 辅助 计算相似度
 +
                        ==> 已经结构化好的模块,比如说wiki中的上下位关系等
 +
          Link 的长度以及深度
 +
          子类在某一程度上聚集在父类的周围
 +
 
 +
 
 +
recorded by Chao Xing

2014年8月19日 (二) 15:42的版本

QA Research:

 ProMe: 对我们有帮助的地方有:
   1. Question classification 其中需要注意的是question type的定义
   2. Key-Word extraction
 Leveraging social Q&A collections for improving complex question answering: 对我们有帮助的地方有:
   1. Question type classification.
   2. 依据 question type classification 对 answer 做 re-score.

QA Develop:

 1. Mean value by using word2vec training question treat as baseline.
 2. 先做分类,再做搜索。
 3. Question 分类 ==> Lucene 40 best (加入 word2vec 策略, 加入 translation 策略(ps:邢超完成)) ==> content 分类 (lasso 精确匹配)
 4. 爬去百度知道的数据

晓曦:

 word2vec train 字的vector ==> predict 实体vector (领域可以是公司名称识别)
 王老师提供的思路:
    词的vector 作为baseline
    字的vector <=> 词的vector
              转化为
    选几组词作为测试,看看有没有什么相对靠谱一些的转化思路。
    建议:这周能够使用translation model的结果

Knowledge Vector:

 learning cost fuction ==> Link from wiki
                       ==> 正文的over lap程度(相似度)
                           思路:可以用我们之前做过的text vector 辅助 计算相似度
                       ==> 已经结构化好的模块,比如说wiki中的上下位关系等
          Link 的长度以及深度
          子类在某一程度上聚集在父类的周围


recorded by Chao Xing