ro's blog


  • Home

  • About

  • Tags

  • Categories

  • Archives

学习笔记——词嵌入(Word Embedding)

Posted on 2017-08-23 | In 学习笔记 |

词汇表征方式——从one-hot到词嵌入

one-hot表征

1个单词对应向量中的1个位置,比如一个有1w个单词的词典中每个词需要由10000x1的向量表示,该单词对应的位置的元素为1,其余位置为0。
例如单词a在词典中的位置为1,则其表征向量为\([1\;0\;0\;0… 0]^T\)

one-hot的缺点:

  • 任意两个词之间的乘积都为0,无法表示词汇间的关系,对相关词的泛化能力不强
  • 维度太高,计算压力大
  • 向量过于稀疏
Read more »

《Attention Is All You Need》

Posted on 2017-06-25 | In Papers |

arxiv
Google
2017.06

主要工作

  • 提出基于 attention 机制的 Transformer 网络架构
Read more »

学习笔记——BOW、TF-IDF 与 VSM

Posted on 2017-05-18 | In 学习笔记 |

BOW

Bag-of-Words(BOW),又叫词袋模型,用于文档特征表示。

BOW 忽略文本的语法和语序,用一组无序的单词来表示这段文本。即 BOW 不会保留单词在句子里的顺序/位置信息。

Read more »

学习笔记——决策树(Decision Tree)

Posted on 2017-03-20 | In 学习笔记 |

基本算法

以递归的形式生成一个树

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
#输入训练集D和属性集A
def TreeGenerate(D, A):
node = generate_node() #生成节点

if D.all() in types[C]: #如果D中所有节点都属于类别C
node.type = ('leaf', C) #将node标记为C类叶节点

if A.empty() or D.all().A.same(): #如果A为空集或者D中样本在A上取值相同
C = D.type.most() #类别C为D中样本数最多的类别
node.type = ('leaf', C) #将node标记为C类叶节点

a = best_divide(A) #从A中选择出最优划分属性a
for a_val in a: #遍历最优划分a的所有值
d = D.find(a.val = a_val) #找到D中所有属性a的值等于a_val的样本
if d.empty():
child = generate_node(father = node) #生成node的分支节点
C = D.type.most() #类别C为D中样本数最多的类别
child.type = ('leaf', C) #将child标记为C类叶节点
else:
child = TreeGenerate(d, A\a) #递归获得child
child.father = node #将child作为node的分支节点

return node

Read more »

学习笔记——分类器性能度量标准

Posted on 2017-03-08 | In 学习笔记 |

混淆矩阵

正类 负类
预测为正 TP(真正) FP(假正)
预测为负 FN(假负) TN(真负)
  • TP(真正): 将正类预测为正类数
  • FP(假正): 将负类预测为正类数(误报,Type I error)
  • TN(真负): 将负类预测为负类数
  • FN(假负): 将正类预测为负类数(漏报,Type II error)
Read more »

《Dynamic Memory Networks for Visual and Textual Question Answering》

Posted on 2017-02-26 | In Papers |

arxiv
Salesforce
2016.03

主要工作

  • 改进 Dynamic Memory Networks(DMN),提出 DMN+ 模型
  • DMN+ 模型在 VQA 数据集和 bAbI-10k 数据集(无 supporting fact 监督)上都达到了 state-of-the-art

DMN 的结果并不好的情况:

  • supporting facts 在训练的时候没有被 marked(无监督?)
  • 实用诸如图片等其他形式的数据
Read more »

《Ask Me Anything: Dynamic Memory Networks for Natural Language Processing》

Posted on 2017-02-25 | In Papers |

arxiv
MetaMind
2015.06

主要工作

  • 提出 dynamic memory network(DMN),DMN 能进行端到端训练,并且在 bAbI、Stanford Sentiment Treebank、WSJ-PTB 上获得了 state-of-the-art 的结果
Read more »

《Towards AI-Complete Question Answering: A Set of Prerequisite Toy Tasks》

Posted on 2017-02-22 | In Papers |

arxiv
Facebook AI
2015.02

主要工作

  • 构建数据集 bAbI-tasks 使用 QA 的方式评估阅读理解能力

dataset:babi
source:bAbI-tasks

Read more »

学习笔记——hits@n

Posted on 2017-02-20 | In 学习笔记 |

最近在论文里看到 hits@1 matric 作为评价标准(《Key-Value Memory Networks for Directly Reading Documents》),于是查了查这是什么。

hits@n 就等同于 Top-n,也就是模型预测出来的概率最高的 n 个答案里有真实答案就算是预测正确了。

Read more »

《Key-Value Memory Networks for Directly Reading Documents》

Posted on 2017-02-20 | In Papers |

arxiv
Facebook AI
2016.06

主要工作

  • 提出 Key-Value Memory Networks(KV-MemNNs)架构
  • 构建 QA 数据集 WikiMovies
Read more »
1234

rocuku

I know nothing except the fact of my ignorance

36 posts
6 categories
35 tags
GitHub E-Mail
「I know nothing except the fact of my ignorance.」
© 2016 — 2019 rocuku
Powered by Hexo
|
Theme — NexT.Mist v6.0.6