添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

实体识别和关系抽取是例如构建知识图谱等上层自然语言处理应用的基础。关系抽取可以简单理解为一个分类问题:给定两个实体和两个实体共同出现的句子文本,判别两个实体之间的关系。

使用CNN或者双向RNN加Attention的深度学习方法被认为是现在关系抽取state of art的解决方案。已有的文献和代码,大都是针对英文语料,使用词向量作为输入进行训练。这里以实践为目的,介绍一个用双向GRU、字与句子的双重Attention模型,以天然适配中文特性的字向量(character embedding)作为输入,网络爬取数据作为训练语料构建的中文关系抽取模型。

代码主要是基于清华的开源项目 thunlp/TensorFlow-NRE 开发,感谢!

双向GRU加 Attention模型

双向GRU加字级别attention的模型想法来自文章 “Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification” [Zhou et al.,2016]。这里将原文的模型结构中的LSTM改为GRU,且对句子中的每一个中文字符输入为character embedding。这样的模型对每一个句子输入做训练,加入字级别的attention。

句子级别attention的想法来自文章 “Neural Relation Extraction with Selective Attention over Instances” [Lin et al.,2016]。原文模型结构图如下,这里将其中对每个句子进行encoding的CNN模块换成上面的双向GRU模型。这样的模型对每一种类别的句子输入做共同训练,加入句子级别的attention。

针对长短时记忆网络(LSTM)不能有效地提取动作前后之间相互关联的信息导致行为 识别 率偏低的问题,提出了一种基于Bi-LSTM- Attention 模型的人体行为 识别 算法。该算法首先从每个视频中提取20帧图像,通过Inceptionv3模型提取图像中的深层特征,然后构建向前和向后的Bi-LSTM神经网络学习特征向量中的时序信息,接着利用注意力机制自适应地感知对 识别 结果有较大影响的网络权重,使模型能够根据行为的前后关系实现更精确的 识别 ,最后通过一层全连接层连接Softmax分类器并对视频进行分类。通过Action Youtobe和KTH人体行为数据集与现有的方法进行比较,实验结果表明,本文算法有效地提高了行为 识别 率。 本文主要讲解:cnn- bigru - attention 对电池寿命进行预测建立cnn- bigru - attention 模型读取数据,将数据截成时序块训练模型,调参,评估模型,保存模型电池寿命数据。 针对所研 究 的 新 冠 肺 炎 新 增 确 诊 人 数 的 预测,鉴于数据集时间跨度大,属于较长时间数据序列,如果能同时利用某日前、后一段时间内的新增确诊人数信息,将会有效提升预测效果。BiGRU 网络结构 如 图1所 示,其 由 输 入 层、前向隐藏层、后向隐藏层和输出层构成。输入层包含输入数据,在每一时刻将数据同时传递给前向隐藏层和后向隐藏层,即数据同时流向两个方向相反的 GRU 网 络,输 出 层 的 输 出 序 列 由 这 两个 GRU 共同决定。 用Bi-GRU和字向量做端到端的中文关系抽取(作者:羊肉泡馍与糖蒜) 原文链接:http://www.crownpku.com//2017/08/19/%E7%94%A8Bi-GRU%E5%92%8C%E5%AD%97%E5%90%91%E9%87%8F%E5%81%9A%E7%AB%AF%E5%88%B0%E7%AB%AF%E7%9A%84%E4%B8%AD%E6%96%87%E5%85%B3%E7%B3%BB%E6%8A%BD%E5%8F%96.html 代码链接:https://git BiGRU 在单向的神经网络结构中,状态总是从前往后输出的。然而,在文本情感分类中,如果当前时刻的输出能与前一时刻的状态和后一时刻的状态都产生联系。如对这样一个句子进行选词 填空 The sea water in the deep sea is so____ that the sun does not shine.通过在 The sea water in the deep sea 和 the s... BiGRU - Attention 模型训练方法 本文 BiGRU - Attention 模型以 IMDB 数据集、预设参数和 迭代次数 N 为输入,经过文本向量化输入层把 IMDB 数据集处理词向量的形式,利用 BiGRU - Attention 模型对 IMDB 数据集进行分类。 算法 BiGRU - Attention 神经网络的文本情感分类算法 输入: IMDB 数据集、预设参数、迭代次数 N。 输出... 提出了一种基于 Attention 机制的卷积神经网络(convolutional neural network,CNN)-GRU (gated recurrent unit)短期电力负荷 预测方法,该方法将历史负荷数据作为输入,搭建由一维卷 积层和池化层等组成的 CNN 架构,提取反映负荷复杂动态变 化的高维特征;将所提特征向量构造为时间序列形式作为 GRU 网络的输入,建模学习特征内部动态变化规律,并引入 Attention 机制通过映射加权和学习参数矩阵赋予 GRU 隐含 [-0.058550 0.125846 -0.083195 0.031818 -0.183519…], —>’,’ [0.087197 -0.083435 0.057956 0.143120 -0.000068…], ---->‘的’ 每一行都是一个词的向量,最后两行是随机生成的正态分布数据,对应下面的UNK和BLA... 传统情感分析模型中最重要的两个模型是卷积神经网络(CNN)模型和循环神经网络(RNN)模型,其中CNN只能提取文本局部信息,RNN容易陷入梯度爆炸问题。针对上述问题,提出一种将CNN与双层双向门控循环单元( BIGRU )相结合的方法,该方法结合了CNN能够提取局部特征和双层 BIGRU 能够提取上下文语义并加强特征信息的优点。此外,在情感分析文本中经常会存在语言上的不规范性,影响文本提取的准确性。针对该问题,提出在原先的词向量计算模型中引入 Attention 机制来聚焦文本的重要信息。 先上结论: output保存了最后一层,每个time step的输出h,如果是双向LSTM,每个time step的输出h = [h正向, h逆向] (同一个time step的正向和逆向的h连接起来)。 h_n保存了每一层,最后一个time step的输出h,如果是双向LSTM,单独保存前向和后向的最后一个time step的输出h。 c_n与h_n一致,只是它保存的是c的值。 详细请见连... 文本分类是NLP的必备入门任务,在搜索、推荐、对话等场景中随处可见,并有情感分析、新闻分类、标签分类等成熟的研究分支和数据集。本文主要介绍深度学习文本分类的常用模型原理、优缺点以及技巧,是...