博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
神经网络建模的一些感悟;
阅读量:6148 次
发布时间:2019-06-21

本文共 1367 字,大约阅读时间需要 4 分钟。

2016/10/6
1: 用自定义的weighted loss来看, 10000个batch仍然没有收敛;
2:仍然使用sigmoid cross entropy loss, 7 epoches 左右仍然收敛,对于7w数据;
3:改动loss, 避免nan loss的出现;
 
2016/12/6
1: 用lstm做classfication, 思路是将问题和答案各自转换成一个1000维向量,softmax作为1000个主题的概率,然后算点积和,最大化点积和的情况是两个属于同一个主题的概率最大;failed.
2: 用weighted lstm,思想是不用lstm的最终向量,而是用每个词的output向量,根据单词的weight来做加权平均作为最终的向量; failed. 
     结果证明同时训练单词的weight和用weighted average lstm中间向量,结果还不如直接用lstm的最终output;
     NAN loss极有可能是分母为0所导致的;
 
2017/1/12 
1: 用normalize的方法将word embedding正规化,
     一般而言,tf提供了两种主流的方法,一种是L2的方法,就是将每个维度的数平方加起来等于1, 一种是local normalize的方法,分别搜索tf.nn.l2_normalize 和tf.nn.local_response_normalization。
     另外,tf提供了很多的算矩的方法,可以根据矩(均值和方差)来做normalize,见tf.nn.moments
 
2: 对于lstm output用cnn的思考
     2.1:lstm output的话,对于一个句子,output的向量维度是[batch size, sentence length, rnn dimension, 2]
     (最后的一个2是因为采用的是bi-directional rnn,所以有两个值),
      所用的convolution方法是在sentence length的维度上取三个单词,在rnn dimension上取所有的长度,然后取256个channels,
     这样输出的向量就是[batch size, sentence length, 1, 256]. 然后relu处理(对所有的点取max(x, 0)),最后在sentence length的维度上maxpool;
     2.2 : 这里主要有几个问题
          1: sentence length取得是150, 但是其中包含了大量的填充,可能真实句子就只有15个词汇,剩下135全是填充词汇;
          2: rnn dimension上的不同维度代表不同的相对意义,但是线性的结合起来是否不合理?
 
3: 因为实际的训练数据可能存在一定的bad case;因此每次训练一个batch,抛出top 5%最高的的loss;
 
2017/1/23
 经过两天的训练,发现lstm_cnn模型最后收敛到了0.693147,这个数值代表所有的预测概率值都是0.5,有时候真的不是模型复杂最后结果好的;总结一句就是数据简单就上简单模型,数据复杂就试试增大模型体量,增加层数和参数数量;
 
 

转载于:https://www.cnblogs.com/LarryGates/p/6561470.html

你可能感兴趣的文章
11月门户网站日均覆盖数TOP10:央视网升至第六
查看>>
10月第4周全球域名商新增注册量十五强:易名中国夺冠
查看>>
CSS3新增属性text-shadow详解及燃烧的字体实战开发
查看>>
ELKB5.2.2集群环境部署及优化终极文档
查看>>
我的友情链接
查看>>
php 过滤html标签和转义html标签过滤
查看>>
Linux torrent Transmission BT下载
查看>>
解决JS浮点数(小数)运算出现Bug的方法
查看>>
AI在闲鱼测试实践:如何应用AI技术通过图片找bug
查看>>
万豪数据泄漏门再敲警钟 酒店集团7步安全建议
查看>>
我的友情链接
查看>>
Oracle 11g数据库使用pl/sql developer进行数据导入与导出
查看>>
文件加密软件大全
查看>>
yum -y upgrade 和 yum -y update 区别
查看>>
Android项目依赖乱象之Gradle循环依赖
查看>>
cocos2d-x3.2 内存管理
查看>>
Hadoop上路_12-MapReduce流程演示
查看>>
JAVA Convert C#之语法
查看>>
Vagrant使用小结
查看>>
jstl 笔记
查看>>