1. 神经网络的搭建原则

在学习和实践深度学习的时候,对于神经网络的搭建过程感觉蛮好奇的。现在主流的框架tensorflow、pytorch等都封了一系列底层模块,搭神经网络有点类似拼积木,embedding、Conv2d、LSTM、Linear组合起来加上各**函数、在确定优化器、损失函数,就组了一个模型出来,那么在设计这个模型的时候是依据什么原则进行规划的呢?

一般我会在NLP分析里加上embedding(用预训练的词向量模型)、卷积(类似于提取n-grams信息)、max_pool(最大池化用的比较多,例如把(4,4)取最大值变成(2,2))、双向结构(正序、倒序提取上下文信息),在时间序列分析中加入循环结构(进行长期记忆),优化器一般就是adma,损失函数采用交叉熵之类,**函数除了tanh之外常用的也用过了,过拟合就塞dropout,剩下的一些就瞎jb搭,看模型结果,再结合一些相关论文改改。

就挺懵的吧。

2. 基础知识

版权声明:本文为匿名原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: