全部版块 我的主页
论坛 数据科学与人工智能 人工智能
2110 0
2018-01-29
一般的神经网络大多用ReLu作为激活函数减少梯度消失或爆炸问题。但是很多文献中都说对于autoencoder,最好还是用tanh而不要用ReLu。这是为什么呢?
请大牛不吝赐教。谢谢
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群