热门标签 | HotTags
当前位置:  开发笔记 > 人工智能 > 正文

常用的激活函数总结(Sigmoid函数、Tanh函数、ReLu函数、Softmax函数)

本篇博客主要介绍一下在神经网络中常用的激活函数:主要有以下四类,Sigmoid函数、Tanh函数、ReLu函数和Softmax函数。下面依次介绍:1.Sogmoid函数(Logisti

本篇博客主要介绍一下在神经网络中常用的激活函数:主要有以下四类,Sigmoid函数、Tanh函数、ReLu函数和Softmax函数。

下面依次介绍:
1.Sogmoid函数 (Logistic 函数)
公式: f(z)=11+ez
将实数映射到(0,1),可用来二分类

缺点: 激活函数计算量大
反向传播时,容易出现梯度消失的情况。


这里写图片描述


2.Tanh函数 (双曲正切函数)
公式: f(z)=tanh(z)=ezezez+ez
将实数映射到[-1,1]
双曲正切函数在特征明显的时候效果会更好。


这里写图片描述


3.ReLu函数
公式: ϕ(x)=max(0,x)
优点:收敛速度快
缺点:训练时候很“脆弱”,很容易“die”


这里写图片描述


4.softmax函数 ,用于多分类问题
公式: σ(z)j=ezjki=1ezi
输出每类可能出现的概率大小,和为1


推荐阅读
author-avatar
宝蓝小礼服
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有