Python/torch/深度学习——Softmax与Sigmoid
记录Softmax与Sigmoid之间的区别。
·
Python/torch/深度学习——Softmax与Sigmoid
前言
记录Softmax与Sigmoid之间的区别
Softmax
- 输出结果的概率值(所有结果加和为1)
- 适用于互斥集,只能选择一个类别
Sigmoid
- 输出结果的概率值(所有结果加和不一定为1)
y = 1 / ( 1 + e x p ( − x ) ) y=1/(1+exp(-x)) y=1/(1+exp(−x))
import numpy as np
def sigmoid(x):
return 1/(1 + np.exp(-x))
- 适用于互斥集,可以选择多个类别
- Softmax能用的地方,Sigmoid都能用,反之未必
参考链接

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。
更多推荐
所有评论(0)