Python/torch/深度学习——Softmax与Sigmoid



前言

记录Softmax与Sigmoid之间的区别


Softmax

  • 输出结果的概率值(所有结果加和为1)
  • 适用于互斥集,只能选择一个类别

Sigmoid

  • 输出结果的概率值(所有结果加和不一定为1)
    y = 1 / ( 1 + e x p ( − x ) ) y=1/(1+exp(-x)) y=1/(1+exp(x))
 import numpy as np


 def sigmoid(x):
    return 1/(1 + np.exp(-x))
  • 适用于互斥集,可以选择多个类别
  • Softmax能用的地方,Sigmoid都能用,反之未必

参考链接

softmax和sigmod的区别与分析
三分钟认知Softmax和Sigmoid的详细区别

Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐