阅读记录

第588章 激活函数,一个故事解释[2/2页]

职场小聪明 翟晓鹰

设置 ×

  • 阅读主题
  • 字体大小A-默认A+
  • 字体颜色
/>  ?
  如果魔力值一般,门会半开半闭(0~1
  之间)。
  比喻:
  这就像一个温和的导师,会根据魔法师的天赋程度,决定“部分晋级”还是“完全晋级”。
  Tanh
  魔法门(Tanh
  激活函数):
  ?
  如果魔力值很高,门会完全打开(1)。
  ?
  如果魔力值很低,门会完全关闭(1)。
  比喻:
  这就像一个双向考核,既允许优秀的魔法师(正值)进入,也允许黑暗魔法师(负值)进入,而普通人(接近
  0)则会被忽略。
  3.
  进入下一层(神经网络的深度学习)
  ?
  通过魔法门的魔法师,进入更高级的学院,学习更强大的魔法(神经网络的下一层学习更复杂的特征)。
  ?
  经过多层考核,最终只有最强的魔法师才能成为大魔导师(AI
  预测出最优结果)。
  比喻:
  这就像深度神经网络,每一层的激活函数确保最重要的信息传递,最终形成智能预测。
  另一种比喻:水闸与激活函数
  想象一个水坝,它控制着水流的流动方式,不同的水闸系统就像不同的激活函数:
  ?
  ReLU
  水闸:只有水位达到一定高度(≥0),水闸才会打开;如果水位太低(负值),水闸就不会开。
  ?
  Sigmoid
  水闸:水闸会根据水位高度,逐渐调整开合程度(类似
  0
  到
  1
  的平滑输出)。
  ?
  Tanh
  水闸:可以控制双向水流,允许正向和负向的水流通过(1
  到
  1)。
  比喻:
  激活函数就像水闸,决定信息如何流动,确保神经网络学习复杂的模式,而不仅仅是线性计算。
  结论:激活函数的关键作用
  它决定哪些信息能传递到下一层,哪些信息被屏蔽。
  它给神经网络带来了“非线性能力”,让
  AI
  解决复杂问题,而不仅仅是简单的加法计算。
  不同的激活函数适用于不同的任务,比如
  ReLU
  适用于深度网络,Sigmoid
  适用于概率预测,Tanh
  适用于情感分析等。
  思考:你觉得在现实生活中,还有哪些场景符合“激活函数”的特点?

第588章 激活函数,一个故事解释[2/2页]