WebTools
الرئيسية
🧠

Activation Functions

Calculate and visualize neural network activation functions (Sigmoid, tanh, ReLU, etc.).

Function Value Derivative

كيفية الاستخدام

Enter a value of x to calculate each activation function.

  • Sigmoid
  • tanh
  • ReLU / Leaky ReLU
  • Softplus
  • ELU
  • Derivative values

حالات الاستخدام

  • Machine learning study
  • Activation function behavior
  • Function and derivative values
  • Compare function shapes

مشاركة

أدوات ذات صلة