在Python中,我们可以使用NumPy库实现常用的激活函数。以下是一些常见激活函数的示例:
1.  Sigmoid函数
2.  ReLU(Rectified Linear Unit)函数
3.  Leaky ReLU函数
numpy库统计函数4.  双曲正切(Tanh)函数
5.  Softmax函数
函数实现示例:
    import numpy as np
    # Sigmoid激活函数
    def sigmoid(x):
        return 1 / (1 + np.exp(-x))
    # ReLU激活函数
    def relu(x):
        return np.maximum(0, x)
    # Leaky ReLU激活函数
    def leaky_relu(x, alpha=0.01):
        return np.maximum(alpha * x, x)
    # 双曲正切激活函数
    def tanh(x):
        return np.tanh(x)
    # Softmax激活函数
    def softmax(x):
        e_x = np.exp(x - np.max(x)) # 溢出处理
        return e_x / np.sum(e_x, axis=0)
    # 示例输入
    x = np.array([-1, 0, 1])
    # 输出
    print("Sigmoid激活函数输出:", sigmoid(x))
    print("ReLU激活函数输出:", relu(x))
    print("Leaky ReLU激活函数输出:", leaky_relu(x))
    print("双曲正切激活函数输出:", tanh(x))
    print("Softmax激活函数输出:", softmax(x))
请注意,这些实现仅适用于单个样本。 若要将其应用于多个样本,请更改确保保持适当的广播规则。 如果要使用激活函数作为神经网络层的一部分,建议使用深度学习库(如TensorFlow或PyTorch),在这些库中已经实现了这些激活函数。