Funciones de activación para la capa oculta#

  • Ultima modificación: 2023-03-11 | YouTube

  • Son las funciones que se aplican a la entrada neta de las capas ocultas.

  • Son responsables de la capacidad no lineal del MLP.

  • Son funciones monotonicas crecientes.

  • Las funciones de activación implementadas en sklearn son:

    • 'tanh': g(u) = \tanh(u)

    • 'logistic': 1 / [1 + \exp(-x)]

    • 'relu': \max (0, x)

assets/fig1.png


[2]:
def fig1():

    import matplotlib.pyplot as plt
    import numpy as np

    x = np.linspace(-6, 6)

    plt.figure(figsize=(10, 3.5))

    plt.subplot(1, 3, 1)
    plt.plot(x, np.tanh(x))

    plt.subplot(1, 3, 2)
    plt.plot(x, 1 / (1 + np.exp(-x)))

    plt.subplot(1, 3, 3)
    plt.plot(x, np.where(x < 0, 0, x))
    plt.savefig('assets/fig1.png')
    plt.close()

## fig1()