Considere a Rede Neural MLP abaixo, em que:

  1. Entradas (círculos verdes): Dados de entrada.
  2. Pesos (linhas com rótulos w1, w2, …, w10): Valores que ajustam a conexão entre neurônios.
  3. Camada oculta (círculos azuis): Neurônios intermediários que processam as entradas.
  4. Vieses (círculos cinzas com b1, b2, b3, b4, b5): Parâmetros que ajudam a ajustar a saída dos neurônios.
  5. Saída (círculo vermelho): Resultado final da rede neural.

  1. Considere os dados abaixo e e faça uma iteração do backpropagation, analisando o erro final e utilizando a função sigmoide.

Função de ativação sigmoide: \(F(\nu) = 1 / (1 + e^{-\nu})\)

Considere os seguintes valores iniciais para entrada, saída, pesos e viéses:

Resultado:

Abaixo seguem os valores dos pesos atualizados:


  1. Refaça uma primeira iteração do Backpropagation utilizando os dados anteriores, entretanto, agora utilizando a função de ativação ReLU nas camadas ocultas e a função linear na camada de saída. Considere nesse caso os dados abaixo:

Resultado:

Abaixo seguem os valores dos pesos atualizados: