Redes Neurais fully conected (Totalmente Conectadas)
UFPE
Um MLP ou Rede Neural fully conected de uma camada oculta com \(h\) neurônios na camada oculta pode ser representada por \(\mathbf{H} \in \mathbb{R}^{n \times h}\), em que \(\mathbf{H}\) também é conhecido como uma variável de camada oculta ou uma variável oculta.
Uma vez que as camadas ocultas e de saída estão totalmente conectadas, temos pesos de camada oculta \(\mathbf{W}^{(1)} \in \mathbb{R}^{d \times h}\) e viés \(\mathbf{b}^{(1)} \in \mathbb{R}^{1 \times h}\) e pesos da camada de saída \(\mathbf{W}^{(2)} \in \mathbb{R}^{h \times q}\) com viés \(\mathbf{b}^{(2)} \in \mathbb{R}^{1 \times q}\), sendo \(q\) a dimensão de saída, por exemplo, em um problema de classificação é a quantidade de classes, em um problema de regressão \(q = 1\).
em que \(\sigma(\cdot)\) é a função de ativação e \(\mathbf{X} \in \mathbb{R}^{n \times d}\) é matriz de valores de entrada com \(n\) observações e \(d\) variáveis (features).
Podemos ter em geral 3 tipos de saídas de uma rede neural fully conected:
Classificação Binária: utiliza-se a função sigmóide como função de ativação na última camada e a função de perda entropia cruzada.
Classificação Multiclasse: utiliza-se a função softmax como função de ativação na última camada e a função de perda entropia cruzada.
Regressão: utiliza-se a função identidade como função de ativação na última camada e a função de perda erro quadrático médio (MSE).
Vamos ter uma aula para falar sobre funções de erro, mas como foi mencionado anteriormente e vamos utilizar posteriormente em python, vamos entender um breve conceito sobre cada um deles:
Vamos executar cada um deles no python
BRAGA, A. P.; CARVALHO, A.; LUDEMIR, T. Redes Neurais Artificiais: Teoria e Aplicações. .: [s.n.], 2000.
HOPFWELD, J. J. Neural networks and physical systems with emergent collective computational abilities. Proc. NatL Acad. Sci., v. 79, p. 2554–2558, 1982.
LUDWIG, O.; MONTGOMERY, E. Redes Neurais - Fundamentos e Aplicações com Programas em C. .: Ciência Moderna, 2007.
MINSKY, M.; PAPERT, S. Perceptrons: an introduction to computationational geometry. [S.l.]: MIT Press, 1969.
PINHEIRO, C. A. R. Inteligência Analítica: Mineração de Dados e Descoberta de Conhecimento. .: [s.n.], 2008.
RICH, E.; KNIGHT, K. Inteligência Artificial. .: [s.n.], 1993.
ROSENBLATT, F. Principles of Neurodynamics: Perceptrons and Theory of Brain Mechanisms. .: Washigton, DC, 1962.
OBRIGADO!
Slide produzido com quarto
Redes Neurais - Prof. Jodavid Ferreira