dc.description.abstract |
RESUMO: Por conta de sua alta capacidade de generalização, predição e auto-ajuste, as redes neurais
artificiais têm sido amplamente usadas em muitas áreas de pesquisa e mercado. Dentre
essas redes, o perceptron multicamadas ´e uma das mais usadas. Baseado em modelos de
otimização e no algoritmo backpropagation, o Perceptron Multicamadas pode solucionar
qualquer problema que possa ser mapeado em seus sinais de entrada. Entretanto, o processo
de treinamento do Perceptron Multicamadas pode convergir antes de alcançar os valores
ótimos, o que resultaria em um pequeno erro em seu aprendizado. Este trabalho propõe
o uso de modelos de otimização para cálculo do tamanho da taxa de aprendizagem e
determinação de uma direção de descida para tornar o Perceptron Multicamadas mais
preciso, fazendo com que o aprendizado do mesmo se aproxime mais da solução ótima,
diminuindo assim o erro. ABSTRACT: Due to its high ability to generalize, predicting and self-tuning, the artificial neural
networks have been widely used in many research and market areas . Among these
networks, the Multilayer Perceptron is one of the most used. Based on optimization models
and backpropagation algorithm, the Multilayer Perceptron can solve any problem that can
be mapped to it’s input signals. However, the Multilayer Perceptron’s training process may
converge before it reachs the optimums values, that result in a small error in his learning.
This paper proposes the use of optimization models to calculate the size of the rate of
learning and determination of a descent direction to make the Multilayer Perceptron more
accurate, making the learning of it get closer to the optimum solution, reducing the error. |
pt_BR |