Por favor, use este identificador para citar o enlazar este ítem: http://inaoe.repositorioinstitucional.mx/jspui/handle/1009/423
A high performance hardware architecture for multilayer spiking neural networks
MARCO AURELIO NUÑO MAGANDA
MIGUEL OCTAVIO ARIAS ESTRADA
CESAR TORRES HUITZIL
Acceso Abierto
Atribución-NoComercial-SinDerivadas
Neural net architecture
Reconfigurable architecture
Field programmabel gate arrays
In this work, a hardware architecture for Multilayer Spiking Neural Networks (SNNs) has been developed. Several attempts for implementing Multilayer SNNs have been done, but none of them have explored a hardware implementation and tradeoffs in detail. Spiking Neuron Models (SNMs) have obtained the interest of the computer science researchers due to their potential use as a more biological plausible processing model, which have been tested and successfully applied in several computational tasks, like speech processing, computer vision and robot navigation, with less hardware resources and iterations compared with classical models. In this research the hardware plausibility of SNNs has been demonstrated through the design of a dedicated hardware architecture for emulating a large number of spiking neurons. Dedicated modules have been developed for coding, recall and learning, being the main difference and contribution of this work compared to previously reported works the coding and the learning that has been carried out on a single chip. This implementation scheme reduces the bandwidth required for processing several stages in different hardware processors, and allows the hardware reusing of processing elements. In classical neural networks, a set of input patterns is passed as input to the network, and the network performs the learning by adjusting the weights for adapting the actual network output to the target or desired network output. In multilayer SNNs, three processing stages can be identied. In the rst processing phase, the data coding process is performed. The implemented coding scheme required for multilayer SNNs is the Gaussian Receptive Fields, which maps an input value into a set of ring times. The input ring times obtained by the GRFs are used for feeding the SNN. The main advantage of the GRFs is that they generate a sparse coding for the input values, solving several problems of scale adjusting of other coding schemes. In the second phase, the network output is computed, by evaluating the input ring times using the activation function. Each neuron connection have a set of synaptic terminals. The number of synaptic terminal is xed in compilation time, but the architecture can be extended to support different number of terminals. The output ring time of the current neuron depends on the weights and delays associated to each synaptic terminal. When each neuron generates its own ring time, the neuron remains in an inactivity state.
En esta tesis, se ha desarrollado una arquitectura hardware para redes neuronales pulsantes (SNNs) multicapa. Existen varios intentos para la implementación de este tipo de redes, pero ninguno de éstos ha profundizado en cuanto a la implementación y los compromisos hardware en detalle. Los modelos neuronales pulsantes (SNMs) han atraido el interés de los investigadores en ciencias computacionales, debido a su uso potencial como un modelo de procesamiento más plausible biológicamente, el cual ha sido utilizado exitosamente en diferentes tareas computacionales, como navegación robótica, visión por computadora y reconocimiento del habla, además los SNMs utilizan una cantidad menor de recursos hardware y requieren de una menor cantidad de iteraciones para el procesamiento en comparación, se ha demostrado la plausibilidad en hardware de las SNNs mediante el diseño de una arquitectura hardware dedicada que permita la emulación de una gran cantidad de neuronas pulsantes. Se han implementado módulos dedicados para las fases de codificación, recall y de aprendizaje (learning), siendo la principal diferencia y contribución de este trabajo que la codificación y el aprendizaje son llevados a cabo dentro del chip (on-chip). Este esquema de implementación reduce el ancho de banda requerido para las transferencias de datos entre módulos de procesamiento de diferentes plataformas (PC-FPGA) y permite el reuso de elementos procesadores hardware. En redes neuronales clásicas, un conjunto de patrones son pasados como entrada a una determinada red y la red debe efectuar el aprendizaje mediante el ajuste de los pesos actuales, la salida actual y la salida esperada (o función objetivo). En redes neuronales pulsantes multicapa, se identican tres etapas de procesamiento básico: en la primera etapa, se efectúa la codificación de los datos. El esquema de codificación implementado se denomina campos receptivos gausianos (GRFs), los cuales convierten los datos de entrada (continuos o discretos) en tiempos de disparo de salida. La ventaja de los GRFs consiste en que efectúan una codificación dispersa, la cual evita ciertos problemas de ajuste de escala presentes en otras técnicas de codificación.
Instituto Nacional de Astrofísica, Óptica y Electrónica
2009-10
Tesis de doctorado
Inglés
Estudiantes
Investigadores
Público en general
Nuño-Maganda M.A.
ÓPTICA
Versión aceptada
acceptedVersion - Versión aceptada
Aparece en las colecciones: Doctorado en Ciencias Computacionales

Cargar archivos:


Fichero Tamaño Formato  
NuñoMaMA.pdf3.05 MBAdobe PDFVisualizar/Abrir