Taller rna
Transcript of Taller rna
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Fundamentos de las Redes Neuronales Artificiales
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Elementos de una Red Neuronal Artificial
1. Unidades de Proceso: La neurona artificial
2. Estado de activación3. Conexión entre neuronas4. Función o regla de activación5. Función de salida o de
transferencia6. Regla de Aprendizaje
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Unidades de Proceso: La neurona artificialSi se tienen N unidades (neuronas), podemos
ordenarlas arbitrariamente y designar la j-ésima unidad como Uj.
Su trabajo es simple y único, y consiste en escribir las entradas de las células vecinas y calcular un valor de salida el cual es enviado a todas las células restantes.
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Estado de activaciónCada elemento del conjunto de unidades
(neuronas) tiene asociado un valor que representa la activación de la unidad en un tiempo t.
La activación de la unidad Ui en el tiempo t se designa por ai(t) y al vector de N números reales como A(t).
A(t) = (a1(t), a2(t), … , ai(t), …., aN(t) )
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Función de salida o de transferencia…Entre las neuronas que forman una Red Neuronal existe
un conjunto de conexiones que unen unas con otras. Cada unidad transmite señales a aquellas que están conectadas a su salida.
Asociada a cada unidad Ui hay una función de salida fi(ai(t)) que transforma el estado actual de activación ai(t) en una señal de salida yi; es decir:
yi=fi(ai(t))
Y(t) = (f1 ( a1(t)), f2( a2(t)), … , fi(ai(t)), …., fN(aN(t)) )
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Función de salida o de transferencia…
Existen cuatro funciones de transferencia típicas que determinan distintos tipos de neuronas:
Función escalón Función lineal y mixta
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Función de salida o de transferencia…
Existen cuatro funciones de transferencia típicas que determinan distintos tipos de neuronas:
Función sigmoidal Función gaussiana
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Conexión entre neuronas (regla de propagación)Las conexiones entre neuronas tienes asociado un peso. Sea yi el valor de salida de una neurona i en un instante dado. Cada conexión (sinapsis) entre la neurona i y la neurona j está ponderada por un peso wij.
La entrada neta que recibe una neurona netj es la suma del producto de cada señal individual por el valor de la sinapsis que conecta ambas neuronas.
N
iiijj ywnet
1
.
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Función o regla de activación
Así como es necesario una regla que combine las entradas a una neurona con los pesos de las conexiones, también es necesario una regla que combine las entradas con el estado actual de la neurona para producir un nuevo estado de activación.
))(.()()1(
1
N
jjijii tywfNetfty
)),(()1( iii NettaFta
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Regla de Aprendizaje
Biológicamente, se acepta que la información memorizada en el cerebro está más relacionada con los valores sinápticos de las conexiones entre las neuronas que con ellas mismas.
En las redes neuronales artificiales, se puede considerar que el conocimiento se encuentra representado en los pesos de las conexiones entre neuronas.
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Estructura de una Red Neuronal Artificial
Niveles o capas de neuronasFormas de conexión entre neuronas
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Niveles o capas de neuronas
a) Conexiones hacia adelante (feedforward)b) Conexiones lateralesc) Conexiones hacia atrás o recurrentes (feedforward / feedback)
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Formas de conexión entre neuronas
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Topología de las Redes Neuronales
Redes MonocapaRedes Multicapa Redes con conexiones hacia adelante (feedforward) Redes con conexiones hacia adelante y hacia atrás (feedforward/feedback)
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Mecanismo de Aprendizaje
Redes con aprendizaje supervisado Aprendizaje por corrección de error Aprendizaje por refuerzo Aprendizaje estocásticoRedes con aprendizaje no supervisado Aprendizaje hebbiano Aprendizaje competitivo y cooperativo
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Tipo de Asociación entre las informaciones de Entrada y Salida
Redes heteroasociativasRedes Autoasociativas
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
El Perceptron
Nombre: Perceptrón
Topología Feedforward (Alimentación hacia delante)
Capas de neuronas 1 capa de entrada
1 capa de salida
Tipo de valores de
entrada
Binario
Función de Activación Hard limiter
Método de Aprendizaje Supervisado
Algoritmo de
Aprendizaje
Regla de Aprendizaje de Hebb
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
El Perceptron Multinivel
Nombre: Perceptrón Multicapas (Multilayer).
Topología Feedforward (Alimentación hacia delante)
Capas de neuronas 1 capa de entrada
1 o más capas ocultas
1 capa de salida
Tipo de valores de entrada Binario
Función de Activación Hard limiter, sigmoide
Método de Aprendizaje Supervisado
Algoritmo de Aprendizaje Regla de Aprendizaje Delta, Backpropagation.
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Redes Adaline y Madaline
Suma ponderada de las entradas. Wo indica el umbral.
La red ADALINE se puede utilizar para generar una salida analógica utilizando un conmutador sigmoidal, en lugar de binario; en tal caso, la salida y se obtendrá aplicando una función tipo sigmoidal, como la tangente hiperbólica (tanh(s)) o la exponencial (1/1+ ).
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
La Red Backpropagation
Redes heteroasociativasRedes Autoasociativas
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
La Red de Hopfield
Redes heteroasociativasRedes Autoasociativas
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Modelo de Resonancia Adaptativa (ART)
Redes heteroasociativasRedes Autoasociativas
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
El Modelo de Kohonen
Redes heteroasociativasRedes Autoasociativas
Universidad Juárez Autónoma de TabascoDivisión Académica de Ciencias Biológicas
Redes Neuronales Artificiales
Redes Neuronales y Lógica Borrosa
Redes heteroasociativasRedes Autoasociativas
Listado de Software de Redes Neuronales
Rochester Connectionist Simulator (implementa el algoritmo backpropagation)NeurDsPlaNet5.7GENESIS (implementa el algoritmo backpropagation)Cascade Correlation SimulatorQuickProp (variación del algoritmo backpropagation)Aspirin/MIGRAINESNeuronalShellXerionNeocognitron SimulatorMulti-Module Neuronal Computing Environment (MUME)LVQ_PAK, SOM_PAK.SESAMENevada BackpropagationFuzzy ARTmapPYGMALION (implementa el algoritmo backpropagation)Matriz Backpropagation (implementa el algoritmo backpropagation)WinNNBIOSIMThe BrainFuNeGen 1.0NeuDL- Neuronal Network Description LanguageNeoC Explorer (implementación de Fukushima´s Neocognitron)SNNSv4.2.Win32-binSprinN 2.5xdemo32TeruelTiberius