domingo, 21 de noviembre de 2010

PERCEPTRÓN SIMPLE

EL PERCEPTRÓN SIMPLE

• En 1958 el Psicólogo Frank Rosenblatt desarrollo un modelo simple de neurona en el modelo de McCulloch y Pitts y en una regla de aprendizaje basada en la corrección del error.
• Las neuronas de entrada son discretas y la función de activación de las neuronas de la capa de salida es de tipo escalón.
• Dispositivo entrenable: determinar automáticamente los pesos sinápticos que clasifican un conjunto de patrones etiquetados.
• Arquitectura (izquierda) y función de transferencia (derecha ) de un Perceptrón Simple

El Perceptrón Simple tan solo puede discriminar entre dos clases lineales separables
• Ejemplo: x1 y x2 dos neuronas de entrada, la operación efectuada por el Perceptrón Simple consiste en:



REGLA DEL PERCEPTRÓN SIMPLE
• Algoritmo de Aprendizaje (Rosenblatt, 1962)
• Pertenece al grupo de algoritmos fundamentados en la corrección de errores
• Xr conjunto de patrones de entrada, r=1,….,N
• tr conjunto de clases verdaderas de dichos patrones, r=1,…,N
• Variable de entrada como las de salida toman dos posibles valores: -1 y +1
• Actualizacion de Pesos:
o Si ante la presentación del r-enesimo patrón la respuesta que proporciona el Perceptrón simple es correcta, no actualizaremos los pesos.
o Si la respuesta es incorrecta los pesos se modificaran según la regla de Hebb
• Es decir:


Reescrita queda así:

• La actualización de pesos únicamente podrá tomar los valores 2E, 0(cero) y -2E.
• A nivel practico llega a un compromiso para el valor del ritmo de aprendizaje, E
- Valor pequeño implica un aprendizaje lento
- Valor excesivamente grande puede conducir a oscilaciones excesivas de los pesos no aconsejables en el proceso de entrenamiento.



Evoluciones de las regiones de decisión establecidas por el Perceptron Simple.


ALGORITMO PERCEPTRÓNICO
1. Inicialización de las sinapsis de la red(asignar pesos sinápticos a todas las neuronas de la red)
Wij = 0 o valores aleatorios
2. Repetir mientras haya variación de los pesos sinápticos.
• Para cada par de entrenamiento n=1….N
• Wij = 0 o valores aleatorios
• Para j=1…..m1 donde m1 es el numero de neuronas de salida.
• Si la señal de salida esperada, existe un error y se debe adaptar la sinapsis. Según regla:


3. Luego de adaptar la sinapsis se procede a modificar los pesos, se inicia desde el paso 2.
4. El algoritmo se detiene en el momento en el que se consigue la salida deseada.

CARACTERISTICAS
• El proceso de aprendizaje es iterativo.
• Configuración sináptica inicial con pesos pequeños aleatorios.
• Se presentan los patrones una y otra vez, con objeto de que los pesos se ajusten iterativamente según regla del perceptrón.
• Rosenblatt (1962) demostró que:
Si la función a representar es linealmente separable, el algoritmo anterior siempre converge en un tiempo finito y con independencia de los pesos de partida.
Si la función a representar no es linealmente separable, el proceso de entrenamiento oscilará.
• El algoritmo para, cuando consigue clasificar correctamente todos los ejemplos.

IMPORTANCIA
• La importancia del Perceptrón simple radica en el hecho de su carácter entrenable, ya que el algoritmo introducido por Rosenblatt permite que el Perceptrón simple determine automáticamente los pesos sinápticos que clasifican un conjunto de patrones etiquetados.

EJERCICIO COMPUERTA OR

No hay comentarios:

Publicar un comentario