Make your own free website on Tripod.com

REDES NEOURONALES ARTIFICIALES

 

¿QUE ES UNA RED NEURONAL ARTIFICIAL?

Las redes neuronales artificiales (RNA) son sistemas paralelos para el procesamiento de la información, inspirados en el modo en el que las redes de neuronas biológicas del cerebro procesan información.

Una red neuronal artificial, según Freman y Skapura, es un sistema de procesadores paralelos conectados entre sí en forma de grafo dirigido.

 

Esquemáticamente cada elemento de procesamiento (neuronas) de la red se representa como un nodo. Estas conexiones establecen una estructura jerárquica que tratando de emular la fisiología del cerebro busca nuevos modelos de procesamiento para solucionar problemas concretos del mundo real.

Las RNA tienen características similares a las del cerebro:

 Estos están compuestos, al igual que el cerebro, por un número muy elevado de elementos básicos (las neuronas), altamente interconectados.

LA ventaja mas importante de las RNAs esta en solucionar problemas que son demasiado complejos para las técnicas convencionales, problemas sin un algoritmo especifico para su solución, o demasiado complejo para ser encontrado.

Las Redes Neuronales Artificiales han sido claramente aceptadas como nuevos sistemas muy eficaces para el tratamiento de la información en muchas disciplinas, que han dado como resultado una variedad de aplicaciones comerciales (productos, servicios).

La posibilidad de resolver problemas difíciles es dable gracias a los principios de las redes neuronales, los cinco principios más importantes(Hilera y Martínez) para resolver problemas son:

 

IMPORTANCIA DE LAS REDES NEURONALES EN LA INDUSTRIA

La importancia de las redes neuronales radica en la utilidad de sus aplicaciones prácticas en contraste a la utilización de otras técnicas.

Las RNAs son una tecnología computacional emergente que puede utilizarse en un gran número y variedad de aplicaciones tanto comerciales como militares.

Se pueden desarrollar redes neuronales en un periodo de tiempo razonable y pueden realizar tareas concretas mejor que otras tecnologías convencionales, incluyendo los sistemas expertos.

Su principal ventaja frente a otras técnicas reside en el procesamiento paralelo, adaptativo y no lineal. Se han desarrollado aplicaciones de RNA para fines tan variados como

Ejemplos de algunas aplicaciones comerciales según distintas disciplinas

AREA

APLICACIONES

Biología

Aprender más acerca del cerebro y otros sistemas

Obtención de modelos de la retina

Empresa

Evaluación de probabilidad de formaciones geológicas y petrolíferas

Identificación de candidatos para posiciones especificas

Explotación de bases de datos

Optimización de plazas y horarios en líneas de vuelo

Reconocimiento de caracteres escritos

Medio ambiente

Analizar tendencias y patrones

Previsión de tiempo

Finanzas

Previsión de la evolución de los precios

Valoración del riesgo de los créditos

Identificación de falsificaciones

Interpretación de firmas

Manufacturación

Robots automatizados y sistemas de control (visión artificial y sensores de presión , temperatura, gas )

Control de producción en líneas de proceso

Inspección de la calidad

Medicina

Analizadores del habla para la ayuda de audición de sordos profundos

Diagnostico y tratamiento a partir de síntomas y/o datos analíticos (electrocardiograma, encefalograma , análisis sanguíneo )

Monitorización en cirugía

Predicción de reacciones adversas en los medicamentos

Lectores de rayos x

Entendimiento de la causa de los ataque epilépticos

Militares

Clasificación de señales de radar

Creación de armas inteligentes

Optimización del uso de recursos escasos

Reconocimiento y seguimiento en el tiro al blanco

 

La mayoría de estas aplicaciones consisten en realizar un reconocimiento de patrones: buscar un patrón, clasificarlo, completar una señal a partir de valores parciales o reconstruir el patrón correcto partiendo de uno distorsionado.

 

A continuación se describen con mas detalle aquellas áreas de aplicación mas importantes para las cuales los computadores neuronales, en general, se están utilizando o pueden ser utilizados y los problemas particulares encontrados en cada una de ellas:

Reconocimiento De Patrones

    1. Sensación remota
    2. Análisis de imágenes medicas
    3. Visión en computadoras industriales especialmente para robots
    4. Elementos de proceso para las entradas en computadoras

    1. Segmentación y clasificación de regiones de imágenes
    2. Reconocimiento de caracteres escritos (manuales y texto impreso)
    3. Reconocimiento del habla
    4. Procesamiento y restauración de imágenes con ruido

    1. Análisis de imágenes (en lo referente a diferentes niveles temáticos de abstracción, tales como monitorización de uso terrestre en las bases de imágenes por satélite).
    2. reconocimiento de imágenes ( interpretación de escenas )
    3. reconocimiento del habla (análisis e interpretación de frases habladas)

 

Control De Robots

Visión Artificial En Robots Industriales

Toma De Decisiones

Filtrado De Señales

Procesamiento De Lenguaje Natural

Aprendizaje De Gramáticas

Compresión De Imágenes

Predicción

Modelado De Sistemas

Problemas De Combinatoria

Servocontrol

Síntesis Funcional

 

 

 

 

PARTES DE UNA RED NEURONAL ARTIFICIAL

 

 

Las redes neuronales son modelos que intentan reproducir el comportamiento del cerebro.

Realiza una simplificación, averiguando cuáles son los elementos relevantes del sistema, bien porque la información disponible es excesiva o es redundante.

Una elección adecuada de sus características, más una estructura conveniente, es el procedimiento convencional utilizado para construir redes capaces de realizar una determinada tarea.

Cualquier modelo de red neuronal consta de dispositivos elementales de proceso: las neuronas.

 La neurona artificial pretende mimetizar las características más importantes de la neurona biológicas.

=

 

 

 

Una función de activación," F ", determina el nuevo estado de activación aj(t+1) de la neurona, teniendo en cuenta la entrada total calculada y el anterior estado de activación aj(t).

 

La dinámica que rige la actualización de los estado de las unidades (evolución de la red neural) puede ser de dos tipos:

 Los sistemas biológicos quedan probablemente entre ambas posibilidades.

 

Unidades de proceso: La neurona artificial

 Si se tiene N unidades (neuronas), podemos ordenarlas arbitrariamente y designar la j-ésima unidad como Uj. Su trabajo es simple y único, y consiste en recibir las entradas de las células vecinas y calcular un valor de salida, el cual es enviado a todas las células restantes.

 En cualquier sistema que se esté modelando, es útil caracterizar tres tipos de unidades: entradas, salidas y ocultas.

Se conoce con capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede ser otra capa de neuronas).

 

Estado de activación

Adicionalmente al conjunto de unidades, la representación necesita los estados del sistema en un tiempo t. Esto se especifica por un vector de N números reales A(t), que representa el estado de activación del conjunto de unidades de procesamiento. Cada elemento del vector representa la activación de una unidad en el tiempo t. La activación de una unidad Ui en el tiempo t se designa por ai(t); es decir:

A(t) =(a1(t), a2(t), ..., ai(t), ..., an(t))

Todas las neuronas que componen la red se hallan en cierto estado. En una visión simplificada, podemos decir que hay dos posibles estados, reposo y excitado, a los que denominaremos globalmente estados de activación, y a cada uno de los cuales se le asigna un valor.

Los valores de activación pueden ser continuos o discretos. Además, pueden ser limitados o ilimitados. Si son discretos, suelen tomar un conjunto pequeño de valores o bien valores binarios. En notación binaria, un estado activo se indicaría por un 1, y se caracteriza por la emisión de un impulso por parte de la neurona (potencial de acción), mientras que un estado pasivo se indicaría por un 0, y significaría que la neurona está en reposo.

  En otros modelos se considera un conjunto continuo de estados de activación, en lugar de sólo dos estados, en cuyo caso se les asigna un valor entre[0,1] o en el intervalo [-1,1], generalmente siguiendo una función sigmoidal.

Finalmente, es necesario saber qué criterios o reglas siguen las neuronas para alcanzar tales estados de activación. En principio, esto va a depender de dos factores:

    1. Por un lado, puesto que las propiedades macroscópicas de las redes neuronales son producto del conjunto como un todo, es necesario tener idea del mecanismo de interacción entre las neuronas. Este estado de activación estará fuertemente influenciado por tales interacciones, ya que el efecto que producirá una neurona sobre otra será proporcional a la fuerza, peso o magnitud de la conexión entre ambas,
    2. Por otro lado, la señal que envía cada una de las neuronas a sus vecinas dependerá de su propio estado de activación.

 

Función de salida o de transferencia

Entre las unidades o neuronas que forman una RNA existe un conjunto de conexiones que las unen. Cada unidad transmite señales a aquellas que están conectadas con su salida.

Asociada con cada unidad U i hay una función de salida fi(ai(t)), que transforma el estado actual de activación ai(t) en una señal de salida yi(t); es decir:

yi(t) = fi(ai(t))

el vector que contiene las salidas de todas las neuronas en un instante t es:

Y(t) =(f1(a1(t)) f2(a2(t)), ..., fi(ai(t)), ..., fN(aN(t)))

En algunos modelos, esta salida es igual al nivel de activación de la unidad, en cuyo caso la función fi es la función identidad, fi(ai(t)) = ai(t). A menudo, fi es de tipo sigmoidal, y suele ser la misma para todas las unidades.

Existen cuatro funciones de transferencia típicas que determinan distintos tipos de neuronas:

Únicamente se utiliza cuando las salidas de la red son binarias. La salida de una neurona se activa sólo cuando el estado de activación es mayor o igual que cierto valor umbral.

Equivale a no aplicar función de salida. Se usa muy poco.

Son las más apropiadas cuando queremos como salida información analógica.

Conexiones entre neuronas

Las conexiones que unen a las neuronas que forman una RNA tienen asociado un peso, que es el que hace que la red adquiera conocimiento.

Consideremos yi como el valor de salida de una neurona i en un instante dado.

Una neurona recibe un conjunto de señales que le dan información del estado de activación de todas las neuronas con las que se encuentra conectada.

Cada conexión (sinapsis) entre la neurona i y la neurona j está ponderada por un peso wij.

Normalmente, como simplificación, se considera que el efecto de cada señal es aditivo, de tal forma que la entrada neta que recibe una neurona (potencial postsináptico) netj es la suma del producto de cada señal individual por el valor de la sinapsis que conecta ambas neuronas:

Esta regla muestra el procedimiento a seguir para combinar los valores de entrada a una unidad con los peso de las conexiones que llegan a esa unidad y es conocida como regla de propagación.

Suele utilizarse una matriz W con todos los pesos wij. W es un conjunto de elementos positivos, negativos o nulos.

Si wij es positivo, indica que la interacción entre las neuronas i y j es excitadora; es decir, siempre que la neurona i esté activada, la neurona j recibirá una señal de i que tenderá a activarla.

Si wji es negativo, la sinapsis será inhibidora. En este caso, si i está activada, enviará una señal a j que tenderá a desactivar a ésta.

Finalmente, si wji = 0, se supone que no hay conexión entre ambas.

 

Función o regla de activación

Así como es necesaria una regla que combine las entradas a una neurona con los pesos de las conexiones, también se requiere una regla que combine las entradas con el estado actual de la neurona para producir un nuevo estado de activación. Esta función F produce un nuevo estado de activación en una neurona a partir del estado (ai) que existía y la combinación de las entradas con los pesos de las conexiones (neti ).

Dado el estado de activación ai(t) de la unidad Ui y la entrada total que llega a ella, Neti , el estado de activación siguiente, ai(t+1), se obtiene aplicando una función F, llamada función de activación.

 

ai(t+1) = F(ai(t), Neti)

En la mayoría de los casos, F es la función identidad, por lo que el estado de activación de una neurona en t+1 coincidirá con el Net de la misma en t. En este caso, el parámetro que se le pasa a la función de salida, f, de la neurona será directamente el Net. El estado de activación anterior no se tiene en cuenta. Según esto, la salida de una neurona i (yi) quedará según la expresión:

 

 

Reglas de aprendizaje

Existen muchas definiciones del concepto general de aprendizaje, una de ellas podría ser: "La modificación del comportamiento inducido por la interacción con el entorno y como resultado de experiencias conducente al establecimiento de nuevos modelos de respuesta a estímulos externos".

Biológicamente, se suele aceptar que la información memorizada en el cerebro está mas relacionada con los valores sinápticos de las conexiones entre las neuronas que con ellas mismas; es decir, el conocimiento se encuentra en las sinapsis.

 En el caso de las redes neuronales artificiales, el conocimiento se encuentra representado en los pesos de las conexiones entre neuronas. Todo proceso de aprendizaje implica cierto número de cambio en estas conexiones. En realidad, puede decirse que se aprende modificando los valores de los pesos de la red.

Al igual que el funcionamiento de una red depende del número de neuronas de las que disponga y de cómo estén conectadas entre sí, cada modelo dispone de su o sus propias técnicas de aprendizaje.