jueves, 5 de noviembre de 2009

Redes Neuronales

La Inteligencia Artificial en sus inicios está formada por dos ramas principales que son la simbolica-deductiva y la conexionista:
Simbólica-deductiva: Existen sistemas formales de reglas y manipulación simbólica. Es la rama más conocida de la IA
Conexionista: Inspirada en las redes neuronales biológicas. Métodos Inductivos: a partir de ejemplos.
Ambas tratan de resolver problemas no algorítmicos a partir de la experiencia almacenada como conocimiento
Redes Neuronales Artificiales RNA como Modelo de Computación
Las redes neuronales son procesos de software basados en el comportamiento de las neuronas del cerebro humano, recordemos que el cerebro tiene millones de ellas y que estas se comunican entre sí por medio de impulsos químicos – eléctricos mayormente. A más detalle lo que sucede con las neuronas es que reciben un impulso de otra neurona lo procesan, o comparan con su la función que desempeña la neurona y lo transforma en otro impulso o información, estos impulsos o informaciones se desplazan a lo largo de todo el cerebro que constituye la red de neuronas para el término de software.
Las redes neuronales son utilizadas como una rama de la inteligencia artificial mayormente, para tratar de simular un aprendizaje continuo como lo hace el cerebro humano, que parece tener pasos y mecanismos establecidos para responder o reaccionar de acuerdo a múltiples sensaciones captadas por los órganos sensoriales que tiene provistos todo humano.
Similar al cerebro las RNA se basan en cadenas de funciones llamadas neuronas que contienen algoritmos matemáticos programados para procesar información de entrada asignar valor de aprendizaje y emitir información de salida, sin embargo aún son sumamente simples comparadas con las neuronas biológicas tanto en comportamiento como en composición estructural.
El objetivo de las RNA es tratar de modelar la misma complejidad que ahora establece distancias entre una neurona animal y una artificial. Dicha complejidad comprende el aprendizaje instintivo, el aprendizaje por sensores básicos como el tacto o el más avanzado como el aprendizaje por la vista, el gusto o el oído, hasta llegar al más complejo como el aprendizaje por sentimientos, emociones y hasta inconsciente.

Podemos distinguir las diferencias principales entre las características de Conexionista y Von Neumann
Conexionista
Masivamente paralelo. Datos y programa indiferenciable en las conexiones. Solución inducida por aprendizaje. Impredicibilidad de resultados. Gran tolerancia a fallos.
Von Neumann
Arquitectura secuencial. Separa claramente datos del programa en la memoria. Solución como algoritmo o programa introducido. Resultados totalmente predecibles. No tolera errores.
Las áreas de trabajo de las redes neuronales son:
Procesamiento de Señales. Análisis de Datos. Reconocimiento de Patrones. Control Inteligencia Artificial.
Están basadas en la inspiración biológica. Aquí se trata de “Entender el cerebro y emular su potencia”
En el cerebro humano tenemos:
Gran velocidad de proceso. Tratamiento de grandes cantidades de información procedentes de: Los sentidos, Memoria almacenada.
Capacidad de tratar situaciones nuevas. Capacidad de aprendizaje
En las neuronas artificiales:
Existe un árbol dendrítico de entradas. Hay un axón de salida. Hay Sinapsis sobre de104. Una comunicación mediante Potenciales de Acción (PA). Y un periodo refractario de 10-3 segundos entre PAs



En la transmisión neuronal existe: Impulso eléctrico que viaja por el axón. Liberación de neurotransmisores. Apertura/cierre de canales iónicos. Variación potencial en dendrita. Integración de entradas en soma. Si se supera umbral de disparo se genera un PA



Características de la Red Neuronal Biológica:
de 1010 a 1011 neuronas
1014 sinapsis
Organización por capas
Organización por niveles: Sistema Nervioso Central (SNC), Neuronas, Árboles dendríticos, Sinapsis

Características del Sistema Nervioso Central:
Inclinación a adquirir conocimiento desde la experiencia. Conocimiento almacenado en conexiones sinápticas. Gran plasticidad neuronal. Comportamiento altamente no-lineal. Alta tolerancia a fallos (muerte neuronal). Apto para reconocimiento, percepción y control
Modelado Neuronal
Una red neuronal artificial (RNA) es un sistema de procesamiento de información que tiene ciertas aptitudes en común con las redes neuronales biológicas:
El procesamiento de información ocurre en muchos elementos simples llamados neuronas.
Las señales son transferidas entre neuronas a través de enlaces de conexión.
Cada conexión tiene un peso asociado, el cual, típicamente, multiplica a la señal transmitida.
Cada neurona aplica una función de activación (usualmente no lineal) a su entrada de red (suma de entradas pesadas) para determinar su salida.
Enfoques de las redes neuronales:
Computacional:
Modelos eficientes, potentes y simples. Áreas de aprendizaje inductivo y reconocimiento de patrones.
Cognitivo:
Interesado por capacidades cognitivas de los modelos. Centrados en representación del conocimiento.
Biocognitivo:
Premisa la plausibilidad biológica
Psicofisiológico:
Mecanismos naturales de procesos cognitivos reales
Composición de la neurona artificial:
Grupo de entradas (x); Pesos sinápticos (w); Función suma (net); Función de activación (act); Una única salida (y)
Funcionamiento en modo aprendizaje o ejecución



Neurona Natural vs. Artificial:
Neurona = Unidad de proceso
Conexiones sinápticas = Conexiones Pesadas
Efectividad sináptica = Peso sináptico
Exitatorio/Inhibitorio = Pesos + ó -
Efecto combinado de sinapsis = Función suma
Activación-> Ratio disparo = Función activación -> salida



Arquitecturas Neuronales
Según conexión entre capas. Totalmente conectados (full-conexión); Parcialmente conectados; Conexión uno a uno
Sincronía (actualización de valores). Simultánea; Aleatoria; Según orden topológico
Aprendizaje. Estimulación de la RN por el entorno; Cambios en la RN debido a estimulación; Nueva forma de responder debido a cambios de la estructura interna de la RN.
Paradigmas de aprendizaje: Aprendizaje Supervisado; Aprendizaje por Reforzamiento; Aprendizaje Auto-organizado (No Supervisado); Precalculado o prefijado.
Aprendizaje supervisado: Se presentan pares de patrones de entrada y salida deseada
Pasos:
Fijar pesos aleatorios las conexiones.
Seleccionar par de entrenamiento
Presentar patrón de entrada y calcular salida
Calcular error o discrepancia con la salida deseada
Aplicar regla de aprendizaje
Dudosa plausibilidad biológica:
Requiere propagar información hacia atrás
Requiere de instructor

Aprendizaje no supervizado:
Se presentan sólo patrones de entrada. Basado en la redundancia en las entradas.
Aprendizaje extrae de los patrones:
Familiaridad con patrones típicos o promedios del pasado. Análisis de las Componentes Principales.
Clustering.
Prototipos, correspondientes a las categorías existentes
Mapa de Características

Algoritmos de aprendizaje más comunes:
Perceptrón multicapa o Backpropagation (BPN). Aprendizajes supervisados bajo corrección de error. Mapas Auto-organizados (SOM). Aprendizajes competitivos no supervisados.

Propiedades y Capacidades
Generalización; Estructura altamente paralela; No linealidad; Mapeo de Entrada-Salida Adaptabilidad; Respuesta graduada; Información Contextual; Tolerancia a fallos uniformidad en el Análisis y Diseño; Analogía Neurobiológica; Implementaciones
Medio biológico vs. medio silicio
Velocidad:
Neuronas: 10-3 s., Puertas lógicas: 10-9 s.
Tamaño:
Neuronas 5 ó 6 órdenes de magnitud menores
Eficiencia energética:
Cerebro: 10-16 J/op./s., mejores ordenadores: 10-6
Fan-In:
Promedio de 10.000 sinapsis por neurona, mucho mayor que en silicio

Neuroemuladores:
Software: Flexibles. Económicos
Hardware:
Eficientes

Neurohardware:
VLSI analógico, opto-Electrónicos, FPGAs, Neuro-Chips (VLSI Digital), Neuro-Tarjetas, Biochips,
Objetivo:
Acelerar fases de aprendizaje y ejecución



Tipos de problemas abordables:
Asociación, clasificación de Patrones, predicción, control, aproximación, optimización
En general:
Es difícil describir conocimiento/forma de resolverlos. Se dispone de una gran cantidad de datos.

Problemas de Asociación
NETalk (Sejnowski & Rosemberg):
A partir de textos escritos genera gonemas correspondientes. Mejoras durante aprendizaje.
Tratamiento de imágenes, compresión de imágenes, problemas de Clasificación de Patrones, conteo de células (Clasificación de glóbulos blancos), Inspección visual, Problemas de Predicción, Airline Marketing Tactician (AMT) (Monitoriza y recomienda la reserva de plazas)
Neuralstocks:
Servico de predicciones financieras a corto plazo

Problemas de Control
Control de robots, Cinemática inversa, Conducción de vehículo

Problemas de Aproximación
Aproximación de funciones utilizando RBFs, Problemas de Optimización, Optimización de rutas.

Futuro de las RNAs
Futuro prometedor, si nos seguimos acercando a las característicias de los organismos vivos:
Evolución, Computación Colectiva, Manejo del Conocimiento, ...
Natural Computing => Soft Computing
Presente problemático: dificultades de escalabilidad

En Resumen:
Redes Neuronales, son modelos parecidos a las neuronas biológicas, capaces de aprender y asociar patrones parecidos para afrontar problemas de difícil solución.
La estructura de una Neurona puede verse como la siguiente:

Entradas -> Pesos -> Función Red -> Función Activación -> Salida
Dentritas Impulsos Potencial Unidad de proceso Información


Aprendizaje: Sinapsis o conexión entre las redes. Es la presentación de la información (patrones) y los cambios en los pesos por medio de la regla de aprendizaje.
Supervisado: Se tienen los patrones de entrada y los de salida, se modifican los pesos en la red en función a la salida.
No Supervisado: Solo se tienen los patrones de entrada, la red clasifica esos patrones en función de sus características comunes.
Reforzado: En respuesta a un patrón de entrada solo se le dice si acierta o falla.
Información: Neuronas activas o inactivas
Función de Propagación: Transforma las diferentes entradas de la sinapsis en el potencial de la neurona, normalmente es la suma ponderada de las entradas por los pesos.
Función de Activación: Combina el potencial sináptico con el estado de la neurona para conseguir el estado futuro de activación, puede ser lineal, Escalonada o Hiperbólica.
Función de Salida: Es la función de activación de las neuronas en la red.
Topología: Organización y disposición de las neuronas en la red.
Monocapa: Una sola capa, conexiones laterales
Multicapa: Varias capas ordenadas de entrada a salida, Feed Forward, Feed Back
Tipos de Información: Volátil, son los datos usados y se almacenan en el estado dinámico de la neurona. Información Aprendida, almacenada en los pesos sinápticos.

REFERENCIAS
http://es.wikipedia.org/wiki/Redes_neuronales
http://www.monografias.com/trabajos/redesneuro/redesneuro.shtml
http://www.monografias.com/trabajos12/redneuro/redneuro.shtml
http://www.redes-neuronales.netfirms.com/tutorial-redes-neuronales/tutorial-redes.htm

1 comentario: