enlaces patrocinados

Enciclopedia de Psicología +1500 temas. Precisa tu búsqueda

Redes neuronales y cerebros artificiales



Redes Neuronales y 

Cerebros Artificiales

El verdadero cerebro es una materia blanda. Sus neuronas, vasos 

sanguíneos y ventrículos llenos de líquido están compuestos de lípidos, 

proteínas y una gran parte de agua. Podéis hundir parte del cerebro con 

un dedo, cortarlo con un micrótomo, insertar electrodos en las neuronas 

y ver como la sangre circula a través de él. El estudio del cerebro está

totalmente ligado a la biología y la medicina. Sin embargo, hay otra 

manera de pensar sobre él y que ha atraído la atención de matemáticos, 

físicos, ingenieros e informáticos. Piensan en el cerebro escribiendo 

ecuaciones, creando modelos informáticos e incluso dispositivos de 

hardware que imitan a las verdaderas neuronas dentro de él.

Los cerebros reales son altamente adaptativos. Son capaces de hacer 

cosas tales como leer una escritura que nunca han visto y comprender el

habla de personas que desconocen. Y pueden tolerar cosas que no

funcionan o van mal. Funcionan bastante bien a lo largo de la vida, 

aunque sus células mueran y envejezcan, todavía son capaces de 

aprender cosas nuevas. Los robots actuales son bastante buenos 

haciendo determinadas tareas para las que han sido diseñados, como 

construir una parte de un coche, pero no funcionan cuando algo va mal.

Todos los cerebros reales están compuestos de redes neuronales 

altamente interconectadas. Sus neuronas necesitan energía y las redes 

necesitan espacio. Nuestro cerebro contiene aproximadamente 100

billones de células nerviosas, 3,2 millones de kilómetros de fibras 

"cables", un millón de billones de conexiones y todo ello agrupado en un 

volumen de 1,5 litros, sólo pesa 1,5 Kg. y consume simplemente 10 

Vatios. Si intentamos construir un cerebro similar con chips de silicio, 

consumiría aproximadamente 10 megavatios, suficiente energía apara 

abastecer a una ciudad. Parece empeorar las cosas, el calor que

produciría un cerebro de silicio de tales características le haría fundirse. 

El reto está en descubrir como el cerebro es capaz de funcionar tan 

eficientemente y de una forma tan económica e intentar usar principios 

parecidos para construir máquinas similares al cerebro.

Vuestro cerebro contiene aproximadamente 

100,000,000,000 células nerviosas, 3,200,000 

kilómetros de fibras (cables), con 

1,000,000,000,000,000 de conexiones y todo 

ello agrupado en un volumen de 1,5 litros, sólo 

pesa 1,5 Kg. y sólo consume la misma energía 

eléctrica que una bombilla.

Construyendo circuitos 

cerebrales de silicio

El coste energético de, transmitir señales, comunicarse (de 

una neurona a otra) ha sido probablemente el factor más 

importante en la evolución del cerebro. Aproximadamente, el 

50-80% del consumo total de energía por parte del cerebro es

debido a la conducción de los potenciales de acción a través 

de las fibras y a la transmisión sináptica. El resto es utilizado 

para la producción y mantenimiento. Esto es igualmente cierto 

tanto para el cerebro de una abeja como para el nuestro. Sin 

embargo, cuando comparamos la velocidad de los 

ordenadores actuales, con la velocidad en la transmisión de 

impulsos nerviosos es muy lento, sólo unos cuantos metros 

por segundo. Esto en el procesador de un ordenador haría la 

vida imposible. Los cerebros biológicos, sin embargo, están 

construidos como redes altamente paralelas. La mayoría de 

las neuronas se encuentran conectadas directamente con 

muchos miles de otras. Para ello, el cerebro explota su 

volumen tridimensional en el que puede almacenar todo, 

doblando las capas de células en pliegues y situando las 

conexiones de manera conjunta en paquetes. Por el contrario, 

el establecer conexiones incluso entre un número reducido de 

neuronas de silicio está limitado por la naturaleza 

bidimensional de los chips y circuitos. Por lo que a diferencia

del cerebro, la comunicación directa entre las neuronas de 

silicio está muy restringida. Sin embargo, gracias a la 

posibilidad de explotar la alta velocidad de la electrónica 

convencional, los impulsos de muchas neuronas de silicio se 

pueden multiplicar, un proceso que llevaría múltiples mensajes 

a través del mismo cable. De esta forma, los ingenieros 

informáticos pueden empezar a emular las conexiones de las 

redes biológicas.

Para reducir energía pero aumentar la velocidad, los 

ingenieros inspirados por las neuronas han adoptado la 

estrategia de utilizar una codificación análoga en vez de 

digital. Carver Mead, uno de los gurús de Silicon Valley en 

California, acunó la expresión de "Ingeniería Neuromórfica"

para describir la traducción de neurobiología en tecnología. En 

vez de codificar digitalmente en 0s y 1s, los circuitos análogos 

codifican en continuos cambios de voltaje, como hacen las 

neuronas durante su estado de sub-umbral (ver Capítulo 3). 

Los cálculos pueden, por tanto, realizarse en menos pasos ya 

que se puede explotar mejor la física básica de los dispositivos 

de silicio. La computación análoga a las bases del cálculo: 

suma, substracción, exponenciales e integración, todo ello 

complicados procesos en máquinas digitales. Cuando las 

neuronas, ya sean biológicas o de silicio, computan y toman 

decisiones que transmiten impulsos por los axones para

comunicar la respuesta a las neuronas diana. Como la 

codificación por picos tiene un gran coste energético, la 

codificación eficaz maximiza la información representada en 

un patrón de picos mediante la reducción y es lo que se llama 

redundancia. La eficiencia energética también se aumenta ya 

que se utiliza el menor número posible de neuronas activas. 

Esto es lo que se llama codificación dispersa y proporciona 

otro importante principio de diseño para los ingenieros que 

construyen redes neuronales artificiales.





Un retina de silicio

Se ha creado una versión artificial sencilla de una red biológica gracias 

a la construcción de una retina de silicio que captura la luz que adapta 

su respuesta automáticamente en respuesta a los cambios de 

intensidad luminosa. Está conectada a dos neuronas de silicio, que al 

igual que las neuronas de la corteza visual tiene la función de extraer 

la información sobre los ángulos de líneas y límites de contraste de la 

imagen retiniana.

Las neuronas de este prototipo se llaman neuronas de integración y 

respuesta y son muy utilizadas por los ingenieros neuromórficos. Se 

llaman así porque "suman" los distintos estímulos que reciben, 

codificados como voltajes, que llegan a sus sinapsis y sólo 

desencadenan un potencial de acción si el voltaje alcanza un umbral 

determinado. Las neuronas de silicio están construidas a base de 

transistores, pero en vez de usar los transistores como interruptores e 

inducir una saturación de voltajes, como ocurre en los sistemas 

digitales convencionales, los transistores operan dentro de su gama de 

subumbrales. Dentro de esta gama se comportan como la membrana 

de las neuronas reales. Transistores adicionales pueden proporcionar 

conductancias activas emulando las corrientes dependientes de voltaje 

y tiempo producidas por los canales iónicos reales. Este pequeño 

sistema es sólo un prototipo para sistemas visuales mucho más 

complejos que se están desarrollando actualmente, no obstante, 

permite ilustrar como un estímulo real que puede estar contaminado 

por otras señales puede ser procesado para crear una respuesta 

sencilla. Es capaz de realizar la tarea para la que ha sido diseñado, 

como la orientación de una línea dentro de una escena y los 

neurocientíficos están utilizando este sistema visual de sílice para 

probar equipos y enseñar a estudiantes. Lo más importante de las 

redes artificiales es que son capaces de funcionar en el mundo real, en 

tiempo real y utilizan poca energía.







Redes neuronales artificiales

Las redes neuronales artificiales (RNAs) se utilizan a menudo 

para el estudio del aprendizaje y la memoria. Normalmente son 

como un software en un ordenador digital convencional y consisten 

en un pequeño número de unidades de procesamiento que están 

altamente interconectadas dentro de una red. La forma más sencilla 

de RNA es un asociador de "feedforward", que tiene distintas 

capas de impulsos y de respuestas interconectadas. Una memoria 

asociativa se codifica modificando la fuerza de las conexiones 

establecidas entre las distintas capas de forma que, cuando un tipo 

determinado de impulso se presenta, el patrón asociado 

almacenado con dicho tipo de estímulo se encuentra de forma 

inmediata (ver la ventan del puzzle matemático en la siguiente 

hoja). Una RNA más compleja es la red neuronal recurrente. Ésta 

consiste en una capa simple en donde cada unidad está

interconectada y todas las unidades funcionan como estímulo y 

respuesta. Parece extraño pero este tipo de diseño permite 

almacenar patrones y no sólo pares de elementos. La 

descodificación de este tipo de red autoasociativa se consigue 

gracias a la búsqueda recurrente de un patrón almacenado. Se ha 

demostrado que para una red de 1000 unidades, se pueden 

encontrar aproximadamente 150 patrones antes de que los errores

que aparezcan en su búsqueda sean demasiado grandes.

La similitud entre la RNA y el cerebro se encuentra en la forma en 

que almacenan y procesan la información. El conocimiento que 

procesan se haya dentro de la misma red. No tiene una ubicación 

separada de la memoria tal y como ocurre en los ordenadores 

digitales, en los cuales el procesador aritmético y la memoria están 

separados. En vez de esto, tienen un almacenaje de contenido 

dirigido. En una RNA la información se encuentra almacena en la 

fuerza de las conexiones, de la misma forma que las sinapsis 

cambien su fuerza y/o intensidad durante el aprendizaje. Las redes 

neuronales no están programadas para realizar un proceso 

específico. Cada "neurona", dentro de ella es "muda" y simplemente 

responde con respecto a la suma de la intensidad de los estímulos. 

No obstante pueden ser entrenadas para ser inteligentes. Las 

reglas de aprendizaje que se utilizan para entrenar a las redes 

modifican la intensidad de las conexiones establecidas entre las

neuronas, una de las más comunes es la que toma la respuesta de 

la red a un impulso determinado y lo compara con el patrón 

deseado. Cualquier error en la comparación se utiliza para ajustar 

la intensidad de las conexiones de forma que se pueda conseguir la 

respuesta deseada. De esta forma la red cada vez reduce el error al 

mínimo. Esto parece funcionar, pero lentamente.

Los errores son muy importantes. El aprendizaje es imposible si la 

red no puede cometer errores. Esto es un aspecto del aprendizaje

que puede ser pasado por alto. Las redes excesivamente 

entrenadas que no cometen errores acabaran respondiendo sólo a 

un tipo de estímulos. Estas redes se llaman de forma metafórica 

"sabias" en referencia directa a las míticas "células sabias" del 

cerebro humano que pueden responder pero nunca pueden 

cometer un error. Esto no es muy útil en aplicaciones reales ya que 

cualquier cosa que quisiéramos aprender requeriría una red 

separada. Por el contrario, algo que es muy útil en las RNA es su 

capacidad de generalizar sus respuestas frente a patrones de 

estímulos para los que nunca han sido entrenadas. Son capaces 

de detectar relaciones, asociaciones y descubrir irregularidades en 

los patrones. Pero también se estropean y alteran como los 

cerebros reales. No obstante, pueden ser capaces de encontrar un

patrón almacenado aunque el patrón de estímulo esté contaminado 

o sea incompleto. Estas son propiedades extremadamente 

importantes de los cerebros biológicos que las RNAs pueden hacer 

también.













No hay comentarios:

Publicar un comentario

Tu opinión es la más importante!

Revista Psicología - Temas muy visitados