Redes Neuronales y
Cerebros Artificiales
El verdadero cerebro es una materia blanda. Sus neuronas, vasos
sanguíneos y ventrículos llenos de líquido están compuestos de lípidos,
proteínas y una gran parte de agua. Podéis hundir parte del cerebro con
un dedo, cortarlo con un micrótomo, insertar electrodos en las neuronas
y ver como la sangre circula a través de él. El estudio del cerebro está
totalmente ligado a la biología y la medicina. Sin embargo, hay otra
manera de pensar sobre él y que ha atraído la atención de matemáticos,
físicos, ingenieros e informáticos. Piensan en el cerebro escribiendo
ecuaciones, creando modelos informáticos e incluso dispositivos de
hardware que imitan a las verdaderas neuronas dentro de él.
Los cerebros reales son altamente adaptativos. Son capaces de hacer
cosas tales como leer una escritura que nunca han visto y comprender el
habla de personas que desconocen. Y pueden tolerar cosas que no
funcionan o van mal. Funcionan bastante bien a lo largo de la vida,
aunque sus células mueran y envejezcan, todavía son capaces de
aprender cosas nuevas. Los robots actuales son bastante buenos
haciendo determinadas tareas para las que han sido diseñados, como
construir una parte de un coche, pero no funcionan cuando algo va mal.
Todos los cerebros reales están compuestos de redes neuronales
altamente interconectadas. Sus neuronas necesitan energía y las redes
necesitan espacio. Nuestro cerebro contiene aproximadamente 100
billones de células nerviosas, 3,2 millones de kilómetros de fibras
"cables", un millón de billones de conexiones y todo ello agrupado en un
volumen de 1,5 litros, sólo pesa 1,5 Kg. y consume simplemente 10
Vatios. Si intentamos construir un cerebro similar con chips de silicio,
consumiría aproximadamente 10 megavatios, suficiente energía apara
abastecer a una ciudad. Parece empeorar las cosas, el calor que
produciría un cerebro de silicio de tales características le haría fundirse.
El reto está en descubrir como el cerebro es capaz de funcionar tan
eficientemente y de una forma tan económica e intentar usar principios
parecidos para construir máquinas similares al cerebro.
Vuestro cerebro contiene aproximadamente
100,000,000,000 células nerviosas, 3,200,000
kilómetros de fibras (cables), con
1,000,000,000,000,000 de conexiones y todo
ello agrupado en un volumen de 1,5 litros, sólo
pesa 1,5 Kg. y sólo consume la misma energía
eléctrica que una bombilla.
Construyendo circuitos
cerebrales de silicio
El coste energético de, transmitir señales, comunicarse (de
una neurona a otra) ha sido probablemente el factor más
importante en la evolución del cerebro. Aproximadamente, el
50-80% del consumo total de energía por parte del cerebro es
debido a la conducción de los potenciales de acción a través
de las fibras y a la transmisión sináptica. El resto es utilizado
para la producción y mantenimiento. Esto es igualmente cierto
tanto para el cerebro de una abeja como para el nuestro. Sin
embargo, cuando comparamos la velocidad de los
ordenadores actuales, con la velocidad en la transmisión de
impulsos nerviosos es muy lento, sólo unos cuantos metros
por segundo. Esto en el procesador de un ordenador haría la
vida imposible. Los cerebros biológicos, sin embargo, están
construidos como redes altamente paralelas. La mayoría de
las neuronas se encuentran conectadas directamente con
muchos miles de otras. Para ello, el cerebro explota su
volumen tridimensional en el que puede almacenar todo,
doblando las capas de células en pliegues y situando las
conexiones de manera conjunta en paquetes. Por el contrario,
el establecer conexiones incluso entre un número reducido de
neuronas de silicio está limitado por la naturaleza
bidimensional de los chips y circuitos. Por lo que a diferencia
del cerebro, la comunicación directa entre las neuronas de
silicio está muy restringida. Sin embargo, gracias a la
posibilidad de explotar la alta velocidad de la electrónica
convencional, los impulsos de muchas neuronas de silicio se
pueden multiplicar, un proceso que llevaría múltiples mensajes
a través del mismo cable. De esta forma, los ingenieros
informáticos pueden empezar a emular las conexiones de las
redes biológicas.
Para reducir energía pero aumentar la velocidad, los
ingenieros inspirados por las neuronas han adoptado la
estrategia de utilizar una codificación análoga en vez de
digital. Carver Mead, uno de los gurús de Silicon Valley en
California, acunó la expresión de "Ingeniería Neuromórfica"
para describir la traducción de neurobiología en tecnología. En
vez de codificar digitalmente en 0s y 1s, los circuitos análogos
codifican en continuos cambios de voltaje, como hacen las
neuronas durante su estado de sub-umbral (ver Capítulo 3).
Los cálculos pueden, por tanto, realizarse en menos pasos ya
que se puede explotar mejor la física básica de los dispositivos
de silicio. La computación análoga a las bases del cálculo:
suma, substracción, exponenciales e integración, todo ello
complicados procesos en máquinas digitales. Cuando las
neuronas, ya sean biológicas o de silicio, computan y toman
decisiones que transmiten impulsos por los axones para
comunicar la respuesta a las neuronas diana. Como la
codificación por picos tiene un gran coste energético, la
codificación eficaz maximiza la información representada en
un patrón de picos mediante la reducción y es lo que se llama
redundancia. La eficiencia energética también se aumenta ya
que se utiliza el menor número posible de neuronas activas.
Esto es lo que se llama codificación dispersa y proporciona
otro importante principio de diseño para los ingenieros que
construyen redes neuronales artificiales.
Un retina de silicio
Se ha creado una versión artificial sencilla de una red biológica gracias
a la construcción de una retina de silicio que captura la luz que adapta
su respuesta automáticamente en respuesta a los cambios de
intensidad luminosa. Está conectada a dos neuronas de silicio, que al
igual que las neuronas de la corteza visual tiene la función de extraer
la información sobre los ángulos de líneas y límites de contraste de la
imagen retiniana.
Las neuronas de este prototipo se llaman neuronas de integración y
respuesta y son muy utilizadas por los ingenieros neuromórficos. Se
llaman así porque "suman" los distintos estímulos que reciben,
codificados como voltajes, que llegan a sus sinapsis y sólo
desencadenan un potencial de acción si el voltaje alcanza un umbral
determinado. Las neuronas de silicio están construidas a base de
transistores, pero en vez de usar los transistores como interruptores e
inducir una saturación de voltajes, como ocurre en los sistemas
digitales convencionales, los transistores operan dentro de su gama de
subumbrales. Dentro de esta gama se comportan como la membrana
de las neuronas reales. Transistores adicionales pueden proporcionar
conductancias activas emulando las corrientes dependientes de voltaje
y tiempo producidas por los canales iónicos reales. Este pequeño
sistema es sólo un prototipo para sistemas visuales mucho más
complejos que se están desarrollando actualmente, no obstante,
permite ilustrar como un estímulo real que puede estar contaminado
por otras señales puede ser procesado para crear una respuesta
sencilla. Es capaz de realizar la tarea para la que ha sido diseñado,
como la orientación de una línea dentro de una escena y los
neurocientíficos están utilizando este sistema visual de sílice para
probar equipos y enseñar a estudiantes. Lo más importante de las
redes artificiales es que son capaces de funcionar en el mundo real, en
tiempo real y utilizan poca energía.
Redes neuronales artificiales
Las redes neuronales artificiales (RNAs) se utilizan a menudo
para el estudio del aprendizaje y la memoria. Normalmente son
como un software en un ordenador digital convencional y consisten
en un pequeño número de unidades de procesamiento que están
altamente interconectadas dentro de una red. La forma más sencilla
de RNA es un asociador de "feedforward", que tiene distintas
capas de impulsos y de respuestas interconectadas. Una memoria
asociativa se codifica modificando la fuerza de las conexiones
establecidas entre las distintas capas de forma que, cuando un tipo
determinado de impulso se presenta, el patrón asociado
almacenado con dicho tipo de estímulo se encuentra de forma
inmediata (ver la ventan del puzzle matemático en la siguiente
hoja). Una RNA más compleja es la red neuronal recurrente. Ésta
consiste en una capa simple en donde cada unidad está
interconectada y todas las unidades funcionan como estímulo y
respuesta. Parece extraño pero este tipo de diseño permite
almacenar patrones y no sólo pares de elementos. La
descodificación de este tipo de red autoasociativa se consigue
gracias a la búsqueda recurrente de un patrón almacenado. Se ha
demostrado que para una red de 1000 unidades, se pueden
encontrar aproximadamente 150 patrones antes de que los errores
que aparezcan en su búsqueda sean demasiado grandes.
La similitud entre la RNA y el cerebro se encuentra en la forma en
que almacenan y procesan la información. El conocimiento que
procesan se haya dentro de la misma red. No tiene una ubicación
separada de la memoria tal y como ocurre en los ordenadores
digitales, en los cuales el procesador aritmético y la memoria están
separados. En vez de esto, tienen un almacenaje de contenido
dirigido. En una RNA la información se encuentra almacena en la
fuerza de las conexiones, de la misma forma que las sinapsis
cambien su fuerza y/o intensidad durante el aprendizaje. Las redes
neuronales no están programadas para realizar un proceso
específico. Cada "neurona", dentro de ella es "muda" y simplemente
responde con respecto a la suma de la intensidad de los estímulos.
No obstante pueden ser entrenadas para ser inteligentes. Las
reglas de aprendizaje que se utilizan para entrenar a las redes
modifican la intensidad de las conexiones establecidas entre las
neuronas, una de las más comunes es la que toma la respuesta de
la red a un impulso determinado y lo compara con el patrón
deseado. Cualquier error en la comparación se utiliza para ajustar
la intensidad de las conexiones de forma que se pueda conseguir la
respuesta deseada. De esta forma la red cada vez reduce el error al
mínimo. Esto parece funcionar, pero lentamente.
Los errores son muy importantes. El aprendizaje es imposible si la
red no puede cometer errores. Esto es un aspecto del aprendizaje
que puede ser pasado por alto. Las redes excesivamente
entrenadas que no cometen errores acabaran respondiendo sólo a
un tipo de estímulos. Estas redes se llaman de forma metafórica
"sabias" en referencia directa a las míticas "células sabias" del
cerebro humano que pueden responder pero nunca pueden
cometer un error. Esto no es muy útil en aplicaciones reales ya que
cualquier cosa que quisiéramos aprender requeriría una red
separada. Por el contrario, algo que es muy útil en las RNA es su
capacidad de generalizar sus respuestas frente a patrones de
estímulos para los que nunca han sido entrenadas. Son capaces
de detectar relaciones, asociaciones y descubrir irregularidades en
los patrones. Pero también se estropean y alteran como los
cerebros reales. No obstante, pueden ser capaces de encontrar un
patrón almacenado aunque el patrón de estímulo esté contaminado
o sea incompleto. Estas son propiedades extremadamente
importantes de los cerebros biológicos que las RNAs pueden hacer
también.
No hay comentarios:
Publicar un comentario
Tu opinión es la más importante!