Blogia
urdinia

Neuromática

Neuromática

La problemática de buscar un subconjunto de bits dispuestos en una manera concreta dentro de un conjunto dado a priori puede parecer algo sencillo de abordar hasta que hablamos de cantidades importantes de patrones y de datos, o cuando los patrones de búsqueda puede ser infinitos al tratarse de una función de transformación. Cuando buscamos, por ejemplo, una palabra en un documento de texto, tenemos un solo patrón de búsqueda, la palabra en sí; pero cuando buscamos en una foto tomada de la realidad, por ejemplo, algo que se parezca a un jarrón, las posibilidades son infinitas, aun en el caso que conozcamos a la perfección el jarrón. Nuestro cerebro tiene una gran capacidad para realizar esta tarea, no obstante, se confunde en cantidad de veces. Se confunde por la relación entre la Inhibición Latente (IL) de nuestra imaginación con la velocidad de procesar dicha información; que se traduce en una abstracción de la mayoría de las cosas que componen un objeto. En definitiva, comprimimos la información que vemos y distinguimos solo los aspectos más peculiares de los objetos. En el caso del jarrón, en un cerebro con IL normal, tenemos registrada una forma parecida a una pera pero mas grande con una abertura amplia en su parte superior, más bien alargada con decoraciones insignificantes y motivos coloridos sobre un fondo blanco brillante. Por supuesto nuestro cerebro siempre la registra de pie y entera, a no ser que estemos en un trastero o en una excavación arqueológica. ¿Como es capaz nuestro cerebro de hacer algo tan difícil como rastrear una imagen ( lo que vemos ) en décimas de segundo para localizar algo tan variable como lo que acabamos de describir? Un supercomputador tardaría varios minutos en analizar todas las formas de una imagen comparando  las innumerables posibilidades que da esta descripción. Nuestro cerebro no es más rápido que un superordenador así que la respuesta está en que utiliza un algoritmo mucho más eficaz de lo que hasta ahora hemos sido capaces de idear.

Hay muchas personas que no tiene esta capacidad tan evidente; no son capaces, por ejemplo, de identificar en qué parte del campo de fútbol esta transcurriendo una jugada. Esto casi siempre va asociado a una alta Inhibición Latente. En su cerebro están  registrados demasiados detalles (alta IL) y su cerebro tarda tanto en comparar todos esos detalles que no es capaz de procesar la información que recibe que al mismo tiempo es más de la habitual por la ( alta IL ) y se acaba desbordado. A estas personas generalmente no les gusta el fútbol televisado, aunque probablemente sí disfruten del partido en el campo de juego. Los niños suelen tener una alta IL ( algo necesario para el aprendizaje ) y a la mayoría de ellos no les gusta ver un partido por la tele, aunque sí jugarlo. Una baja IL en un niño puede ser preocupante cuando no muestra interés por las cosas ya que eso indicaría que la cantidad de informaciones abstraídas no producen ningún resultado aprovechable, en cambio un niño con baja IL ( gran capacidad de procesar estímulos exteriores abstrayendo detalles no esenciales ) que demuestre interés, emoción o agrado por las cosas aprendidas poseerá un gran potencial intelectual. Entonces, la clave claramente reside en la abstracción de la información registrada. Pero esta abstracción debe haber pasado por un destilador inteligente que ha almacenado sólo los rasgos más importantes que lo definen. Lo más maravilloso de todo este embrollo es la manera en la que almacenos todas las posibles variantes. Nuestras neuronas son pequeños procesadores compuestos de miles de transistores básicos. Realmente su funcionamiento es prácticamente igual, una señal eléctrica estimula una función que activa varias interconexiones con otras neuronas. Son como los transistores internos de un procesador pero con una magnifica diferencia. Nuestras neuronas se pueden reordenar y recomponer formando circuitos lógicos a medida de las necesidades de cada momento. La arquitectura interna, a nivel de registro, de un procesador típico es totalmente estática. Los circuitos lógicos formados por minúsculos transistores están interconectados de una manera concreta e inalterable para que produzcan resultados algorítmicos básicos en uno o en pocos ciclos de reloj. Luego los algoritmos más complejos se dividen en estas operaciones básicas procesándose en cascada, secuencial o recursiva hasta que se obtiene el resultado final. Hace tiempo que se demostró que cualquier algoritmo, por complejo que parezca puede transformarse en un circuito lógico combinacional formado por N transistores básicos. VHDL es un lenguaje de programación de PLDs, que hace algo parecido no obstante no se consume un único ciclo de reloj sino varios para determinados algoritmos ya que el número de transistores que contiene un PLC es limitado.

Nuestro cerebro tiene varias decenas de miles de millones de neuronas compuesta cada una de ellas de entre 10.000 y 100.000 dendritas y otro tantos axones que hacen las funciones de transistores básicos de entrada y salida respectivamente interconectándose con otras neuronas. En total la capacidad de un cerebro humano (con riesgo de quedarme muy corto) podría equivaler a entre 100 Terabits  y 10 Petabits ( 10 mil billones de interconexiones ) Estas neuronas pueden ser destinadas además de a procesar ( como en un procesador de un PC )  a guardar datos ( por ejemplo un número de teléfono), a almacenar algoritmos secuenciales ( por ejemplo un procedimiento de suma ) o a guardar estructuras de circuitos combinacionales de respuesta inmediata o de un sólo ciclo: Procesos de Ciclo Único (PCUs). Lo más interesante de éstos es que están comprimidos de tal manera que en nuestro cerebro pueden almacenarse millones; muchos podemos acabar olvidándolos, borrados por no ser usados  o sustituidos por otros más eficaces.  Miles de estos PCUs están en funcionamiento mientras lees esto, combinados entre sí de tal manera que en un solo ciclo procesemos informaciones que con algoritmos secuenciales podríamos tardar horas.

Cuando necesitamos usar un PCU este se descomprime y se incorpora al área de procesamiento AP; nuestro procesador central. El AP esta formado por tantas neuronas como sean necesarias, generalmente las neuronas que forman el AP son las más activas y a la vez las más protegidas, las neuronas más internas de nuestro encéfalo. Cuando se carga un PCU se transforman las conexiones neuronales (dendritas) de nuestro AP, como superponiendo o agregando funcionalidades a los PCUs ya activos y sacrificando las PCUs menos utilizados. El proceso es el mismo que reprogramar un PLC pero evitando en la medida de lo posible que otras funcionalidades del  PLC se eliminen.

Cuando aprendemos  algo nuevo, realmente lo que hemos conseguido es crear un PCU en nuestro área de procesamiento, en principio comprendemos algo muy abstracto un PCU con funciones muy básicas apoyado en un algoritmo secuencial ( raramente recursivo ), y a medida que lo usamos lo vamos perfeccionando, convirtiéndolo en la medida de lo necesario en un PCU o en una secuencia de ellos. Como ejemplo para ilustrar esto podemos utilizar el proceso de aprendizaje de lectura.  Al principio nos cuesta identificar las letras, luego vamos abstrayendo la información y formamos un PCU que identifique un gran espectro de formas caligráficas. Cualquier cosa que sea curva y no esté completamente cerrada por la derecha la identificamos como una "C"; pero este razonamiento no se produce en nuestro cerebro cuando ya hemos aprendido; existe un PCU ( prácticamente permanente al de unas horas de haber aprendido las letras del abecedario ) que en base a un patrón identifica cada una de las letras que conocemos en un solo ciclo. Realmente, al año de haber comenzado a leer, nuestro cerebro ya ha creado un PCU para identificar cualquier caligrafía de cada una de las 10.000 palabras más habituales de nuestro vocabulario, de tal manera que identificar una palabra nos lleve tan solo un ciclo.

La informática ha estudiado el cerebro para simular la efectividad de su fundamento electro-físico, e incluso de mejorarlo en algunos casos, pero no ha profundizado lo suficiente en su capacidad de flexibilizar su morfología, de alterar la topología de la red de transistores para producir respuestas más rápidas a funciones habituales. Lo más curioso de todo, es que no es una técnica excesivamente complicada y ni mucho menos está lejos del alcance de nuestras capacidades. Eso sí, los riesgos para la humanidad que puede desentrañar una máquina capaz de crecer en inteligencia y efectividad por sí misma ( y por que no, también en capacidad ) son impredecibles y más dignos de argumentos de series fantásticas que de debate.

0 comentarios