De organismos electrónicos y computadoras biológicas

miracleNEUROCIENCIA COMPUTACIONAL ¿Qué es la neurociencia cognitiva?

La NEUROCIENCIA COMPUTACIONAL es una ciencia interdisciplinar que enlaza los diversos campos de la neurociencia, la ciencia cognitiva, la ingeniería eléctrica, las ciencias de la computación, la física y las matemáticas. El término fue introducido por Eric L. Schwartz en una conferencia de 1985.

Es una joven subdisciplina científica que estudia las bases neuronales de la cognición. El termino fue acuñado por el neurocientífico Michael Gazzaniga y por el psicólogo cognitivo George A. Miller en los 70. Esta disciplina se nutre de la interacción de tres disciplinas científicas: la neurociencia, la psicología cognitiva y las ciencias de la computación (especialmente la inteligencia artificial).

LA VIDA COMO UN MECANISMO DE RETROALIMENTACION NEGATIVA

La idea de que la lógica y la razón de las que tanto se había enorgullecido el hombre moderno pudieran ser reducidas a series de operaciones mecánicas –y, por lo tanto, capaces de ser llevadas a cabo por organismos no humanos, especialmente por máquinas– maravilló a algunos, enfureció a otros y aterrorizó a unos cuantos. Desde la obra futurista R.U.R., con la que en 1920 el escritor checo Karel Capek lanzara al mundo la palabra “robot” (que en su idioma significa “trabajo duro”) hasta las “predicciones” del físico Stephen Hawking, la gran pregunta pasó a ser cuándo estaría la tecnología en condiciones de generar formas de vida “superiores” a las existentes y, en tal caso, cuándo serían éstas capaces de dominar al género humano (como si la voluntad de dominio fuera inherente a la vida misma o a las hipotéticas formas “más evolucionadas” de pensamiento).

Tecnología y biología: ¿quién copió a quién?

Tecnología y biología: ¿quién copió a quién? La mezcla de la nanotecnología, las neurociencias y la supercomputación ha provocado el desarrollo del campo de la inteligencia artificial.

“El rótulo de cerebros electrónicos aplicado a las nuevas máquinas refleja quizá la admiración y reverencia que inspiran”, escribía Wladislaw Sluckin en un antológico ensayo de divulgación –La cibernética (cerebros y máquinas)– publicado en 1953, el año en que Franklin, Watson y Crick (la dama primero, aunque no haya sido acreedora al Nobel) descubrieron la estructura del ADN. La revolución informática recién comenzaba, y Sluckin probablemente aún no se imaginaba los cambios que vendrían cuando la noción de código genético habilitara a considerar los procesos que rigen la vida como series de operaciones en última instancia muy sencillas: transcripción, adición, multiplicación, corrección de errores por azar, “factoreo” de proteínas.

Al paradigma central de la biología se le añadió definitivamente el término “molecular”, y tanto aquellos aventureros obsesionados por describir y clasificar –los “naturalistas”– como los ratones de laboratorio debieron hacerles lugar dentro de la disciplina cada vez a más físicos y matemáticos.

Uno de éstos, que en la década de 1990 se transformó en biólogo molecular en la Universidad del Sur de California, relató la perplejidad que lo embargó cuando le describieron el funcionamiento de la ADN-polimerasa. Esta enzima recorre a lo largo la hebra de ADN, reconociendo cada una de sus bases y armando paralelamente, dígito por dígito, una cadena exactamente complementaria que permitirá la copia fiel de ese material genético “escaneado”. Matemático e informático y no aún biólogo, Leonard Adleman no podía creer el parecido entre ese mecanismo y el funcionamiento de la Máquina Universal de Turing, el artificio teórico con el que el taciturno matemático inglés Alan Turing (1912-1954) definió en 1936 la noción de cómputo e inauguró, quizá sin saberlo, la era informática. La máquina de Turing era eso: un dispositivo capaz de leer datos codificados de una cinta (unos y ceros) y, en función de ellos y de una secuencia ordenada de pasos lógicos prefijada (el programa), imprimir unos y ceros (variables de salida) en otra cinta, y desplazarla un lugar hacia la izquierda o hacia la derecha. Esa máquina –había demostrado Turing– podía mecanizar, sin importar el tiempo que le llevara, cualquier operación regida por la lógica, que es, en última instancia, la más sencilla de las disciplinas, ya que consiste en acatar los hechos más sencillos y primarios sin intervención de la creatividad, es decir, de procedimientos no-lógicos o tan complicados que no puedan ser reducidos a una secuencia finita de acciones más simples. Y así también la vida quedó transformada en un conglomerado extremadamente complejo de cómputos, de acontecimientos que, en definitiva, son tremendamente sencillos: “Para un reduccionista estricto –escribió Adleman en un artículo que publicó en la Scientific American, y no aclara si él se considera o no a sí mismo un ‘reduccionista estricto’– la vida es la reproducción del ADN por medio de la ADN polimerasa”.

En el sitio de Internet asignado por la IBM para SyNAPSE, aparece una retórica para los internautas visitantes: “Nuevas maneras de pensar: ¿Puede una computadora ser fabricada para pensar como los humanos? Los principios de la computación cognitiva dicen que sí”.

En el sitio de Internet asignado por la IBM para SyNAPSE, aparece una retórica para los internautas visitantes: “Nuevas maneras de pensar: ¿Puede una computadora ser fabricada para pensar como los humanos? Los principios de la computación cognitiva dicen que sí”.

EL PRINCIPIO DE TODOS LOS PRINCIPIOS

La inteligencia artificial llevó a revisitar otro mecanismo que técnicos e ingenieros conocían desde la Antigüedad, que de repente pareció transformarse en una herramienta todopoderosa: el de la retroalimentación o feedback, y especialmente el de la retroalimentación negativa.

En él se basó William Grey Walter, científico del Burden Neurological Institute de Bristol (Inglaterra), para crear sus “organismos” electromecánicos, antes de la Segunda Guerra. Las famosas “tortugas de Grey Walter” podían analizar las condiciones del ambiente y migrar automáticamente a donde éstas fueran más favorables, y los autómatas que creó en homenaje a Iván Pavlov poseían “reflejos condicionados”: aprendían a responder adecuadamente ante determinados estímulos, e incluso ante otras señales que simplemente les “recordaran” esos estímulos.

Tecnología y biología: ¿quién copió a quién? Grey Walter, por ejemplo, era neurofisiólogo y operaba con idéntica pericia organismos vivos y dispositivos no vivientes: perfeccionó el electroencefalógrafo, estudió las ondas cerebrales alfa, descubrió señales interruptoras en el sistema nervioso y diseñó un sistema para direccionar misiles. El y otros científicos –también en el Instituto de Tecnología de Massachusetts se estaban desarrollando simultáneamente organismos artificiales– entendieron que el principio de retroalimentación negativa, en el que se basaban todos los sistemas de control mecánicos, era análogo, en términos lógicos, al método de “ensayo y error” que regía gran parte de la conducta animal.

Los primeros sistemas de control o servomecanismos de los que se tiene noticia fueron los creados en la vieja Alejandría por Ktesibios (285 a.C.-222 a.C.) para los relojes de agua. Ingenieros griegos en la Antigüedad y árabes en el Medioevo desarrollaron otros artificios hidráulicos autorregulados, y durante la Revolución Industrial alcanzaron su punto culminante, pero el modelo más simple de este tipo de máquinas es el flotador de cualquier tanque de agua. Al ingresar en éste el líquido (estímulo o variable de entrada), sube el nivel (respuesta o variable de salida). Si se coloca una boya que al llegar al nivel máximo estipulado accione un obturador que corte la entrada de agua para que el tanque no rebase, se habrá implementado el más sencillo de los mecanismos inteligentes: mediante un procedimiento absolutamente lógico y sin intervención humana, controla la variable de entrada en función de la variable de salida. Si el nivel es adecuado, permite que el recipiente siga llenándose; si llega al límite, interrumpe el funcionamiento.

Este mecanismo de retroalimentación negativa –donde existe alguna forma de reenvío de información hacia la entrada para que el sistema se autorregule– es la base de todos los servomecanismos, pero también de cualquier dispositivo capaz de tomar decisiones en función de determinadas variables. Cuando se empezó a descubrir cuán presente estaba este principio en diversos fenómenos de la naturaleza, resurgió la pregunta de quién inspiró a quién. “Las máquinas que quizá más nos impresionan –escribía Sluckin– no son aquellas meramente capaces de llevar a cabo cálculos complejos, sino más bien aquellas otras que trabajan en una forma que recuerda de manera asombrosa al comportamiento animal o humano.”

HOMEOSTASIS: conjunto de mecanismos que hace que los organismos vivos puedan mantener su medio interno relativamente estable y diferenciado del medioambiente.
 

RETROALIMENTARSE ES VIVIR

El concepto de feedback o “retorno” de la comunicación en la ciencia social norteamericana de los años ’20 y hasta la idea del aprendizaje mediante asimilación y acomodación en base al desequilibrio, formulada por Jean Piaget, son otros ejemplos de la aplicación del principio de retroalimentación negativa en otras ciencias. Pero mucho antes, el médico, filósofo, lógico, biólogo y pionero de la psicología experimental Rudolf Lotze (1817-1881) intuyó que este principio mecánico permitiría eximir a los biólogos de seguir pensando los conceptos mismos de vida y de mente, que tantos dolores de cabeza venía dando.

Lotze echó leña al fuego de la eterna disputa que los mecanicistas sostenían contra los vitalistas, quienes a grandes rasgos defendían el axioma de que un ser vivo –y como tal un ser humano, que era lo importante de discutir– es un cuerpo obediente a las leyes de la física y la química, más otra cosa de naturaleza diferente: spiritus animalis según Galeno y René Descartes, élan vital según Henri Bergson, la voluntad según Arthur Schopenhauer. Cuanto más se descubría, las concepciones de raíz mecanicista iban desterrando de las ciencias al ancestral y mítico “soplo vital”, y para esa época los vitalistas quedaban cada vez más arrinconados dentro del campo de la filosofía teórica, mientras perdían espacio en las nuevas ciencias.

Uno de los últimos teóricos importantes del vitalismo dentro de la ciencia experimental –y a quien la informática terminó dándole el tiro de gracia– fue el psicólogo inglés William McDougall (1871-1938), férreo opositor a la tradición conductista de sus colegas británicos, que básicamente reducían toda la psicología a encadenamientos entre estímulos y respuestas.

McDougall estableció la “Teoría de la Horma”, que decía que la conducta animada por una finalidad (es decir, inspirada por la vida) era radicalmente diferente de la acción mecánica del tipo “estímulo-respuesta”. Y aunque no pudo definir qué clase de fenómeno sería en sí la vida, expuso un conjunto de siete rasgos que en su teoría conformaban la “horma” que diferenciaba a las acciones “animadas por la vida” (teleológicas) de las puramente mecánicas: la capacidad de movimiento, la persistencia en una actividad con independencia de la causa que la generó, la variación de la dirección de los movimientos persistentes, la capacidad de finalizarlos, el poder prepararse para una acción futura, el mejorar con la práctica y, por último, la unidad de acción, porque la acción dirigida a un fin involucra a todo el organismo.

Pero la nueva biología iría dando por tierra con cada uno de los postulados de esta “Teoría de la Horma”. En 1928, en Harvard, Walter Cannon describió por primera vez la homeostasis, el conjunto de mecanismos que hace que los organismos vivos puedan mantener su medio interno relativamente estable y diferenciado del medioambiente, y habilitó con eso una suerte de “tercera posición”: no definía qué es eso que se encuentra en la materia viva y la distingue de la materia inerte. Cannon les daba la razón a los mecanicistas al afirmar que, a los fines de ser estudiada, cada función orgánica –y las del sistema nervioso entre ellas– puede ser reducida a una serie de fenómenos físicos y químicos discretos y perfectamente delimitables y que, fuera de eso, no hay ser sino más bien la nada. Pero les dejaba lugar a los vitalistas al afirmar que, sin embargo, en el organismo vivo la totalidad nunca es igual sólo a la suma de las partes, porque al actuar las funciones en conjunto se producen nuevos fenómenos que son irreductibles a la lógica de funcionamiento de cada parte considerada por separado. Las matemáticas no funcionan en los procesos propios de la vida: una tortuga no es un lagarto más un caparazón, así como un hombre tampoco es un niño más el paso del tiempo.

Pero Cannon revisó los procesos que posibilitaban la homeostasis (la regulación térmica, la cantidad de agua corporal, la presión arterial…), y resultó que, en general, parecían enteramente reductibles a un concepto en auge entre los ingenieros: retroalimentación negativa. Tanto era así que homeostasis y retroalimentación negativa parecieran ser conceptos inseparables. “No puede decirse que [la intención de Cannon] haya sido demostrar que el cuerpo humano es una máquina –asegura Sluckin–, pero tal es lo que resulta implícito” en la obra de Cannon. Lo que quisiera que hubiese en la vida que sea diferente de la retroalimentación era muy escurridizo y otra vez se escapó.

Texto de Marcelo Rodriguez
Edición y  extras: La Academia 
 
Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s