2018 es el Año Internacional de la Biología Matemática, y las dos facultades implicadas en esa efemérides, con la colaboración de Encuentros Complutense, lo han festejado con un par de exposiciones y con el ciclo de conferencias "Matemáticas y Biología, una relación en pleno desarrollo". En ellas han participado, en sedes y días distintos, el biólogo y profesor del CSIC en el Instituto Cajal, Alberto Ferrús, que ha hablado de los "Retos neurocientíficos para un matemático", y Juan Carlos Nuño, de la Universidad Politécnica de Madrid, con su ponencia sobre "La Biología que late en la Inteligencia Artificial".
Alberto Ferrús tiene claro que "el lenguaje de la naturaleza es el lenguaje de las matemáticas, aunque hay un problema y es que muchos biólogos somos analfabetos en matemáticas, y los matemáticos tienen un poco de miedo en enfrentarse al mundo complejo de la biología".
Reconoció además que los científicos usan el término complejidad como un escudo para ocultar su ignorancia. De ese modo, "es complejo todo aquello que no sabemos interpretar, por ejemplo, en un tiempo era complejísimo saber por qué y cómo los hijos se parecen a los padres". Dejó en manos de "los jóvenes la responsabilidad de conseguir que la complejidad deje de serlo".
Por su parte, Juan Carlos Nuño también le da un gran peso a las matemáticas y reconoce que están en la mayoría de los razonamientos que están utilizando en el desarrollo de la inteligencia artificial (IA). Para él, "lo importante es unir dos de los pilares de la IA, la matemática, que es la que nos permite realizar razonamientos, y la biología, porque es un punto de referencia para la gente que trabaja en IA. De hecho, es quizás la disciplina a la que más están mirando los que trabajan en ese campo, por la imitación de los sentidos, de la piel y por las propias leyes que han generado la biología, así que esas son las dos disciplinas que llevan el peso fundamental del desarrollo de la IA".
El cerebro
Los dos conferenciantes coincidieron en destacar la relevancia del cerebro. Para Ferrús, "de los muchos tipos de organismos que existen en el mundo, el cerebro humano es el más complejo por la cantidad de células que tiene". Por eso, y frente a la complejidad de ese órgano considera que "muchas veces es aconsejable ir a buscar soluciones en sistemas algo más sencillos como el sistema olfativo, especialmente en el de la D. Melanogaster, que tiene sólo 1.300 células sensoriales y se sabe a dónde proyecta en concreto, qué tipo de células lo constituyen...".
Nuño informa de que debido a la complejidad del cerebro se sigue estudiando cómo se ha desarrollado evolutivamente, una investigación que "se ha reactivado con los estudios de la inteligencia artificial, desde una perspectiva distinta a la Medicina, por el papel fundamental que tiene el cerebro como ejemplo de lo que se quiere conseguir en máquinas y robots".
Opina Nuño que "el cerebro es fundamental por estar formado por objetos capaces de transmitir señales y estructurados de una manera adecuada, así que para que haya inteligencia no sólo es importante tener células, neuronas, que funcionan de una manera adecuada, sino que es esencial que estén estructuradas de una manera funcional".
Asegura el investigador de la Politécnica que "cuando se lleva a cabo una simulación con las leyes de la selección y evolución natural no siempre se consiguen los mismos resultados que ha tenido en la realidad, así que es importante conocer qué es lo fundamental que se repetiría a partir de esas leyes". En esos estudios se encuentra "una unidad elemental de procesamiento, capaz de recibir información y procesarla, y esa unidad es el objeto matemático, el objeto lógico que reproduce la conectividad cerebral entre las neuronas".
Canales iónicos
Esa conectividad se produce mediante descargas eléctricas conocidas como potencial de acción, algo que los fisiólogos Alan Lloyd Hodgkin y Andrew Huxley ya se propusieron describir en los años 50 del siglo pasado. Según Ferrús, "su genialidad fue tratar de formular matemáticamente qué ocurría en el axón de la célula, ya que había al menos dos tipos de corrientes diferentes y con eso quizás se podría dar cuenta de ese fenómeno". A partir de esa observación desarrollaron "una ecuación con una precisión lo suficientemente buena como para seguir trabajando a partir de ahí". Lo que descubrieron es que en el interior de axón había poco sodio, mucho potasio y muy poco calcio con respecto a lo que había fuera, y "eso determinaba el potencial de reposo, mientras que el de acción era una perturbación de ese potencial".
No fue hasta veinte años después cuando se supo cómo se produce realmente esa perturbación, gracias a "proteínas que forman canales específicos para cada tipo de ión, que además son estructuras sensibles al cambio de voltaje". Ferrús explica que ese conocimiento nos permite hacer perfiles de señales de las células humanas gracias a la decena de canales diferentes que conocemos que promueven tipos de corriente distinta, ya sea voltaje, ATP, calcio... "La suma algebraica de todas esas corrientes nos permiten conocer ese perfil, lo que abre vías a terapias especializadas para un canal concreto, y más teniendo en cuenta que la inmensa mayoría de enfermedades neurológicas son defectos en canales iónicos de este tipo, así que el interés para hacer moléculas construidas ad hoc para activar y desactivar esos canales es enorme", añade el biólogo.
Los dos fisiólogos propusieron también la existencia del solitón, un fenómeno físico que es una perturbación en un canal, y que hoy se ha convertido en un concepto matemático, pero "todavía no hay explicaciones sobre qué dispara el mecanismo del solitón, ni se conoce el periodo refractario de la membrana, ni la dirección concreta del potencial de acción, ni cómo funcionan con altas frecuencias, ni cómo se transforman en señales sinápticas, ni por qué no generan calor dentro de la membrana...".
A pesar de esas incertidumbres, "las evidencias de los canales iónicos como únicos responsables del potencial de acción son apabullantes, algo que se ve incluso con la genética a través del estudio de las mutaciones de genes que hacen que no funcionen bien esos canales, lo que da lugar a enfermedades como la epilepsia".
Evolución e inteligencia
Ferrús explica a la audiencia que uno de los grandes retos científicos consiste en obtener un código, una especie de regla que establezca una correspondencia unívoca entre el significante y el significado. Un código de este tipo "sería el código genético, ya que tres nucleótidos codifican un aminoácido, aunque es un código que está degenerado, porque un aminoácido puede ser codificado por varias tripletas distintas, y además la posición no es equivalente, la primera es más importante que la segunda y mucho más que la tercera".
Añade el conferenciante que "los sistemas biológicos se han construido a base de códigos como este, pero con sistemas de chequeo constantes para interpretarlos". Juan Carlos Nuño va más allá, hasta los orígenes, para conocer cómo la evolución ha llegado a crear animales inteligentes, cómo esa inteligencia se puede conseguir aprendiendo, y cómo eso se lleva a la generación de aprendizaje automático y la implementación en máquinas y robots que llevan a cabo tareas.
Recuerda Nuño que "los animales somos inteligentes, aunque no todo el mundo sabe lo extensa que es esa inteligencia y cómo toca en animales que quizás pensábamos que no estaban dotado de ella, como los cuervos de Nueva Caledonia que aprenden a cortar trozos de cartulina para echarlos en una máquina que les devuelve comida". O las hormigas que cuentan "con una inteligencia colectiva, del grupo, determinando caminos óptimos para conseguir llegar a la comida que rastrean en el campo". E incluso los pulpos, "que son uno de los animales con una inteligencia más alta, con un cerebro distribuido a lo largo de todo su cuerpo, lo que hace que haya gente que especula con el origen extraterrestre de este tipo de inteligencia no centrada en un único órgano".
Frente a todos ellos, "los humanos también somos inteligentes, con una inteligencia individual y colectiva, que reside fundamentalmente en un proceso de selección y evolución natural, porque en Biología nada tiene sentido si no se mira a través de la evolución". Darwin ya dijo en su momento que esa inteligencia provenía del desarrollo evolutivo a partir de especies primitivas, así que "lo que guía esa evolución es la adecuación óptima, algo que también aparece en el mundo de la inteligencia artificial".
Se ha visto que integración celular de por sí, no da lugar a la inteligencia, así que algunos investigadores opinan que surge del aprendizaje, relacionado con la herencia genética y como resultado de la interacción con el entorno. En IA, "el aprendizaje tiene que ver con cambios, es algo dinámico; es adaptativo, así que también requiere una relación con un entorno variable; y por último es un proceso de optimización, porque optimiza tareas que ha llevado a cabo con anterioridad, es decir que una función requiere en sí misma, la capacidad de medir la eficacia del aprendizaje".
Sinapsis y redes neuronales
Recuerda Alberto Ferrús que las células neuronales "cuentan con cantidades galácticas de sinapsis, así que quizás esa es la materia prima para la codificación de lo que hay dentro de nuestro cerebro, aunque no sabemos si es así, por lo que es uno de los grandes retos a enfrentar".
De hecho un desafío sería modelizar el funcionamiento de una sola de esas sinapsis. Algo que está cercano a hacerse realidad, "porque se conoce muy bien la ultraestructura, también la neurotransmisión e incluso el repertorio de todas las moléculas que participan en ese fenómeno. Las relaciones cuantitativas de los componentes también se conocen, así que el modelo está prácticamente listo para que sea abordado de manera matemático".
Eso sí, con la modelización de la transmisión sináptica no se acaban los retos, porque "la cantidad de información que puede obtener el genoma y el sistema nervioso es sorprendente". Explica Ferrús que "la corteza cerebral está exquisitamente estructurada con seis capas de células, y las proyecciones sensoriales, por ejemplo, de la yema de los dedos, alcanzan lugares concretos para que la percepción e interpretación de lo que conozcamos sea correcta. Y esas seis capas están formadas por unidades que se repiten millones y millones de veces a lo largo de la corteza". Según el ponente, "el descubrimiento del siglo sería poder modelizar el funcionamiento de una sola columna cortical, porque al hacerlo se conocería la unidad funcional de toda la corteza cerebral". De todos modos, parece una misión muy, pero que muy difícil, ya que cada una de esas columnas tiene unas 10.000 neuronas y unos 100 millones de sinapsis, "así que sería dar un paso de gigante en neurociencia".
Mientras llega ese día, Juan Carlos Nuño aclara que para el desarrollo de la IA han creado redes neuronales, que son un conjunto de neuronas artificiales conectadas entre sí. Esas conexiones tienen unos pesos asociados a esa red y el aprendizaje se consigue por la modificación de esos pesos que conectan las neuronas. La clave está en encontrar una regla de aprendizaje para modificar esos pesos, ya sea aprendizaje supervisado, en el que el refuerzo de las conexiones tiene que ver con la señal de salida, o no supervisados, que se relacionan con la señal de entrada y su asociación con una neurona concreta.
Informa además de que "todas las redes neuronales que ya se usan en aprendizaje profundo modifican sus pesos y estructuras para satisfacer una tarea determinada. Por ejemplo, si les pones a jugar al ajedrez, aprenderá a hacerlo dependiendo de con quién juega, hasta ganar a cualquiera. Pueden modificar incluso la forma en la que aprenden, que eso es lo más sorprendente, porque no es sólo un almacenamiento histórico de cómo se ha jugado antes de él, así que tienen esa información y además aprenden a usarla a la vez que están jugando contigo".
De hecho, "los que trabajan en redes neuronales buscan una topología óptima para agrupar las neuronas de manera adecuada, algo que ahora ya se hace en hasta cien capas de neuronas, en lo que se conoce como Deep learning, que modifica la dinámica del aprendizaje y la forma en la que se correlacionan las neuronas. El secreto es buscar una red neuronal que tenga la estructura óptima desde un punto de vista computacional y con la capacidad de llevar a cabo la tarea que se quiere que haga, y eso es algo que se consigue con "algoritmos inspirados en la biología que sirven como fundamento para la IA, aunque no todos son así, porque también se puede pensar en una manera diferente de aprender".
La complejidad de la biología
Quizás haya que buscar referentes en otros lugares, o pensar sistemas más sencillos a los que aporta la propia evolución, porque la biología, según se va estudiando, se descubre que es mucho más compleja de lo que se pensaba. Ferrús explica que, por ejemplo, en el sistema nervioso las neuronas parecen no ser las unidades funcionales, sino que lo son "los árboles dendríticos de esas neuronas". Para demostrar esta hipótesis, el conferenciante proyectó un vídeo en el que se ve cómo "se activan regiones específicas muy pequeñas en ese árbol dendrítico, que están relacionadas con la localización topológica de lo que se ve, así que el espacio exterior está representado de alguna forma en ese árbol dendrítico, como si existiera un sistema de coordenadas anatómicas que permite localizar en el espacio cualquier objeto y su movimiento".
Si quiere llegar a modelizar de manera matemática exactamente cómo funciona nuestro sistema nervioso hará falta tener en cuenta toda esa información, algo que parece imposible, pero que Ferrús considera factible gracias a lo que se conoce como lógica difusa y que propuso hace décadas el matemático Lofti Zadeh. Este método consiste en "una forma de manipular los datos reales de lo que sucede en el mundo, teniendo en cuenta que prácticamente todos los sistemas biológicos no clasifican los parámetros de una forma bivalente, no hay frío, templado o calor, sino rangos que se solapan entre sí, de tal forma que las decisiones se hacen en función de un contexto".
Futuro robótico Quizás no con toda esa carga teórica, pero sí basados en la propia biológica es cómo se están desarrollando los robots en la actualidad. Nuño informa de que ya hay robots capaces de generar una tarea concreta e incluso "algunos robots que empiezan a considerarse robots, como Sophia, de Hanson Robotics, que puede mantener una conversación, aunque todavía no supere el Test de Turing".
Opina el conferenciante que, "la IA en lo que respecta a los robots va hacia unos robots biológicos, algo que Stephen Hawking, en su libro póstumo, cree que va a llevarnos a una singularidad tecnológica con un punto de no retorno donde la evolución seguirá caminos desconocidos y se establecerá una relación entre super hombres robóticos y humanos normales". Los super hombres tendrían una super inteligencia, con consciencia y un criterio propio de lo que es bueno y es malo, y eso creará un conflicto de gran envergadura, algo que los políticos ya se toman en serio, y que hace que "en la Comisión Europea se estén gastando ya millones de euros para establecer un derecho robot para esas personas electrónicas, con derechos y deberes como el resto de ciudadanos de la UE".
El MIT publicó ya en el año 2000 el libro "Robo sapiens", en el que hablaba del desarrollo de esa nueva especie que surgirá de ese punto de no retorno a la evolución biológica. Idea refrendada por otros muchos estudiosos, como los que en 2018 han publicado "Do robots make love?" en la que se preguntan si cambiará, por ejemplo, la forma de reproducirnos, con una ectogénesis que nos permitiría crear bebés sin útero ni hombres. Se habla ya de bebés a la carta y de la prolongación de nuestra vida a miles de años ya que no habrá ningún inconveniente de trasladar nuestra mente a una máquina y despojarla de la biología.
Cuando llegue ese momento, si es que llega, la humanidad dejará de ser lo que conocemos hoy y pasará a ser otra cosa, otra especie, o incluso desaparecerá para dar paso a un mundo ocupado por otro tipo de inteligencias. |