Ignacio Martín Llorente, catedrático del Departamento de Arquitectura de Computadores y Automática de la Facultad de Informática de la Universidad Complutense, ha sido galardonado con el Premio Aritmel, el Premio Nacional de Informática 2020 reservado para investigadores menores de 55 años, que conceden la Sociedad Científica Informática de España y la Fundación BBVA. Fue la propia Facultad de Informática la que aprobó el pasado mes de enero, a propuesta de su decano Francisco López, presentar la candidatura de Ignacio Martín Llorente al premio, y, por tanto, propiciar que se haya convertido en el tercer profesor complutense en recibir un Premio Nacional de Informática, tras Antonio Vaquero y Francisco Tirado, quienes fueron galardonados en ediciones anteriores, aunque ambos en la categoría que reconoce la totalidad de la carrera investigadora y que, precisamente, lleva el nombre de otro profesor complutense, José García Santesmases, pionero en el desarrollo de los estudios informáticos en España.
En su comunicado oficial, la Sociedad Científica Informática de España y la Fundación BBVA motivan la concesión del Premio Aritmel al profesor Martín Llorente, en "sus contribuciones científicas y de estandarización en las áreas de grid y cloud computing, por el impacto de los proyectos de código abierto GridWay y OpenNebula, por su transferencia tecnológica a la empresa, por sus actividades de colaboración en proyectos europeos y por su proyección internacional".
Según explica el profesor Ignacio Martín Llorente, en la conversación mantenida con Tribuna Complutense tras conocerse la concesión del premio, su grupo de investigación sobre Arquitectura de Sistemas Distribuidoslleva ya muchos años trabajando en las áreas de grid y cloud computing, y participando de manera continuada en decenas de proyectos europeos de vanguardia. Lo que, a su juicio, supone la gran diferenciación del grupo que dirige es tener "una mentalidad muy aplicada. Pensamos que no solo hay que escribir artículos, que son importantes porque con los artículos de investigación en cierta forma se transmite la construcción intelectual. Pero también hemos trabajado mucho en el modelo open source. Nosotros cuando hacemos una investigación, el método o la técnica la publicamos en el artículo, pero luego también desarrollamos prototipos de software que forman parte de la transferencia de esta investigación. Algo que es bastante importante. Tenemos una mentalidad aplicada de lo que es la investigación para crear un valor para la sociedad y la industria".
- Buena parte de vuestras investigaciones se realizan de la mano de otras universidades y centros de investigación de otros países y también de empresas.
- Efectivamente. Es muy importante esa colaboración. Para nosotros, el modelo opensource es como el punto de encuentro entre universidad, investigación y empresa. El modelo opensource significa que todo lo que desarrollas se publica como código abierto con una licencia permisiva. Eso quiere decir que cualquier empresa, cualquier organización puede usar libremente ese código y además mejorarlo. Es una forma de colaborar con empresas muy interesante porque te liberas de cualquier preocupación posible en cuanto que la empresa pueda aprovecharse para realizar su código propietario. Desde nuestro punto de vista no deja de ser una investigación; mejoramos prototipos de software opensource y esos prototipos están disponibles para todos. Luego obviamente son las empresas o las spin off de universidades las que tienen que dar el paso de la comercialización.
- ¿Ahora mismo en que estáis trabajando?
- Ahora mismo estamos trabajando mucho en algo que va a tener un impacto bastante importante, que es la computación en el borde, edge computing. Estamos en 2020 y ha habido un aumento exponencial con el que se ha llegado a 50.000 millones de dispositivos en el mundo; no solo tablets o móviles sino también el internet de las cosas, dispositivos que tenemos en casa que están conectados a internet. Esos dispositivos para que funcionen correctamente es importante que el procesamiento que se realiza sea en el edge, en el borde, cerca del dispositivo. La idea es que la computación tiene que estar cerca de los dispositivos. De esa forma se minimiza la latencia, se mejora la experiencia de usuario y, en ocasiones, también soluciona temas de protección o regulación de datos. Edge computing significa cómo dar servicio a todos estos dispositivos que están geográficamente distribuidos y cómo dar servicio de procesamiento cercano. Eso abre muchos desafíos. Se dice que es el siguiente paso. Está creciendo el número de dispositivos una barbaridad y la alternativa centralizada que tenemos ahora de tener pocos data centers, muy grandes y centralizados no escala. Hay que abrir, distribuir y acercar esos recursos a lo que son los dispositivos. Es, digamos, una evolución del modelo de cloud computing hace el edge, hacia el borde, hacia el modo distribuido.
- ¿También lo estáis desarrollando a través de proyectos europeos?
- Nuestras investigaciones tienen financiación de proyectos europeos y también nacionales. El de edge computing por ahora es un proyecto nacional. Queremos asentar las bases de la arquitectura que definirá estas infraestructuras edge del futuro. Ese es nuestro objetivo.
- En cada crisis, dicen, que siempre hay un sector que sale "beneficiado" y acelera su desarrollo de manera casi exponencial. Parece que el gran "beneficiado" de esta crisis actual es el sector de la tecnología y que su ya de por si veloz desarrollo se está acelerando aún más. ¿Puede estar ahí el edge computing?
- Sí, sí, absolutamente. Las necesidades han cambiado drásticamente en estos últimos meses. Por ejemplo, hay una demanda altísima de lo que se llaman desktops vituales. La gente trabaja desde casa y requiere el despliegue automático de su entorno de trabajo. Para que la gente que trabaja en casa tenga buena experiencia de trabajo y, además, se cumplan las regulaciones de datos, hace falta que esos entornos de trabajo se desplieguen en el edge, en recursos. A mí no me vale de nada tener trabajadores que están accediendo a un centro de datos que está en China para ejecutar el desktop, primero porque está lejos y la latencia es muy alta y en segundo lugar porque para manipular o procesar información confidencial tienen que estar dentro de España para que esté dentro de la normativa de datos española, por ejemplo. Ha surgido mucho esa demanda, pero hay otras: el tema del ocio y el gaming, que necesita para tener buena experiencia de usuario poca latencia, luego necesita recursos cerca del usuario; también el tema del streaming, por el incremento de consumo de música y vídeos. Y otro tema importante es la salud, evidentemente. Lo que se pretende es procesar datos de pacientes, incluso poder realizar consultas o intervenciones remotamente, pero en tiempo real, sin latencia, llegando incluso en el futuro al punto de la realidad aumentada, por ejemplo. Para todo eso hace falta estructuras tipo edge. El tema del confinamiento, el trabajo desde casa, el aumento del ocio y la importancia de la salud y de mejorar las técnicas y los tiempos de respuesta, como comentas, han puesto de relieve la mayor importancia o la apuesta que se debe hacer de forma estratégica hacia las tecnologías y en particular hacia la estructura edge.