Pocas personas saben más sobre inteligencia artificial en Holanda que Maarten de Rijke. Director del nuevo Centro de Investigación de Inteligencia Artificial (ICAI) de la universidad de Ámsterdam, este científico, miembro de la Real Academia de las Artes y las Ciencias neerlandesas, es además licenciado en Filosofía y Matemáticas y doctor en Ciencia Computacional Teórica. Tras años dirigiendo distintos institutos dedicados a la investigación de lenguajes computacionales y de aprendizaje automático o machine learning, De Rijke aceptó liderar el nuevo centro con la clara intención de lograr la implicación de las empresas más potentes de Holanda y de obtener más financiación gubernamental. Porque la revolución que ya está aquí, la de las máquinas inteligentes, va tan rápido que uno no puede permitirse el lujo de esperar unos años: así lo asegura a Gaceta Holandesa en su despacho de la UvA, un lugar sin más distracciones que las de los libros y el ordenador portátil. Eso sí, en su pared todavía cuelga una pizarra de las de toda la vida.
El centro que usted dirige nació poco después de que la Unión Europa lanzara el año pasado el primer plan de inversión en Inteligencia Artificial (IA), ¿casualidad?
No, no es coincidencia que nuestra propuesta para una plan holandés sobre Inteligencia Artificial (IA) se lanzara al mismo tiempo que el europeo, hace sólo unos meses. Ambos se basan en tres dimensiones: uno es el conocimiento, la creación y la innovación; otro es el impacto socio-económico y un tercero se centra en las implicaciones éticas y legales. En esto la Unión Europea se ha comprometido a invertir más en los próximos años. Mientras muchos países europeos han presentado sus estrategias nacionales que empezarán a implementarse a partir de mediados de este año, Holanda todavía no ha presentado la suya. Por eso nosotros nos empleamos a fondo el año pasado y en noviembre publicamos una hoja de ruta que incluía un centro de investigación de ámbito internacional en Inteligencia Artificial, y ese somos nosotros.
Hace unos meses, en una entrevista a un periódico holandés, denunció usted que el Gobierno no le está prestando a la investigación en inteligencia artificial la atención que merece y que corre el riesgo de quedarse atrás respecto de otros países. ¿Por qué este desinterés?
El Gobierno se ha centrado únicamente en el tercer punto, en las implicaciones éticas y legales que tiene, pero no aporta la financiación necesaria para seguir investigando a alto nivel. Si es por pereza o por una forma de ser muy holandesa, la de esperar a que otros lo desarrollen para luego comprar la tecnología cuando ya esté lista…no puedo saberlo. Este año recibimos 700 solicitudes y sólo hemos podido aceptar 200 porque no tenemos el profesorado suficiente, y ya son demasiados.
Hay expertos que aseguran que si los gobiernos no se ponen manos a la obra con esto es porque no saben cómo, porque sencillamente los sistemas democráticos que tenemos actualmente no logran responder a las futuros retos que plantea un mundo protagonizado por la inteligencia artificial donde la misma idea del trabajo cambiará. ¿Que opina usted al respecto?
Coincido totalmente. En nuestro país no conozco ningún partido político que cuente con un equipo de expertos en estas nuevas tecnologías; la mayor parte de nuestros parlamentarios, me atrevo a decir que ninguno, tiene los conocimientos necesarios en IA. Y en un futuro no muy lejano, la sociedad estará dominada por esta tecnología, no hay duda, lo que conllevará cambios radicales en nuestra forma de vida. Estamos a punto de vivir otra revolución industrial, en la que trabajos que conocemos desaparecerán y otros surgirán. Tenemos que actuar ya, no solamente involucrando a unos pocos, sino a todo el mundo, en todas las esferas de la sociedad.
Ustedes han involucrado a las empresas privadas y gracias ellas ha nacido el ICAI, cuéntenos cómo funciona su colaboración.
Con cada compañía creamos un “laboratorio de investigación” con un plan que dura unos cuatro o cinco años en el que un grupo de estudiantes lleva a cabo diferentes líneas de investigación que pueden testar en la vida real. Es una situación en la que todos salimos ganando. Ya contamos con seis laboratorios y nuestro objetivo es lograr uno nuevo cada cuatrimestre durante los próximos cinco años.

Maarten de Rijke, en un momento de la entrevista. © Nacho Calonge
Al depender de la financiación de estas grandes compañías, como Bol o Albert Heijn, que buscan ante todo mejorar su posición en el mercado online a través de su colaboración, ¿cómo logran ustedes realizar investigación pura, que no persiga fines comerciales?
Como científicos tenemos que publicar, encontrar nuevas ideas que merezca la pena transmitir y en inteligencia artificial no podemos investigar a treinta años vista. Tenemos muchos otros problemas urgentes que debemos atajar ya: por eso, si bien trabajamos con un plan a largo plazo, debemos obtener resultados en poco tiempo. Pequeños pasos hacia adelante dan lugar a un gran avance. Analizamos problemas inspirados en el mundo empresarial, pero que van a marcar una diferencia en nuestra realidad. Por ejemplo, trabajamos con una compañía que investiga el desarrollo de coches autónomos. En este momento estos vehículos ya podrían reconocer objetos, pero todavía tienen dificultades para reconocer actividades, acciones. ¿Qué está pasando en la imagen que registra, es una persona quitándole el candado a su bici para subirse en ella o alguien que la está robando? En unos años queremos que las máquinas puedan entender el material visual, los conceptos: qué es un edificio, el cielo, una puerta…Como si de un bebé se tratara, les enseñamos el significado de los sustantivos; después su correlación y a veinte, treinta años, esperamos poder lograr que entiendan sentimientos y actitudes. Mientras en un laboratorio se trabaja en esto, en otro estamos investigando las recomendaciones de usuarios en e-commerce, y esto es muy interesante para nosotros porque podemos contar con un supermercado para probar nuestros hallazgos inmediatamente. Al contar con cinco años para investigar, es la compañía la que se adapta a los tiempos que solemos manejar los científicos. Y en cinco años pasa mucho, aquí y en otras universidades.
China y Estados Unidos le llevan mucha ventaja a Europa en AI, ¿no es así? ¿se puede competir con ellos al mismo nivel?
En nuestro ámbito lo que importa son los datos (data) y el talento. Cuando acordamos un proyecto de investigación con una compañía lo primero que queremos saber es el volumen de información que maneja. Y si todavía no es suficiente para investigar con él, no lo hacemos. Nos ha pasado en algunas ocasiones. De ahí que la información sea crucial para poder competir. Y en este sentido Europa no puede competir con estos dos países. Pero en talento sí podemos, si se financia como es debido. La investigación avanza y Europa debe asegurarse de que va en el asiento del conductor, no en el del copiloto. Es esencial para poder desarrollar esta tecnología de forma independiente, si es necesario, y así no perder el tren. El equilibrio geopolítico está cambiando y creo que es importante desarrollar una buena colaboración entre estos países, concretamente con China. Lo peor que podemos hacer es aislarnos.
«En este momento los sistemas pueden reconocer objetos; esperamos que en pocos años puedan entender conceptos y acciones y en un par de décadas, sentimientos y actitudes»
La causalidad, el «qué pasaría si» ¿existe ya en el aprendizaje computacional?
En el ámbito de los motores de búsqueda (como Google) y de los sistemas de recomendación (algoritmos que deciden recomendaciones óptimas de productos, perfiles de redes sociales, basándose en los datos que se le ofrece al sistema acerca de cada usuario) es algo que ya existe. Si selecciono este producto el sistema me recomendará uno similar. El típico escenario es el siguiente: tenemos un sistema de producción, ya sea uno de los dos mencionados o un chatbot (Siri o Alexa), que acumula información de los usuarios a través de sus interacciones. De esta información el sistema aprende y puede enseñar a otro sistema de machine learning lo que debe hacer, y en este caso la ventaja es que el otro sistema no debe ir online para obtener la información que necesita para desarrollar nuevas acciones. Esto permite no correr riesgos innecesarios al probar nuevas ideas que podrían salir mal con usuarios reales. Para recomendaciones sobre productos de un supermercado el riesgo de perder un cliente no es tan grave como si la recomendación es sobre recursos humanos. Por eso probamos este razonamiento causal fuera de la red.
Como filósofo que es, además de matemático, me gustaría preguntarle, ¿por qué la sociedad percibe los avances en inteligencia artificial como una amenaza, algo que nos atrae pero que, al mismo tiempo, nos asusta?
Según el lugar del mundo en el que uno viva, la narrativa cambia. Aquí en efecto lo que prima es el miedo a lo desconocido, pero en otros países no es así. Me gustaría compararlo con el discurso ético en torno a la medicina. Cualquier avance o intervención médica conlleva un resultado positivo y algo negativo, pero lo que está claro es que no hacerlo nos deja sin lo positivo, que puede ser muy bueno. En el ámbito de la salud todos somos conscientes de este juego de fuerzas, y solemos apostar por llevar a cabo la acción a pesar de sus implicaciones negativas. Porque hacerlo es mejor que no hacerlo. Es humano pensar que si con tus investigaciones crees que vas a hacer el bien, actúes. Pero sorprendentemente en torno a IA la actitud es la de tenerlo todo regulado antes, todo bien acotado, y después actuamos. Cuando se desarrolla una nueva tecnología, siempre habrá alguien que la use para mal, ¿significa eso que deberíamos parar? No, deberíamos trabajar para prevenir que esto ocurra.
En tan sólo dos años, desde las elecciones norteamericanas, se nos ha bombardeado con información sobre las noticias falsas, la manipulación del voto, Facebook ha sufrido una fuga de datos…¿realmente se pueden prevenir sus efectos adversos?
Las noticias falsas han existido siempre, desde el instante en que un periodista escribe lo que ve con sus palabras y según su criterio. Desde hace siglos la propaganda y la manipulación informativa ha estado ahí. La diferencia es que ahora esta manipulación se traslada también a lo que vemos, a la imagen. Por eso es necesario enseñar al usuario a ser crítico con lo que ve en internet. Cuando mira un vídeo de Youtube y le aparecen recomendaciones en el lateral, ¿de dónde vienen exactamente? Tenemos que estar preparados para aceptar que lo que vemos puede ser una pura invención. Cómo la gente consume las noticias y de qué manera estas influyen en sus decisiones es un debate que ha estado siempre sobre la mesa. El escenario actual está en constante cambio y por eso es fundamental supervisarlo de forma permanente para que las opciones para elegir sigan existiendo, para que el usuario esté expuesto a muchas alternativas y las voces no sean únicas. En Holanda esto funciona bastante bien.
«Lo que es incomprensible es que las personas demos nuestros datos de forma gratuita, que no esté fiscalizado, un recurso que tiene un valor inmenso para las empresas»
Cuando se trata del manejo de grandes volúmenes de datos, como el que hacen ustedes, Europa ¿depende de los gigantes americanos, Google, Amazon, o tiene capacidad para actuar por su cuenta?
Depende del tipo de investigación que se quiera hacer. Si tiene que ver con motores de búsqueda, dependemos de ellos, claro. Pero nosotros no usamos solamente este tipo de información: otra como la de navegación por satélite de Tom Tom es infinita y hoy casi cualquier empresa se transforma en tech y aporta datos. Hay mucha más información disponible que la que ofrecen estas plataformas norteamericanas.
Lo que es incomprensible es que las personas demos nuestros datos de forma gratuita, que no esté fiscalizado, un recurso que tiene un valor inmenso para las empresas. En este momento creemos que cuando utilizamos estas plataformas de internet, como las redes sociales, damos nuestros datos porque a cambio obtenemos un servicio. Pero lo que no podemos controlar es el uso que se hace de esa información, y esto no está regulado. Lo que empieza como una interacción personal, de unos datos que da un individuo, se convierte en una cantidad ingente de información sobre el comportamiento de un determinado segmento de población. Sobre esto el usuario ya no tiene nada que decir y eso no tiene sentido.
- © Nacho Calonge
AlphaZero, el nuevo sistema de aprendizaje profundo desarrollado por Deepmind (Google), aprendió a jugar al ajedrez, al shogi y al go en pocos días y de forma autónoma, venciendo a las máquinas anteriores y a los mejores jugadores del mundo. ¿Podemos decir que existen ya algoritmos que pueden aprender por sí mismos, sin necesidad de depender de información (data) externa?
El desarrollo de la inteligencia artificial ha pasado por varias etapas: a finales de los noventa, principios de este milenio, se basaba en la creación de reglas, es decir, un grupo de expertos introducía en un sistema nuevas normas que habían desarrollado fuera de éste. Ahora, quince años después, todos los métodos que salen adelante están basados en el manejo de datos. Si miramos atrás vemos que la metodología previa a la que usamos ahora, la que no contaba con datos, era mucho más arcaica y daba lugar a problemas mayores. ¿Podemos investigar sin datos? Sí claro, pero retrocederíamos décadas. En el caso de AlphaZero, lo que ha logrado está muy bien, genera información a partir de la experiencia de jugar contra otra máquina, pero no debemos olvidar que se trata de un juego, y su entorno es por lo tanto limitado, acotado. Para trasladar esto a la vida cotidiana, deberíamos dejar que la máquina interaccione con la gente y aprenda de lo que ocurre a su alrededor: esto es lo que se está haciendo ya con los coches autónomos y los sistemas de recomendación de internet. Pero el entrenamiento y las instrucciones las seguimos haciendo offline, a sabiendas de que no podemos captar toda la complejidad de la vida real, para evitar errores que puedan tener consecuencias importantes. Los datos son esenciales para avanzar. Lo interesante de los algoritmos de ajedrez es la idea de un aprendizaje híbrido de las máquinas con los humanos. En mi opinión, ver cómo ambos jugadores, cuando juegan en parejas, idean nuevas estrategias que por separado no habrían logrado, es inspirador.
Volviendo a las primeras preguntas sobre la implicación de la clase política en la investigación en IA, y para terminar, ¿está la sociedad preparada para asumir los nuevos cambios que se avecinan?
De nuevo, repito que poner el freno no es la solución. Diseñar nuevas formas de trabajo, de toma de decisiones, nuevos roles que las personas puedan asumir en este nuevo escenario: ese es el camino. Actualmente, los científicos de IA estamos trabajando en entornos controlados, asumiendo los riesgos que supone probar experimentos computacionales nuevos, de la forma más segura posible y aprendiendo de ellos, rápidamente. Como sociedad, esto es lo que nos corresponde hacer. Aprender y avanzar.