Con un bagaje científico que aúna conocimientos de ingeniería electrónica, inteligencia artificial, robótica y neurociencia, Carmena logró el éxito como emprendedor en EEUU con una compañía de biotecnología. Hoy, este valenciano trabaja con otros científicos españoles de impacto internacional como Rafael Yuste y Álvaro Pascual-Leone en la puesta en marcha de un ambicioso Centro Nacional de Neurotecnología (Spain Neurotech), concebido con vocación de convertirse en un referente internacional.
VALÈNCIA. El currículum de José M. Carmena (València, 1972) es sencillamente abrumador. Con 51 años, y nacido en una familia de médicos, hoy es uno de los científicos valencianos con una dimensión internacional más marcada. Ingeniero electrónico por la Universitat Politècnica de València (1995), se doctoró en Inteligencia Artificial (1998) y Robótica (2002) por la Universidad de Edimburgo y luego cruzó el charco para investigar sobre neurobiología en la Duke University (Durham, Carolina del Norte, EEUU). El periplo siguió en otro campus norteamericano, el de Berkeley en California. Allí se convirtió en catedrático de Ingeniería Electrónica y Neurociencia y dirigió su propio laboratorio, el Brain-Machine Interface Systems Laboratory, con el objetivo de lograr un interfaz cerebro-máquina capaz de ayudar a controlar con el pensamiento brazos robóticos, exo-esqueletos o prótesis adaptadas. Su penúltima aventura fue nada menos que la creación, en 2017, de la compañía de biotecnología iota Biosciences, de la que acaba de desvincularse tras una venta multimillonaria a la farmacéutica japonesa Astellas. Después de una biografía en la que caben varias vidas, jalonada por diferentes premios y reconocimientos internacionales, su ilusión actual se llama Spain Neurotech, el futuro Centro Nacional de Neurotecnología. Concebido junto con otros dos españoles -Rafael Yuste y Álvaro Pascual-Leone- este centro nace con la ambición de convertirse en una referencia puntera del desarrollo de herramientas tecnológicas basadas en los fundamentos del cerebro humano. Hablamos con él en su primer campus, el de la UPV. Carmena habla con entusiasmo sobre el presente y más aún, sobre las posibilidades que ofrece el futuro.
- Al José Carmena no científico, pongamos al rockero, ¿qué le llama más la atención, un valenciano que termina siendo catedrático de Ingeniería Electrónica y Neurociencia en Berkeley o un ingeniero electrónico que se interesa en transformar el pensamiento en acción?
- Pues viéndolo desde el presente te diría que ninguna me sorprendería tanto: somos muchos los que nos hemos ido a lo largo de los años, bien preparados. Y en cuanto a la interfaz cerebro-máquina [Brain Machine Interface, BMI], con lo que ha aparecido en prensa y cine, ya no es un tema de ciencia ficción. Cuando yo estudiaba Ingeniería Electrónica, como mucho se empezaba a hablar de Inteligencia Artificial, y te tenías que ir fuera a estudiar. Ahora es un termino mainstream. Y lo mismo empieza a ocurrir con BMI.
- Hoy que ChatGPT está en boca de todos, llama la atención que hace dos décadas usted se fijase primero en la Inteligencia Artificial para pasar luego a interesarse en la natural, en el funcionamiento del cerebro.
- Lo bonito al final es la simbiosis entre ambas formas de aprendizaje, el natural y el artificial. Eso va a ir a más: no vamos a dejarlo todo en manos de la IA, sino en este bucle cerrado en el que están el cerebro y la IA. Son dos mecanismos de aprendizaje muy distintos, en velocidad con la que aprenden, en la facilidad para ciertas cosas y para otras no. Y hay una oportunidad muy bonita para sacar de esa interacción algo más reforzado y potente, que nos permita hacer ciencia mucho mejor por la capacidad de cálculo, predicción y aprendizaje rápido de estos algoritmos… y que se combine con el contexto que provee la inteligencia humana. Mi sueño, cuando me fui a estudiar IA a Edimburgo, era conseguir que una máquina fuese consciente. Así que me empezó a interesar más cómo el cerebro aprende, cómo produce la sensación subjetiva de quiénes somos, el yo, la consciencia.
- Casi nada.
- ¡Y me inspiró Terminator 2! En concreto, en ese momento en el que se dice “Skynet adquirió consciencia a las dos de la tarde del día tal…”. Esa fantasía me llevó a preguntarme muchas cosas y me di cuenta de que no sabemos muchas cosas del cerebro, el órgano más complejo. Así que durante mi doctorado en robótica decidí estudiar más neurociencia y me apunté a cursos como el del Instituto Cajal, en el que eran todos médicos y biólogos ¡menos un ingeniero de Alicante y yo! Ahí me entusiasmé mucho más, todo cobró sentido con mi formación anterior. Alberto Ferrús, director del Cajal y de ese curso, me dijo “si quieres hacer neurociencia en serio, vete a hacer un post-doc a EEUU, a un laboratorio de neurobiología, donde puedas tener un rol directo en experimentos. Empápate las manos de neurociencia”. La verdad, no pude tener mejor consejo.
- ¿Cuál fue el siguiente paso?
- Pues solicité una plaza de post-doc en el laboratorio de Miguel Nicolelis en Duke University, en Carolina del Norte. Nicolelis es pionero en este campo, el primero en publicar estudios sobre el concepto de BMI, y el primero de todos los laboratorios a los que solicité admisión en responderme, muy empático. Y en lugar de volverme a València, donde ya estaba mirando opciones para volver a la Universidad, me fui a EEUU. Y ahí fue donde me acabé de formar, y exploté el conocimiento que yo traía de ingeniería e IA.
"Cuando hablamos de la interfaz cerebro-máquina, se trata de registrar actividad neuronal de lo que el sujeto quiere hacer para traducir eso en acción a través, por ejemplo, de un brazo robótico. Si la acción no se hace bien, el cerebro aprende para hacerlo mejor. Y ese aprendizaje se puede mejorar con el uso de la IA"
- Si hoy el conocimiento más puntero es de origen híbrido, de diferentes disciplinas, y su carrera así lo confirma, ¿deberíamos dejar más puertas abiertas para esa hibridación, en los planes de estudio?
- Esa es una muy buena pregunta. En mi caso yo hice el camino más largo, estudiar lo básico primero -en Industrial, luego Electrónica- formándome bien en eso y luego continué con el Doctorado en IA, robótica y tal. Y acabe aprendiendo la neurociencia durante mi post-doc. Ese es un camino largo y duro, pero muy estimulante y que te hace sentir muy preparado. Durante esos años se potenció mucho el Grado de Ingeniería Biomédica, y en EEUU se puso muy de moda. El problema que tienen estos grados es que quieren cubrir mucho y eso no te permite profundizar en las áreas troncales: en esos primeros años de carrera les decía a los estudiantes que estaban empezando en Berkeley “mira, vete a una ingeniería troncal -electrónica, mecánica, informática…-, aprende de verdad eso, luego toma las optativas que te gusten y luego hazte el Doctorado en Ingeniería Biomédica. En el Doctorado estudias unos cursos y ya empiezas a investigar”. La formación básica del cálculo, algebra, estadística, física, química… te da una base muy fuerte.
- Es decir, primero una buena base troncal y luego completar la formación en un plano más interdisciplinar.
- Sí, por eso soy partidario de que sean las asignaturas optativas las que te motiven hacia dónde quieres ir después, y luego hacer un Doctorado más interdisciplinar. Las ingenierías y demás carreras técnicas requieren de una actualización de los planes de estudios constante, por la velocidad a la que va todo.
- Usted trabaja desde hace décadas en la investigación de las interfaces cerebro-máquina, y dice que el cerebro del futuro será una mezcla de ambas. ¿Cómo explicamos a un profano cómo funcionan estas interfaces? ¿Cuáles son los últimos avances?
- Estas neurotecnologías, de las cuales los BMI son un subtipo, están penetrando en la sociedad poco a poco. La primera línea de acción es la aplicación médica, obviamente, con posibilidades desde lo nada invasivo a lo extremadamente invasivo. Existe ya un dispositivo para la epilepsia aprobado por la FDA americana, un implante que te ponen debajo del cráneo, encima de la corteza cerebral, con unos electrodos que registran actividad neuronal y un algoritmo que predice el ataque epiléptico. Es decir, se detecta un patrón de actividad neuronal aberrante que predice que va a haber una convulsión. Entonces el dispositivo estimula eléctricamente evitando el ataque epiléptico. Obviamente hay algunos falsos positivos, pero funciona suficientemente bien hasta para el uso en humanos.
- En ese caso, la persona puede no darse ni cuenta, pero ¿y la conversión en acción de un pensamiento consciente?
- Sí, veamos: cuando hablamos de la neuroprótesis o la interfaz cerebro-máquina hablamos de registrar actividad neuronal de lo que el sujeto quiere hacer para traducir eso en una acción a través, por ejemplo, de un brazo robótico. Si la acción no se hace bien, el cerebro aprende para hacerlo mejor la próxima vez. Y ese aprendizaje se puede mejorar con el uso de la IA también. Todo eso ocurre en el subconsciente del paciente: no llega a aflorar en la consciencia pero el dispositivo lo detecta. Lo que sí percibe el paciente lógicamente es su voluntad de querer mover algo.
- En un artículo suyo en IEEE Spectrum, hace ya 11 años, ya pensaba en un sistema en el que el cerebro pudiera controlar pero también “sentir” la máquina como parte del cuerpo.
- Eso es. En los primeros estudios de BMIs, el lazo o bucle se cerraba utilizando feedback visual. Eso es suficiente para que el cerebro aprenda a controlar el dispositivo. Sin embargo, en el caso del control de un brazo robótico con un BMI, tareas naturales a priori tan simples como esta [coge un vaso con la mano y lo levanta] pueden resultar muy complejas. En este caso falta la información sensorial táctil (de los dedos) y propioceptiva (localización del brazo y mano en el espacio), que a falta de información visual, nos permitiría coger el vaso sin romperlo o dejarlo caer. Es el campo de la neurociencia sensorial aplicada al BMI, y cuyo objetivo es el control más natural del BMI.
- Volviendo al control de la neuroprótesis de una forma más “natural”, esto lo empezaron a experimentar hace muchos años con monos, en su laboratorio en Berkeley.
- Si, en un estudio que hicimos en 2009 demostramos el concepto de “memoria motora” en el contexto de un BMI o neuroprótesis, es decir, la capacidad de aprender a controlar un dispositivo externo con el cerebro y consolidar lo aprendido en forma de memoria, de tal manera que cada vez que el sujeto quiere controlar el BMI lo puede hacer de forma natural, tipo plug and play, como cuando te subes en el coche y conduces de forma automática, sin pensar en lo que haces, y simultáneamente hablas, escuchas música, o piensas en otras cosas. Esta memoria motora que emerge para controlar la neuroprótesis es un ejemplo de la impresionante capacidad plástica del cerebro a través de la cual se crea un nuevo mapa neuronal para controlar algo que no es parte de tu cuerpo. Eso es muy profundo.
- Y ahí, ¿qué papel tiene la IA?
- Respecto a la IA, ¿y si explotamos el poder de esos algoritmos para que ayude al cerebro a aprender a controlar el BMI más rápido e incluso a aumentar su capacidad de funcionamiento? En mi laboratorio desarrollamos un paradigma que llamamos CLDA (closed-loop decoder adaptation, o adaptación del algoritmo en bucle cerrado) en el que, mientras el cerebro del sujeto aprende a controlar el BMI (via plasticidad neuronal), el algoritmo también aprende online, se adapta ajustando sus parámetros, con resultados sorprendentes, como aprender la tarea en una en vez de en múltiples sesiones, y un aumento significativo en la habilidad de ejecución de la tarea. Este tándem del cerebro y la maquina aprendiendo es muy potente: el cerebro sigue en control, sigue al mando, pero a la vez ayudado por el algoritmo.
"Aplicando la neurotecnología a productos de consumo, se pueden generar modelos matemáticos (réplicas digitales) de una persona, basados en datos de comportamiento, biométricos, etc. que pueden predecir mucho acerca de tu comportamiento o tus decisiones"
- Eso supone un potencial tremendo, ¿no?
- Explotar juntas estas dos formas distintas de aprender, la natural y la artificial, tiene un potencial muy grande. Mira, yo vengo de la parte “invasiva” del campo de BMI, la que postula que cuanta más resolución tengamos en las señales obtenidas del cerebro (lo cual requiere implantar electrodos en la corteza y otras estructuras cerebrales) mejor funcionamiento obtendremos. Se entiende que la parte de IA del sistema también es importante, pero la mayoría de la capacidad de control viene de la cantidad de información extraída por la interface con el cerebro. Esto es cierto, especialmente en aplicaciones clínicas para personas con discapacidades motoras y otras enfermedades neurológicas.
- ¿Y en otros campos?
- En la aplicación de la neurotecnología para productos de consumo, el paradigma cambia. Se pueden generar modelos matemáticos (réplicas digitales) de una persona, basados en datos de comportamiento, biométricos, etc. que pueden predecir mucho acerca de tu comportamiento o tus decisiones, y que combinados con un neural más limitado (con menos fidelidad, menos información) pero con la ventaja de ser no invasivo (por ejemplo registrando actividad del cerebro desde el cuero cabelludo, lo que se conoce como encefalografía, EEG) se consiga el mismo efecto que con técnicas más invasivas. Que el cerebro del sujeto esté “en control” aunque la mayoría del peso de las acciones recaigan en el modelo digital. Por ejemplo, si el modelo predice una acción con 70% de probabilidad de acierto, el canal neural ayuda a reducir la incertidumbre y se llegue a una predicción del 99% de acierto. Esto antes era impensable, pero ahora con los últimos avances de la IA y la cantidad de datos disponibles de uno mismo, te lo crees.
- Está hablando de algo que nos ayude a acertar en una acción de la vida cotidiana, ¿me equivoco?
- Sí, imagínate que tienes como un Siri o un Alexa que te está ayudando. Y en un ejemplo extremo, eres alguien con un problema de movilidad: pues imagina que para controlar un robot no hiciera falta ni siquiera un implante, sino que con un modelo bastante preciso de los hábitos de la persona, con información sensorial sobre lo que tiene delante, pudiera ayudarle. Por ejemplo, ahora estamos en una cafetería, aquí se reduce el espacio de acción a coger este cubierto o aquel, y basándose en qué hora es, o si has comido o no, o un marcador que indique en qué puedes estar interesado… el algoritmo ya puede saber si la decisión correcta es coger el vaso con zumo o el teléfono móvil. Esto no es ficticio, es avanzado pero es el caso extremo de hacia dónde yo veo que van ahora las cosas. En mi opinión, la evolución de la IA aplicada a este campo ayuda a disminuir el grado de invasividad de la neurotecnología. Y te lo digo yo, que vengo del extremo contrario. Cuando empezó todo esto en el año 2000, las dos líneas (invasivo vs no invasivo) estaban muy enfrentadas.
- Han avanzado muchas cosas en la investigación en este campo, en estas dos décadas.
- Cuando hice mi doctorado a finales de los 90, lo que no había eran GPUs, los chips de procesamiento grafico que se utilizan en las máquinas de Nvidia, tarjetas que permiten hacer cálculos muy potentes. Jeff Hinton [experto en IA contemporánea y padre del Deep Learning, aprendizaje profundo] en la primera década de este siglo empezó a entrenar redes neuronales con estos procesadores y utilizando la gran cantidad de datos que existían ya para entrenar estas redes neuronales de retropropagación. Estas redes, que ya existían décadas antes, aprenden con un algoritmo llamado de back-propagation, donde se propaga el error desde la capa de salida a la de entrada, calculando (mediante la “regla de la cadena” de cálculo diferencial) cuanto error se le atribuye a cada neurona artificial de esa red y ajustando los pesos de conexión entre neuronas. La diferencia es que Hinton, explotando el poder de estos procesadores, entrenó estas redes con un numero enorme de capas y unidades de procesamiento (neuronas) por cada capa, de las que salía una dimensionalidad antes impensable con resultados sorprendentes. El mismo algoritmo con el que yo estudié en mi doctorado, pero aumentado, como si le pusieras esteroides. Nadie esperaba que de algo tan simple saliera una cosa así. Y creo que este y otros avances van a ayudar mucho a que las neurotecnologías tanto invasivas como no invasivas tengan impacto en mucha más gente, incluidos los productos de consumo que nos hacen la vida mejor. Y de aquí nos metemos ya en el campo de la aumentación de las funciones sensoriales, motoras y cognitivas, lo cual tiene unas implicaciones éticas enormes, por supuesto, y que es un tema muy importante hoy en día.
- Está claro que todas las aplicaciones de la neuroingeniería que nos vienen antes a la cabeza son las del bienestar y la aplicación a la cura de enfermedades.
- Pero no tanto ya, eh… existe un ecosistema de startups, muchas de las cuales están todavía “bajo el radar”, en Silicon Valley y también en Europa. Y luego están las tecnológicas grandes trabajando en ello, como hace ya tres años Facebook, ahora Meta, adquirió Control Labs, una compañía que salió de unos doctorandos de la Universidad de Columbia expertos en la neurobiología del sistema motor y que tuvieron la visión de empujar en lo posible hacia lo no invasivo, para impactar a más gente. Y desarrollaron un brazalete, con electrodos, que te registra la actividad muscular, el EMG [electromiografía], con una resolución alta, pero haciendo además un modelo matemático que a partir del EMG, que es el final de la cadena, infiere lo que la motoneurona ha hecho antes.
- Es decir, va aguas arriba para averiguarlo. Fascinante.
- Exactamente. Con el conocimiento de neurociencia que ellos tenían, llegaron donde otros lo habían intentado antes sin éxito. Eso te lleva hasta la demostración de poder tocar en un teclado virtual pero sin tener que hacer el movimiento, porque lo que te detecta el dispositivo es la intención de teclear, de moverte… y los dedos virtuales ya pueden teclear. Estas demostraciones han llevado a poder aumentar los grados de libertad con los que puedes generar acción en un espacio virtual sin comprometer tus movimientos normales: no tienes que dejar de utilizar tu mano para lo que hagas, sino que te está aumentando tu repertorio de acciones. En mi reciente charla en València -en el III Summit de REDIT- decía que cuando no existía Windows, tenías que ir metiendo programa a programa, y de repente, guau, tienes un escritorio con todo ahí delante. Esa es una analogía muy buena para entender esta transformación: ¿qué vamos a poder hacer con estas nuevas tecnologías? Es un tema fascinante que está por desarrollar.
- Se desdibuja la frontera entre lo imaginable y lo factible. Es decir, nos acercamos a dictar nuestros pensamientos y pedirle a la tecnología que ordene las ideas y nos escriba un artículo. O que nos recree ante la vista una pantalla para una videollamada con solo pensarlo, ¿no?
- Así es. Es un ejemplo entre muchos. Facebook/Meta tiene Reality Labs, una división enorme -varios antiguos estudiantes míos trabajan allí- que está diseñando el futuro de lo que será el metaverso. Hacen investigación básica para desarrollar la tecnología necesaria para poder interaccionar con esa realidad aumentada. Ya sean gafas de sol instrumentadas, un reloj o brazalete, habrá toda una variedad de dispositivos “wearables”, es decir no invasivos. Ya hemos empezado a incorporar estos gadgets en nuestras vidas cotidianas, por ejemplo los airpods. La idea es que en el futuro cercano estaremos equipados completamente, de forma no invasiva para interactuar con espacios virtuales en dimensiones antes no imaginadas. Otra compañía in stealth (que vuela bajo el radar de momento) está trabajando en el ambito covert speech (habla encubierta) utilizando dispositivos tipo airpods para detectar lo que estás hablando mentalmente. Al pensar en decir algo, el dispositivo es capaz de detectar potenciales de acción de los músculos faciales relacionados con el habla por debajo del umbral de activación, y el algoritmo, que ha sido entrenado previamente, es capaz de decodificar ese habla encubierta, de predecir lo que vas a decir. Eso te permitiría por ejemplo interactuar con Siri o Alexa de forma “mental”, aumentando tu comunicación con el mundo digital.
"En el futuro cercano estaremos equipados completamente, de forma no invasiva para interactuar con espacios virtuales en dimensiones antes no imaginadas"
- ¿Hasta qué punto la plasticidad de nuestro cerebro es esencial para permitir estos avances?
- La plasticidad neuronal solo puede ayudar en este caso. Por ejemplo, si el algoritmo de decodificación no es perfecto, uno puede contar con el cerebro adaptándose al algoritmo para obtener mejores resultados.
- Me preguntaba si el neural dust es la única o la mejor alternativa a los implantes.
- No, en absoluto. El campo ha evolucionado muchísimo y el tema es qué tipo de implante quieres y para qué. De hecho, el neural dust se está utilizando más por el cuerpo humano, en la medicina bioelectrónica, poniendo sensores pequeñitos o estimuladores en nervios, órganos… vaya, en el resto del cuerpo. Y sobre todo por la conexión cerebro-nervios. Por ejemplo, puedes regular tu sistema inmune con un estimulador eléctrico encima del nervio esplácnico, que es el nervio que inerva el bazo. El bazo suelta muchísimas células inmunes en circulación y cuando hay enfermedades autoinmunes, ese control que hace el cerebro para subirte o bajarte la inflamación, a veces no funciona bien. Para artritis reumatoide, enfermedad de Crohn… cosas así, y puedes estimular en ese nervio para aumentar la concentración de citoquinas anti-inflamatorias en sangre eso y que baje la inflamación. Lo bonito es que el campo ha explotado en la última década, sobre todo en el ámbito empresarial, de startups, desarrollando muchas neurotecnologías. Se trata de tener un abanico entero de posibilidades y ver cuál le va mejor a cada patología.
- Ha dicho que con tanta información sobre nosotros que hoy ya está recogida por muchos sensores, podemos hacer réplicas digitales de uno mismo. ¿Estamos hablando de una aplicación humana de la idea del gemelo digital de la industria?
- Sí, es el mismo concepto y tiene todo el sentido. Hablando en la cena de Redit con una persona del Instituto de Biomecánica de Valencia (IBV), surgía este mismo tema. En el caso del gemelo digital de una persona, este está especializado en tu anatomía y te puede servir para la prevención de lesiones, por ejemplo. Uno puede tener un gemelo digital de algo muy concreto, por ejemplo para predecir lo que quieres decir, o puedes hacer una constelación de modelos, de expertises que puedes utilizar para todo. Va a ser un tema que va a impactar en la sociedad en cosas que hoy ni estamos pensando, en aplicaciones que a la gente le interese usar, sea para lo que sea. Un Siri que realmente es un modelo de ti y te dice “no te olvides de esto”, o detecta que hay algo que deberías estar haciendo y no haces… pero que está personalizado para ti, en vez de ser genérico.
- Y en la parte médica, ¿podrán cubrir este tipo de tecnologías los seguros?
- Bueno, esos son los temas que cuestan de ocho a diez años de recorrido a las startups de dispositivos médicos. Hasta que esto llega a ser un producto ya cubierto por el seguro, debes obtener resultados de estudios clínicos y es un camino largo, pero la respuesta es sí. Igual que existen ya para el estimulador del parkinson, implante coclear u otras cosas. Lo que pasa es que lleva su tiempo.
- Hablamos del ‘humano aumentado’, y has puesto algunos ejemplos al respecto. ¿Estamos preparados mentalmente para ello? ¿Cuáles son los desafíos éticos?
- Por supuesto que estamos preparados, porque es como todo lo que está ocurriendo. Como si hace treinta años te preguntaran si estás preparado para de repente tener el poder del mundo en tu mano, la respuesta a lo que quieras, la capacidad de procesamiento y respuesta en la palma de tu mano. En mis años de carrera en “el Poli” recuerdo la aparición del primer portátil, la conmoción que causo aquel ladrillo. Cuando te das cuenta… mira, el otro día descubri que mis airpods tienen tres opciones, desde cancelación total del ruido a que no bloquee nada. Eso es aumentación de la calidad auditiva, ahí tienes ya la plataforma para meter ese Siri aumentado del que hablaba antes. ¿Dónde está la IA? ¡En la nube! No va a ser un todo o nada, nos va a ir entrando progresivamente. Ahora bien, la parte ética es muy importante. Por eso sobre todo en los últimos años ha cobrado mucha importancia la parte de la neuroética. Tradicionalmente, el desarrollo de la tecnología ha ido por delante de la ética, y eso se acelera ahora y puede causar problemas de desigualdad muy importantes. Es un campo en el que Rafael Yuste es pionero, el tema de los neuroderechos, hay mucha conciencia de ello y hoy en día no hay congreso sobre neuroingeniería que no tenga al menos una sesión sobre neuroética. Pero es que sin tener que meternos en temas de implantes en el cerebro, en las redes sociales el problema de sesgo con los algoritmos… es grande. Y le añades privacidad de datos, desigualdad, o si esto estará al alcance de todos o no. Y lo ves en muchos ámbitos. Pero habrá mucha aplicación de estas cosas, de interacción con el mundo virtual, digital, ciberespacio, que nos permita hacer cosas más rápido, más eficientes… y eso ya genera una desigualdad, si hay un coste muy alto para ello.
- Ha hecho una parte importante de su carrera en Estados Unidos, pero llegado un momento decide lanzarse al emprendimiento. ¿En qué momento y por qué decide crear iota Biosciences, en 2017? ¿Cómo surge?
- Te digo a corazón abierto cómo fue. Y no es una receta sobre cómo debería ser. Yo me fui de aquí para un año, a hacer un máster de IA en Edimburgo. Allí me dan una beca para continuar con el Doctorado y me quedo, y en ese periodo de tres años me surge una primera crisis -típica del Doctorado- de pensar qué voy a hacer con esto toda mi vida. Yo vengo de familia de médicos y siempre me quedó la duda de si tendría que haber hecho Medicina, para ayudar directamente al ser humano. Una aplicación más directa, vamos. Y justo en esa minicrisis descubro el campo de la ingeniería biomédica, y me voy a dos congresos internacionales. A escuchar. Es un punto de inflexión en el que descubro que quiero estudiar el cerebro, que es física-química pura, un órgano espongiforme, electroquímica. Del disparo de billones de neuronas sale la sensación de quién soy, la consciencia. Fue una revelación para mí. Y ahí me metí a estudiar neurociencia a distancia con la Open University mientras acababa mi tesis en Edimburgo para aprender más… había pasado de la ingeniería electrónica, la IA y la robótica a la neurociencia, y todo ello quedaba dentro de la ingeniería biomédica, que ¡además tiene aplicación médica! Eso me voló la mente y me hizo renunciar a volver a València después de casi ya cinco años.
"Tradicionalmente, el desarrollo de la tecnología ha ido por delante de la ética, y eso se acelera ahora y puede causar problemas de desigualdad. Hay mucha conciencia de los neuroderechos, por eso hoy en día no hay congreso sobre neuroingeniería que no tenga al menos una sesión sobre neuroética"
- Pero el mundo startup llegaría más tarde.
- Sí, y aún tardaría en aparecer la palabra en mi vocabulario. Me voy a EEUU al laboratorio de Nicolelis en la Duke University a hacer un post-doc con la suerte de estar en el sitio y en el momento adecuados. Llegué a un laboratorio pionero en este campo de los interfaces cerebro-maquina (BMI) y que acababa de recibir una enorme inyección de capital del Gobierno americano, de DARPA [Agencia de Proyectos de Investigación Avanzados de Defensa], la mayor en la historia hasta ese momento en ese campo. Eso me daba recursos prácticamente ilimitados para investigar, y además acabé a cargo del proyecto más importante del laboratorio. Fue una gran oportunidad. Y el resultado de ello fue uno de los primeros estudios en los que monos implantados con microelectrodos en la corteza cerebral podían controlar robots para tareas de alcance y agarre con el pensamiento. Demostramos que a través de la plasticidad neuronal, el cerebro podía aprender a controlar actuadores externos, que no formaban parte del cuerpo del mono. Un estudio precioso, que tuvo mucha repercusión y que sin lugar a dudas fue la llave que me dio la plaza de profesor en Berkeley. Y ahí que me fui.
- Sin noticias de emprendimiento aún.
- [Ríe] Nada de startups aún, porque llego a Berkeley en 2005, con 33 años, y ahí empieza el proceso del tenure track: tienes millón y medio de dólares para empezar tu laboratorio. Y después, buena suerte, chico. Te dan al principio para que empieces pero después es meritocracia pura: en el sistema americano, te tienes que nutrir de tus proyectos externos. Y eso es un proceso muy duro, una criba de dentro o fuera. Fue de 2005 a 2011, y ni se me pasó por la cabeza emprender. La presión es tan grande, de lo que has de producir… ¡y es tan difícil arrancar un laboratorio con monos, desde cero, sin ingenieros! No sabes lo que es eso, ni imaginarlo. Tuvimos muchos problemas y en esa época, yo solo pensaba en sobrevivir al semestre. Y a los 5 años coges todo tu paquete de publicaciones, currículum, etcétera, lo empaquetas, lo cierras y ellos se lo envían a universidades top, pidiendo cartas a expertos que digan qué piensan de ti como candidato, si tienes impacto mundial o no, te comparan con otros en el mundo y se reúne un comité, pasa por todos los niveles y te dicen si tienes tenure y te quedas o te tienes que ir. Entonces, en 2011 me vengo a València de año sabático sin saber si tengo o no tenure. Pienso, si lo tengo, es un momento precioso para volver porque si lo tengo, tendré luego mi plaza, no para relajarme sino para tomar más riesgos. Y si no me lo dan, porque me tendré que ir igual de todas formas. Y justo en ese año salió una competición interna en Berkeley con unos donors (filántropos) que querían potenciar la creación de startups en Berkeley.
- Vamos llegando.
- Sí, por fin. En la bahía de San Francisco, en el área de ingeniería electrónica e informática, Stanford tiene más reputación por el numero empresas que salen de ahí pero menos en cuanto a ser un power house intelectual. Berkeley sí lo era, pero se prestaba menos atención al emprendimiento. Esto ha cambiado por completo y para bien en la última década, a través de filántropos, antiguos alumnos de Berkeley que inyectaron mucho capital en distintas iniciativas e incubadoras de empresas. Una de estas iniciativas era una concurso interno, como un fellowship, entre todo el profesorado Berkeley. Te daban 100.000 dólares al año durante 5 años para usarlo en tareas de emprendimiento, es decir en promover la creación de startups a partir de los resultados y avances de tu laboratorio. Esto incluye pagar abogados para que te tramiten tus patentes, sueldos de empleados, y cosas así, que normalmente no puedes pagar con proyectos federales por tratarse de dinero público. Y al ganar una de las 5 fellowships, pensé que con ello tenía que hacer algo.
- Ahora sí: entramos en el universo startup.
- Era 2012, y hasta ese momento la palabra startup prácticamente no existía en mi vocabulario. No me interesaba, estaba volcado en la investigación pura. Y a raíz de esto, empecé a irme dos horas cada viernes fuera del campus con mi colega del departamento y posterior socio en la empresa, que también había ganado una fellowship, a hacer un poco de tormenta de ideas sobre qué podíamos hacer, mientras desarrollábamos una tecnología -el neural dust- que la hicimos con la motivación de trabajar en un proyecto ilusionante, de mucho impacto y a la vez extremadamente difícil de realizar, y de esa forma poder atraer a los mejores estudiantes de doctorado y post-docs, durante al menos una década. Lo bueno de sitios como Berkeley, Stanford y MIT en estas áreas es que cada año llegan los mejores estudiantes y quieren que les den los problemas más difíciles para resolver. Piden algo muy cañero. Y nosotros creamos esta idea de “y si pudiéramos tener implantes muy muy pequeños, sin batería, bla bla bla…” y ahí tienes un montón de problemas importantes para resolver a lo largo del tiempo.
- ¿Cuál fue el desencadenante para crear la empresa?
- Pues pasó que la primera generación de esta tecnología funcionaba en animales, y en paralelo se publicó nuestro paper en una revista de alto impacto lo cual creo mucho interés en distintos sectores clínicos y de la industria en general. Entonces, uno de los trustees [consejeros] de Berkeley y de nuestro circulo de confianza vino a decirnos que tendríamos que comercializarlo ya. Era el momento adecuado para pedirse la excedencia de Berkeley y lanzarse. Nos habíamos formado en emprendimiento, teníamos la idea, el prototipo funcionando, y las patentes en marcha, el capital inicial para pagar a los primeros empleados, dos doctorandos nuestros, y arrancar. Era el momento perfecto. Así que en verano de 2017 fundamos iota Biosciences [iota es el noveno carácter del alfabeto griego que significa muy pequeño, infinitesimal]. Y así nos metimos. Yo pensé “cojo un año de excedencia al 50% solo y volveré en un año”. Eso lo hacen muchos académicos, pensaba que volvería a mi vida universitaria si o si, pero en ese año pasaron cosas muy intensas y gratificantes que me abrieron los ojos. Cuando estás metido de lleno en el mundo académico, en tu laboratorio con tus investigaciones, es como estar en una burbuja en la que no te das cuenta de que hay fuera un mundo real al que le es indiferente lo que ocurre ahí dentro. Me refiero al establishment de la ciencia (publicar o perecer, premios, etc). Y que una mínima parte de los avances que se publican en revistas científicas de prestigio acaban impactando en la sociedad. Y cuando ves todo esto desde fuera de la “burbuja”, es un poco como ver la luz y salirse de un culto del que, si no hubiera sido por esta aventura emprendedora en la que la meta es crear valor que impacte directamente en la sociedad, no hubieras salido jamás.
"la comunidad valenciana tiene unas condiciones muy buenas para que una empresa, pongamos, de Silicon Valley se venga aquí por el tema del coste de vida, la mano de obra y el talento que hay, en un mundo que es mucho más global y permite trabajar casi desde cualquier sitio"
- Suena muy radical.
- Sí, y el impacto te engancha mucho. Es muy rápido: tienes una idea, la expones a unos inversores, te dan el capital que pides, y sin red tape (burocracia)… vas a por todas, y cuando llega la siguiente ronda de financiación, si no ha funcionado, pues se cierra la tienda y no pasa nada. Y bueno, a otra cosa. El campo avanza así. Y así llegó Google, después de quedarse en el camino Lycos, Altavista,… llegan ellos con PageRank, un algoritmo de búsqueda más innovador y potente, y se lo comen todo. Pero ese ecosistema ya existía. El emprendimiento ahí no es fracaso, sino aprendizaje. Y yo de repente en ese año me di cuenta… cerramos la ronda A de financiación, que ya era un tema serio a 3 años… y entonces supe que no quería volver a la vida académica. Entre otras cosas porque he aprendido tantas cosas en mi etapa académica que ahora quiero ponerlas en práctica. Son puntos de inflexión en la vida. A mí ese fellowship me hizo de repente pensar en modo startup unas horas todas las semanas. Y una vez en ese mundo, fuera de la burbuja, descubrí que era eso lo que quería hacer. Me dices tres años antes que eso es lo que iba a pasar y me hubiera reído, hubiera pensado que estabas loco.
- ¿Y por qué se cierra esa etapa? ¿Mantiene hoy alguna vinculación con iota o no?
- Porque nos fue muy bien y tuvimos un exit temprano. En el campo de la tecnología médica, lo normal hasta tener un exit -que te adquieran o que hagas una IPO [siglas de Initial Public Offering, en España OPV u Oferta Pública de Venta, salto al mercado bursátil]- es que pasen de 8 a 10 años, por temas de regulación, porque hay que tener datos en humanos, eso es muy lento… y nosotros lo hicimos en tres años. Cuando estábamos empezando vino una compañía farmacéutica japonesa -Astellas- con un equipo que quería hablar con nosotros. Ellos habían leído sobre nuestra tecnología y por su cuenta se habían puesto a trabajar sobre su impacto en farmacología. ¡Venían con nada menos que 100 ideas de aplicaciones de neural dust en las que ellos estaban ya pensando! Y acabaron siendo los segundos inversores mayoritarios en nuestra ronda de inversión, en la que metieron cláusulas para poder visitarnos un par de veces al año y aprender sobre lo que estábamos haciendo. Porque aparte de lo invertido, querían explorar otros usos de nuestra tecnología. Y al año y medio o dos, empezamos a hablar más y más sobre otras aplicaciones y nos dieron más capital para investigar dentro de un acuerdo que les daba derecho de tanteo y prioridad para licenciar la propiedad intelectual que se pudiera generar.
- Una apuesta que demostraba la fe en el proyecto.
- Eso es. Para nosotros eran unas condiciones muy buenas, sin diluir el stock de la compañía nos permitía explorar otros campos. Así que nos metimos en ello a fondo y obtuvimos resultados tempranos muy interesantes, incluyendo unos estudios clínicos que hicimos en Bilbao en pacientes, muy preliminares… Ahí Astellas se activó muchísimo y decidieron adquirirnos en un estadio muy temprano. Fueron muy visionarios, y se lanzaron a por nosotros.
- Nos hemos quedado en el momento de la compra. ¿Des de ahí, qué?
- En octubre de 2020, en plena pandemia, nos adquieren. En julio de 2021 me desvinculo de mi actividad docente e investigadora en Berkeley y paso de catedrático full-time a catedrático adjunto, mientras sigo trabajando en iota, que ha pasado de 15 empleados cuando nos adquirió Astellas a 200, hasta octubre de 2023.
- La pregunta cae por su propio peso. ¿Y ahora qué?
- Actualmente me dedico a otros proyectos de emprendimiento, y por supuesto en los últimos años, con Rafael Yuste en Columbia y Álvaro Pascual-Leone en Harvard, empezamos a crear este proyecto tan bonito para España, un centro nacional de neurotecnología, que se llamará Spain Neurotech. Es una de las cosas que veo para el futuro, la de potenciar la neurotecnología en España, a través del centro, trabajando con startups… hay demasiadas cosas que se pueden hacer ahí, esperando a que se hagan.
- Hablamos ahora de Spain Neurotech, pero antes: usted cree que en 10 años sabremos mucho más del funcionamiento del cerebro. ¿Conseguirá la aceleración de los procesos que estamos viviendo que se quemen etapas en la aplicación de todo ese aprendizaje?
- Si te refieres en el sentido positivo de esa ‘quema’ de etapas, Spain Neurotech es muy estimulante. Cuando diseñamos el proyecto teníamos claras varias cosas: que tenía que ser para el cerebro humano, y un centro nacional de investigación aplicada en mayúsculas, no básica, y con aceleración del impacto en la sociedad. Es decir, en primer lugar, la idea de acelerar los ensayos clínicos -first in human, primero en humanos- porque es un proceso que suele tardar, por temas de procesos regulatorios. Se trata de explotar todos los recursos para testar antes y que lo que tardaría ocho años, se pudiera hacer en tres. Y en segundo lugar, creación de startups, sacar lo antes posible de los laboratorios el conocimiento a productos de consumo, a productos médicos. Acelerar esos procesos está en el ADN de Spain Neurotech, contra cualquier otro ejemplo -y los hay muy buenos en el mundo y en España- porque la estructura de meritocracia del centro hará que busquemos investigadores que se incorporen con perfil de emprendimiento y de aplicación clínica. Que quieran hacer avanzar este campo de verdad. Y que las métricas para renovarles el contrato no estén basadas exclusivamente en publicaciones en revistas de impacto y premios, sino por ejemplo en el número de ensayos clínicos en los que ha estado involucrado el investigador y/o en cuántas startups han salido de su laboratorio. Si no cambias ese modelo, acabas teniendo otro centro de investigación básica como todos los que ya existen. Queremos que Spain Neurotech tenga una identidad muy definida para un impacto temprano en la sociedad.
-¿Qué va a suponer este centro para España en el contexto global? Por lo que han podido hablar con las autoridades, ¿no se convertirá en un obstáculo la política?
- El impacto de algo que no existe aún. El de un centro de primer nivel de neurotecnología, muy aplicado. Ya existen excelentes centros de neurociencia; por citar tres en la Península Ibérica: el Cajal en Madrid, el Instituto de Neurociencias de Alicante, y el Champalimaud de Lisboa. Y a nivel mundial, ni te cuento. No estamos repitiendo ese modelo, aquí hay una oportunidad muy bonita de hacer algo transformador para España, en tres áreas punteras como son neurotecnología, inteligencia artificial y neuroderechos. La sede central de Spain Neurotech estará en el Edificio Zenit [conocido como Edificio Trimodular] del campus de Cantoblanco de la Universidad Autónoma de Madrid. Y a partir de ahí se creará una red de satélites en España para explotar recursos y crear sinergias con otros centros, empresas, hospitales etc., del resto del país.
"Con Spain Neurotech hay una oportunidad muy bonita de hacer algo transformador para España, en tres áreas punteras como son neurotecnología, inteligencia artificial y neuroderechos. Su estructura de meritocracia hará que busquemos investigadores que se incorporen con perfil de emprendimiento y de aplicación clínica, para un impacto temprano en la sociedad"
- Y en el marco de este regreso a España, ¿se plantea iniciar algún proyecto en la Comunidad Valenciana, en su tierra?
- Hombre, como todo en mi vida ha sido serendipia, pues al salir de iota pensé que también era un buen momento para volver a casa, algo que tenía planteado para más adelante, inicialmente. Me veo aquí el próximo verano, en València. Involucrado con Spain Neurotech y otros proyectos, y haciendo también cosas en València, ya sea como satélite del centro u otras cosas. Pero me vengo, seguro. Llevo años pensando en el concepto de València como Nueva California, y lo digo en serio: hay muchas cosas en común con el Mediterráneo y especialmente con la Comunidad Valenciana, como clima, gastronomía, arte, y otras menos conocidas fuera pero de las que estoy muy orgulloso, como lo bien preparada que sale la gente de aquí. Y a la vez, unas condiciones muy buenas para que una empresa, pongamos, de Silicon Valley se viniera aquí por el tema del coste de vida, la mano de obra, el talento que hay, en un mundo que es mucho más global y permite trabajar casi desde cualquier sitio que antes de la pandemia.
- Y ¿qué nos falta? ¿Creérnoslo?
- Sí, por supuesto. Y juntarnos todos los que venimos de fuera y contagiar este espíritu. A mí me ha venido de forma natural, yo soy muy valenciano y no me fui a vivir una vida mejor a América, sino a buscar lo que aquí no encontraba a nivel profesional en ese momento. Y ahora aquí ya puedes hacer muchas cosas, y digo “aquí” mientras estoy conectado “allá”, es decir sin perder la red que uno crea a lo largo de su carrera. Conectar València con Silicon Valley y otros hubs de ciencia, tecnología y emprendimiento en el mundo.
- ¿Cómo ve la innovación en la Comunidad Valenciana hoy?
- Pero ¿en qué campo?
- Veo que la respuesta será muy distinta según de lo que hablemos.
- Si hablamos de las tecnologías tradicionales como son todos los institutos tecnológicos del textil, del juguete, de la cerámica, o hablamos de Deep tech será muy distinto. En el proceso formativo de las nuevas generaciones hay iniciativas muy interesantes como Lanzadera, y de gente como José Millet en la UPV, que en el área de emprendimiento lleva mucho tiempo trabajando en esto. Que los estudiantes salgan ya con la idea de emprender, de lanzar una startup. Cuando yo estudié aquí en los 90, no se hablaba para nada de startups, ¡solo de pymes! Ahora leo sobre Hyperloop, y otras compañías valencianas haciendo cosas muy interesantes, como Voicemod, innovando en aplicaciones de cambio de voz en tiempo real para el metaverso, y luego gente como Enrique Belenguer, que se ha ido fuera, ha vuelto… y me enorgullezco como valenciano. Aquí cada vez se innova más. Lo que falta es un nexo común que explote todo este potencial, eso y creérselo, como dices. En cuanto a la pregunta de valoración general de cómo estamos en innovación, pregúntame dentro de cinco años.
- Anotado queda, así lo haremos.