tiempos modernos

Marta García Aller: "El catastrofismo tiene muy mala prensa"

27/05/2020 - 

VALÈNCIA. Durante una entrevista con el CEO de Netflix, Red Hastings, Marta García Aller le escuchó decir que su competencia no era HBO  ni Amazon, sino las horas de sueño. En aquel momento no entendió con exactitud el mensaje. Unos cuantos años después lo tiene muy claro: la tecnología ha llegado para desafiar a la biología. Sin embargo, como apunta García Aller en su nuevo libro Lo imprevisible (Planeta), “las máquinas se encargarán de todo lo previsible y los humanos harán todo lo demás”. A través de un recorrido fascinante por temas como el amor, el humor, el empleo, la justicia, la seguridad o la verdad, esta periodista escribe un ensayo tecnológico repleto de ironía y rigor. ¿Y si realmente los datos no son oráculos y les estamos dotando de un poder muy superior del que realmente tienen?

-¿Cómo de imprevisible era la Covid-19 y por qué los algoritmos no predijeron la pandemia?
-Lo cierto es que había científicos que llevaban años y décadas diciendo que algo como esto podía pasar, es decir, que un virus respiratorio podría poner en riesgo la vida de cientos de millones de personas en todo el planeta. Quienes se dedican a estudiar estos virus zoonóticos sabían que algo así podía pasar. La pregunta es: ¿por qué no les escuchamos? Porque no todo  los expertos dicen los mismos. ¿Por qué escuchábamos a los que eran más optimistas? Es que el catastrofismo tiene muy mala prensa. Y esta es una amenazan que resultaba poco familiar en Occidente en general. Asia se preparó más rápido, sobre todo, China. La pregunta es por qué en China tampoco funcionaron los controles que habían desarrollado para evitar que se propagara fuera. Y la respuesta no la tiene un algoritmo sino los humanos. En el caso de China donde sí estaban preparados y tenían un conocimiento mayor de pandemia lo que había era miedo al propio gobierno chino y muchos funcionarios no se atrevieron a apretar el botón que hiciera saltar las alarmas por temor a represalias. Y esto es un mensaje fundamental en todo el libro: no podemos esperar que las máquinas nos vuelvan objetivos a los humanos porque no lo somos. Los sistemas de prevención deben entender cuáles son nuestras limitaciones y una de ellas es que una amenaza tan terrible como esta éramos incapaces de imaginarla como sociedad. Entonces, no sé si hubiéramos permitido que nuestros gobernantes se gastaran los miles de millones de euros que fueran necesarios en prevenirla, sin ni siquiera la conocíamos. Es muy importante que las sociedades conozcamos los riesgos a los que estamos expuestos, pero también los improbables. De otro modo no les exigimos a los gobiernos que inviertan en algo que puede o no pasar. En el cambio climático, por ejemplo, empezamos a estar concienciados pero hemos tardado décadas en entender que hace falta invertir para cambiar la manera en que se produce y consume para evitar males mayores. los gobiernos no estaban preparados para esto pero la opinión pública, desde luego, tampoco.

-Divides el libro en trece grandes capítulos, a los que les sumaste un capítulo cero dedicado a la pandemia: y esos capítulos son los que vertebran nuestra existencia: viajes, gustos, amor, seguridad, confianza, salud, empleo, humor, entre otros. ¿Siguen siendo esos los pilares de nuestra sociedad?
-Eso el tiempo lo dirá. Desde luego que el futuro nunca ha sido tan imprevisible como ahora, pero me atrevo a sospechar que en el medio y largo plazo esos pilares seguirán siendo los mismos. Al final, los dilemas humanos son los mismos siempre. Y en el libro hablo con muchos tipos de expertos, por ejemplo, con Mary Beard, una admirable y famosísima catedrática del mundo antiguo, experta en Roma. Se aprende mucho de lo que está pasando ahora descubriendo cuáles eran los retos a los que se enfrentaban en la caída del Imperio Romano. Y Mary Beard dijo una cosa que a mí me marcó mucho y así lo hago constar en el libro y es que nunca nadie ha vivido en una época en la que haya dicho: “¡Qué época tan tranquila me ha tocado vivir!”. Eso no ha pasado nunca. Construimos imperios y los destruimos y eso ha pasado a lo largo de toda la historia. Estamos viviendo en un mundo de una incertidumbre brutal y global pero que llegó mucho antes que la Covid-19. Por eso el libro lo empecé a escribir hace más de un año. Paradójicamente, he terminado de escribirlo en medio de lo más imprevisible que podamos imaginar: un bloqueo total de la economía mundial por un virus inesperado que no imprevisible. 

-Vayamos, por ejemplo, al turismo, a los viajes. Dices que gracias al big data, viajar es más seguro y previsible que nunca. El GPS y su inteligencia artificial están aniquilando la experiencia. 
-A medida que avanza la tecnología y podemos controlar lo que sucede alrededor -y el GPS es una de esas herramientas de control-, peor gestionamos la incertidumbre. Yo, por ejemplo, que hace pocos años que tengo el carnet de conducir, siempre he conducido con GPS, de manera que no conozco mi propia ciudad. Yo soy un ejemplo de cómo no hacer trabajar el cerebro; carezco completamente de inteligencia espacial. No sé si hubiera sido una conductora en los años 80, quizás hubiera tenido un mejor sentido de la orientación. Seguramente sí, claro, por supervivencia. Pero hay cosas que los humanos dejamos de saber hacer porque la tecnología lo sustituye. Antes, seguramente, éramos capaces de distinguir entre el trinar de los pájaros y de guiarnos por las noches siguiendo las estrellas. Ahora no somos capaces porque no lo necesitamos. Es verdad que luego desarrollamos otras diferentes. No sabemos arreglar el pinchazo de una rueda porque los coches apenas pinchan ahora. Lo normal ahora, además, es tener batería en el móvil para llamar y que alguien te la cambie. En este sentido, en el caso de los viajes, es un gran ejemplo de cómo la tecnología nos ayuda a conocer mas que nunca todo sobre el destino al que vamos, a tenerlo todo bajo control pero luego queremos que la vida nos sorprenda. Queremos tenerlo todo bajo control y ser aventurero al mismo tiempo. En otro capítulo, por ejemplo, hablo de la terrible experiencia de unos viajeros en una isla de que hace unos meses les pilló la erupción de un volcán. Era un viaje de aventuras a un volcán que podía tener una erupción en cualquier momento. En cierto modo, le hemos perdido el respeto al peligro porque tenemos un folleto en el que nos dice que podemos hacernos un selfie a los pies de un volcán, es que la seguridad está garantizada. Y la verdad es que no lo está. El volcán entró en erupción, algunas personas murieron y otras terminaron terriblemente abrasadas. No podemos controlar la naturaleza, por mucho que un folleto turístico nos diga que sí.

-Vayamos a los gustos y al sesgo computacional que generan y que, de alguna manera, también la gran narrativa del siglo XXI ha explicado. No sé si has visto Devs, la serie de HBO protagonizada por un gigantesco ordenador cuántico. Lo importante, dices en tu libro, no es que empresas como Luca (el big data de Telefónica) pueda saber qué hemos comprado, sino que prediga qué vamos a comprar. Ellos aseguran que los datos se utilizan de forma anonimizada ¿En qué punto estamos?
-Absolutamente, son datos anónimos. El análisis global de una cantidad ingente de datos que nunca antes habían estado disponibles permite predecir comportamientos. Por eso, cada vez que sucede algo que no estaba previsto -ya sea una pandemia o un resultado electoral- nos desconcierta tanto. Y nos preguntamos: ¿cómo es que esto ha pasado y ha escapado al control de los individuos? Bueno, porque al final, como individuos somos imprevisibles.

-Hablemos de algoritmos, siempre presentes en el libro. Criticamos mucho al algoritmo de Netflix o de Spotify o Youtube porque recomienda canciones o series que nada tiene que ver con nuestros gustos. Así que te pregunto como tú haces: ¿el algoritmo es tonto o se lo hace?
-Es una pregunta que nos deberíamos hacer más a menudo. Una de las cosas más interesantes que descubrí escribiendo el libro es que existe una tecnología muy sofisticada que permite anticipar mejor cómo son los gustos de los usuarios mucho mejor de lo que los algoritmos aparentas. El ejemplo más claro es que, quizás, a un espectador le apetece ver porno pero no quiere que la máquina se lo diga porque le puede poner en un aprieto en el salón de su casa. Entonces el algoritmo ya sabe que hay determinados gustos que no queremos que nos recuerden. Tampoco podemos olvidar que estas empresas lo que quieren es ganar dinero, no satisfacernos, sino ser rentables. Para eso necesitan promocionar contenidos que les interesa comercialmente que se conviertan en éxito y no siempre son los que más nos gustan, son los que ellos quieren que nos gusten. Entonces, sus prioridades no son las nuestras pero pueden moldear las que tenemos. A veces, a los algoritmos parece que les pidamos que se conviertan en ese oráculo que antes eran los dioses y ahora es la inteligencia artificial.

-Hablando de algoritmos, no sé si has escuchado Rabbit Hole, el ultimo podcast de The New York Times, creado por Kevin Roose, columnista de tecnología. En los tres primeros episodios habla del viaje de Caleb, un joven, podíamos decir demócrata, adicto a YouTube que, debido al algoritmo, acaba viendo vídeos de la ALT RIGHT estadounidense. ¿qué poder ideológico tienen los algoritmos?
-Claro, el poder que los humanos le hayamos dotamos. Los números no son neutrales, responden a unas prioridades que hemos marcado antes los humanos. Las máquinas no saben lo que es bueno y es malo. Esos son conceptos humanos. Todavía queda mucho por estudiar para saber cuál es el potencial de una tecnología que puede conocer tus gustos o deseos más íntimos incluso mejor que tú. Es verdad que la última decisión es tuya y conocer los miedos de una persona hace que puedas ser más vulnerables. En el caso de la política es realmente escalofriante. Se están haciendo ya campañas políticas que buscan no ganar el voto pero sí disuadirlo atendiendo a los gustos que uno muestra. Por eso es tan importante que la gente sepa cómo pueden manipularles.

-Si algo ha mostrado esta pandemia es que muchos ciudadanos preferirían vivir hipercontrolados y sanos que libres y enfermos. ¿cómo es posible concebir esto y de qué manera experiencias como Sesame Credit, el sistema de control y puntuación chino, han propiciado esta situación?
-Creo que la dicotomía entre libertad y salud es falsa. Esa tecnología para prevenir una pandemia o controlarla no tiene por qué vulnerar nuestra privacidad si se diseña en base a criterios democráticos. Y, por supuesto, un uso voluntario. Es decir, que no seamos coaccionados para utilizarlo. Se pueden diseñar tecnología de control democrático como también nos controlan los radares a la velocidad a la que vamos y no vulnera nuestra privacidad. Entonces el modelo no es el chino, claro, que es una dictadura. Podemos diseñar mecanismos que nos ayuden a utilizar esa tecnología que no vulnere nuestros derechos y garanticen nuestra seguridad. Lo que no podemos hacer es utilizar la misma seguridad o tecnología que utilizaba Bocaccio tras la peste bubónica en 1348.

-El amor también está presente en tu libro. Cuentas en ese episodio el caso del japonés que se casó con un holograma, la versión moderna de la muñeca hinchable de Berlanga. Y vuelve una cuestión que es bastante antigua: ¿les sirve a ciertos humanos necesitados de una pareja artificial que las emociones sean simuladas mientras sean realistas? ¿Será así el amor en el futuro?
-Espero que de manera general no, pero desde luego ya hay gente que se enamora de Siri. Es que ni siquiera hace falta que sea corpórea. Es decir, hay gente que cree que una respuesta sea totalmente previsible, lejos de aburrirle, le calma. Eso también explica que haya gente que en el desasosiego en el que vivimos le haga buscar un compañero lo más previsible posible. Hablando con el ingeniero jefe de Apple me decía que cada vez hay más gente que se enamora de Siri, así que ya están desarrollando capacidades para Siri que vayan más allá de la pura asistencia y que desarrolle capacidades como un compañero o compañera emocional. Y eso dice mucho de otra de las epidemias que tenemos por delante y que es la soledad.

-¿Qué sucederá con el empleo? En un mundo con la amenaza pandémica, los robots no enferman y los humanos sí. ¿Caminamos hacia la robotización del empleo?
-A mí, la automatización masiva del empleo no me parece, a priori, una mala noticia. El problema lo tendremos en cuanto al contrato social y cómo protegemos a la gente. Ahí es donde tendríamos un problema. Desde luego, que haya robots que se encarguen de desinfectar los hospitales o las empresas e incluso las morgues sin poner en riesgo a ningún humano no puede ser una mala noticia. Los robots no enferman, por supuesto, por eso hay que repensar cuál es el papel de la robótica social que va a ser fundamental en el siglo XXI. Es verdad que es posible que haya cosas que antes hacíamos los humanos y ahora ya no hace falta, pero surgirán otras nuevas. Todo oficio que tenga algo de imprevisible será humano. Incluso el sistema educativo está pensado para las rutinas. 

-Terminas el libro con el humor, el sentido del humor. Dices que Alexa y Siri explican chisten pero no los pillan. Y ahí hablas con un lingüista computacional que te dice que los robots no necesitan el humor, pero los humanos sí. Ya se está trabajando en esta posibilidad gracias a una disciplina como la Fonología Computacional. El humor es, sin duda, lo más difícil de interpretar. En este sentido, las máquinas lo han conseguido prácticamente todo, excepto hacernos reír. ¿Cuánto tardará esto en cambiar?
-Hacernos reír nos hacen reír como nos lo hace un niño que se sube a un escenario y cuenta un chiste pero no sabe por qué ha hecho gracia. Bueno, ese es el papel actual de los robots con el humor. El humor me parecía la mejor manera de terminar un libro que habla de lo imprevisible porque, desde luego, es lo más imprevisible de todo. No es extraño que haya tantos millones de euros invertidos en la posibilidad de automatizarlo. Por eso el reconocimiento lingüístico en la inteligencia artificial es fundamental. Uno de los mayores expertos me dijo que en los últimos 25 años habían avanzado muy poco en este campo. Normalmente, en las entrevistas, la gente que se dedica a investigar siempre dice que el mundo no tiene nada que ver a como era hace 25 años. Bueno, pues en el humor sí. Estamos en pañales, porque es lo más difícil de todo: ¿cómo entiende una máquina una ironía? Los matices no se pueden entender sólo en una hoja de cálculo. 

-No hay un episodio dedicado a la política en este libro aunque, naturalmente, los políticos están presentes y la idea de una política computacional no es descabellada si miramos a China, por ejemplo. ¿Llegará el momento en que nos gobierne un algoritmo o iremos a un modelo mixto de humano que gobiernen con la ayuda del algoritmo?
-Bueno, ese modelo ya lo tenemos porque la inteligencia artificial ya está en todas partes. Es verdad que no hay un capítulo dedicado a la política pero está en el resto de episodios. Y es que la responsabilidad de los políticos está en todas las áreas de las que hablo: seguridad, confianza, la verdad, el empleo, la justicia. Y ahí me remito siempre la misma idea: el procesamiento básico de datos nos puede dar una mejor fotografía de cómo es la situación pero la última decisión ha de ser humana porque somos nosotros los que establecemos las prioridades y sabemos qué es mejor o peor, No porque sea algo objetivo, sino porque lo hemos decidido así. Y esto es algo que ha ido cambiando, es decir, lo que nos parece mejor o peor ha ido cambiando a lo largo de la historia. Y depende de la ideología de cada uno, por eso es tan difícil imaginar una gran máquina que tome todas las decisiones. Fíjate lo que pasó en El Mago de Oz. Al final era un hombrecillo que estaba detrás. 

Noticias relacionadas

next