Entrevista al experto en Inteligencia Artificial y catedrático de la UNED

Julio Gonzalo: "¿ChatGPT en la cerámica? Las empresas pueden usar la IA para optimizar costes"

Experto en Inteligencia Artificial, el catedrático de la UNED Julio Gonzalo Arroyo dice que ChatGPT es como un cuñado estocástico que se lo lee todo sin entender nada, pero luego es capaz de hacer cosas sorprendentes que a los humanos nos cuestan mucho trabajo o no podemos hacer. Constata que esta herramienta es la primera tecnología que no es bien entendida ni siquiera por sus creadores.

23/11/2023 - 

VILA-REAL. Catedrático del área de Lenguajes y Sistemas Informáticos de la Universidad Nacional de Educación a Distancia (UNED) y vicerrector adjunto de Investigación y Transferecnia, Julio Gonzalo Arroyo (Madrid, 1968) es experto en Inteligencia Artificial e investigador principal del grupo UNED de Procesamiento del Lenguaje Natural y Recuperacion de Información. Sus publicaciones han sido referenciadas más de 5.000 veces, según Google Scholar, y el año pasado fue uno de los tres General Chair del congreso SIGIR 2022, el congreso mundial de investigación en tecnologías de búsqueda, que se celebró por vez primera en España. Hablamos con él aprovechando su presencia el pasado 19 de octubre en Vila-real, donde con una charla sobre ChatGPT abrió el ciclo Conferencias Blancas de este curso en el centro de la UNED de Vila-real.

- El periodista y escritor de ciencia y tecnología Adolfo Plasencia se pregunta por qué a ChatGPT lo llaman Inteligencia Artificial (IA) cuando quieren decir Machine Learning (ML, aprendizaje automático).
- Es una muy buena pregunta con muchas respuestas posibles. La IA, históricamente, iba de resolver problemas que para los que parecía que hacía falta inteligencia. Históricamente había una frustración dentro del campo, porque cada vez que conseguían resolver un problema lo que la gente les decía era que para eso tampoco hacía falta esa inteligencia realmente. Recuerdo que en el año 97 ya había llegado el vehículo autónomo a Marte. Y ‘Deep Blue’ había ganado al ajedrez a a Kasparov. Fui al Congreso Mundial de Inteligencia Artificial y estaban dando palmas, felices como niños. De hecho aquel sistema no era ML, sino una combinación de sacarles a los expertos la información de cómo se juega el ajedrez, ver cómo juegan y exploración ciega, es decir, fuerza bruta de cómputo, ¿no? Mezclaban ambas cosas de una manera brillante y consiguieron ganar al ajedrez a Kasparov. Desde entonces, este campo reclama el nombre de IA como válido.

- Y luego llega esta ola actual.
- Efectivamente, pues que esta nueva ola de IA está casi al 100% basada simplemente en ML, y según como se mire, te puede parecer simple estadística. Son algoritmos de optimización que te descubren las correlaciones ocultas entre las variables que estás manejando y nada más. Pero en mi opinión, es perfectamente válido llamarlo inteligencia artificial, pero tenemos que reducir la antropomorfización de la palabra, aprender que no toda forma de inteligencia tiene que ser la humana. Estos cacharros funcionan de otra manera, pero realizan tareas que siempre han estado reservadas a la inteligencia. ¿Por qué no llamarlos así? Y creo que estos modelos de lenguaje, aunque sean cuñados estocásticos, y hablen de oídas y no sean capaces de razonar, sino solo de simular que razonan y de simular que saben, son inteligentes, aunque sea otro tipo de inteligencia.

- Hábleme del cuñado estocástico, ¿es buen tipo?.
[Ríe] El cuñado estocástico es un cerebro que es capaz de leérselo todo. Y pese a que se queda solo con la espumita y no lo procesa, ni lo entiende, ni tiene ningún mecanismo para razonarlo, sin embargo es capaz de hacer cosas sorprendentes que a los humanos nos cuestan o directamente no somos capaces de ello. Así que ¿por qué no llamarlo inteligencia? De hecho, el ML en este formato es una forma de simular nuestra inteligencia intuitiva. Y es verdad que a la intuición, filosóficamente, nos cuesta más llamarla inteligencia, porque el pensamiento racional siempre pensamos que es lo que nos distingue de los animales. Pero nos movemos constantemente en el mundo mezclando nuestro pensamiento racional y nuestra intuición. Y no hay por qué despreciar a una inteligencia que se mueve solo por intuición, sobre todo cuando llega tan lejos como llegan estas.

Gonzalo, antes de iniciar su conferencia en Vila-real.

- Déjeme meter más el dedo en la llaga: su charla en Vila-real se tituló ‘Intuición artificial, cómo (no) piensa ChatGPT’. ¿Por qué llamamos inteligencia a algo que no piensa?
- Es lo que te acabo de explicar. O sea, los niños no aprenden a hablar pensando, aprenden a hablar intuitivamente. Y eso quiere decir que para hablar no se necesita ser inteligente. Luego, cuando aprendes un segundo idioma, el procedimiento es completamente distinto. Ya no empiezas con la intuición sino aprendiendo cosas, intentando memorizar y hacerte una base de datos de cómo funciona este idioma, cuáles son las palabras básicas para empezar a manejarme. Y luego ya empiezas a practicar como loco. Y de nuevo ahí mezclas el pensamiento racional y la intuición para avanzar, aunque nunca lo hablas tan bien como el que aprendiste sin pensar.

- Dice que es la primera tecnología que no es bien entendida, ni siquiera por sus creadores.
- Sí, creo que es el rasgo más fascinante, el que a mí me tiene loco. Efectivamente, hay capacidades emergentes, que no estaban planificadas de antemano por los diseñadores y que estamos intentando entender todavía. A la pregunta de si ChatGPT es un loro estocástico o una súper IA, cuanto más más experta es la audiencia en IA, más gente responde que es una super IA, lo que lo que demuestra que no lo entendemos bien. Si no nos ponemos de acuerdo los que lo hemos hecho, es que no entendemos bien sus capacidades, y eso me parece fascinante.

- En 2020, es decir, bastante antes de aparecer ChatGPT, decía que cuando un sistema de IA nos concede un deseo, más vale tomárselo con calma y pensarlo dos veces. ¿Es un genio de la lámpara que concede infinitos deseos?
- No, ¡cuidado! Esa metáfora no es para el usuario de la IA, sino para quien la construye. Es decir, efectivamente, es ML, es decir, la máquina aprende por sí sola pero siempre necesita un profesor que le diga lo que tiene que aprender. Le da una función que tiene que optimizar. Por ejemplo, gana todas las partidas que puedas. Mira, tenemos el ejemplo de YouTube. Su algoritmo de recomendación es de ML, aprende de los datos, pero tú le tienes que decir qué es lo que quieres maximizar. ¿Entonces, cómo defines una experiencia óptima en YouTube? No es nada trivial, no es evidente. Y los desarrolladores se fijaron el objetivo de retener a la gente viendo vídeos, por lo que el algoritmo es mejor cuanto más retiene al usuario. Ese es el genio de la lámpara. Pero ojo, no sabes cuales van a ser las consecuencias colaterales: le da exactamente igual si un video lo que está diciendo es verdad o no, o qué efecto va a causar en la mente del espectador. Y el algoritmo descubre que recomendar videos terraplanistas es fantástico. Y así, un porcentaje de la población asombrosamente significativo ahora piensa que la Tierra es plana, y la culpa es de YouTube. El genio te suele dar literalmente lo que le has pedido y no tienes en cuenta si realmente eso era lo que querías o no.

"Ahora mismo se necesitan expertos en humanos, para tener una idea de cómo puede repercutir una herramienta de estas. Los que lo lanzaron no tenían ni la más remota idea de la que se iba a montar"

- No es lo mismo pedirle a ChatGPT que te explique la ley de la gravedad para niños de 6 años que decirle que lo haga en el contexto de una conferencia de estudiantes de física.
- Sí, pero no le puedes decir “optimízame esto”. Es solo que su creador le pone una función de optimización. Es importante entenderlo: primero le ha puesto a aprender el lenguaje, en concreto, que sea capaz de predecir la siguiente palabra. Por eso a veces hay gente que desprecia estos sistemas, porque dice que lo único que hacen es predecir la siguiente palabra. ChatGPT juega consigo mismo y según si ha acertado o no, intenta maximizar la probabilidad de acertar con la siguiente palabra. Un factor muy importante, colateral, es que en realidad el objetivo no es aprender a predecir la siguiente palabra, sino algo mucho más interesante: aprender a representar el lenguaje. ¿Y cómo se hace? Pues básicamente lo único que sabe del lenguaje es cómo se combinan las palabras y cómo tienden a aparecer unas junto a otras: solo a base de leer, el sistema se hace un mapa semántico. Y sabe cuando las palabras tienen un significado parecido o no. Es tan potente, que se aprenden muchos idiomas a la vez. Es capaz de generar conexiones y estructuras entre esos idiomas. Y sin necesidad de haber visto jamás una traducción, es capaz de traducir entre dos idiomas. Así de potente, sin saber nada del mundo externo ni de qué significan esas palabras, ni cuáles son sus consecuencias en el mundo real. Sin entender nada.

- Sin embargo, como buen ‘cuñado’ puede dar el pego y hacer como que habla con nosotros.
- El secreto de ChatGPT es ese segundo proceso en el que aprende explícitamente a conversar, porque primero se ha leído todo Internet. No son conversaciones, y mucho menos diálogos. Primero el profesor le dice lo que tiene que contestar y luego ya solo le da preferencias. Y finalmente, se acelera el aprendizaje cuando el sistema se hace un modelo del profesor también. Parece absurdo que eso pueda funcionar, pero luego lo piensas y dices, “si yo conozco muy bien a una persona, puedo imaginarme qué me diría en una situación determinada, ¿no?”. Entonces, ¿qué le enseña ese profesor? Pues a ser educado con las respuestas, a reconocer a veces que se ha equivocado. El problema es que está aprendiendo a interaccionar de oídas, porque como no tiene una base de conocimiento, no sabe lo que es verdad y lo que no. Si yo le digo que se ha equivocado, de repente lo que le he dicho se vuelve algo con una probabilidad alta para él y entonces se va por el barranco. Son todo relaciones entre palabras, probabilidades.

- Hablemos caro: con su capacidad actual, ¿podría la herramienta de Open AI hacerle esta entrevista y redactarla haciéndose pasar por periodista?
- Sí.

- ¿Y me lo dice así, a bocajarro?

- [Sonríe] Es que la respuesta es esa, pero me has preguntado si sería capaz de hacerla, no si sería capaz de hacerla bien. Es decir, podría engarzarse en este diálogo y podría luego resumir lo que yo he dicho y escribir un artículo. Y a lo mejor, podría salirle bien. Podría salirle muy bien, como también podría salirle catastróficamente mal.

- ¿Se reconoce si le digo que usted es uno de los embajadores del turismo congresual en Madrid? Es una de las cosas que dice saber ChatGPT.
- Sí, eso es correcto. Es interesante que lo sepa: lo soy porque organicé un congreso internacional muy grande en el 2022. Y el Ayuntamiento de Madrid distingue todos los años a ocho o diez personas que han ayudado, digamos, a que se conozca la ciudad de Madrid. O sea que es verdad.

- El economista Darian Acemoglu dijo recientemente que lanzar este software sin previo aviso ha sido uno de los actos más irresponsables de este siglo, hablando del ChatGPT. Para él, esto va a ser una mezcla de la imprenta, la máquina de vapor y la bomba atómica. ¿Es para tanto?
- Hay un problema: en el mejor de los casos, yo soy experto en IA. Entonces, si hablo de las consecuencias que va a tener en la sociedad y en el mundo, tengo que hablar en plan cuñado, o sea, no tengo ni idea. Es decir, si hay que mojarse, uno se moja, pero yo que sé. Tengo un podcast que se llama Esto es lo que AI con Llorente y Cuenca, y cuando salió ChatGPT, mi predicción fue que esto iba a ser el caos. Y acerté totalmente. Por eso, no quiero hacer más predicciones: ¡para una vez que acierto…! [ríe].

- Le compro el argumento, claro.
- Pero vaya, te diría que los expertos en IA llevan muchos años haciendo cosas irresponsables. El algoritmo de YouTube es un ejemplo. Entonces creo que sigue siendo una metáfora muy poderosa, como decíamos antes. Ahora mismo se necesitan expertos en humanos, para tener una idea de cómo puede repercutir una herramienta de estas. Los que lo lanzaron no tenían ni la más remota idea de la que se iba a montar. Luego se ha montado lo que se ha montado y ellos han aprovechado. Claro, es una empresa. Y tiene sentido, porque nos pilló de improviso a todos, no nos imaginábamos que ese salto en apariencia de utilidad, en apariencia de inteligencia, tan bestia y tan brusco, se pudiera dar con algo tan sencillo. Yo he leído que ellos querían alguna demo para sacar al mercado. Y dijeron, pues vamos a ponerle aquí. Y de repente tienen millones y millones de usuarios en tiempo récord, más rápido que cualquier otra aplicación web. Y está teniendo ya un impacto profundo.

En opinión de Gonzalo, a irrupción de ChatGPT afecta directamente a muchos ámbitos sociales.

 - En todos los ámbitos, ¿no?
- Es que es evidente, incluso más de lo que podemos imaginar. Creo que es imposible ahora mismo imaginarnos hasta qué punto ya se ha roto el sistema educativo. Es decir, los chavales que tienen en la franja de 12 a 17, ¿ cuánto están usando el chat GPT? Pues probablemente a saco. En EEUU ni te cuento. Y aquí, van muchísimo más rápido que los profesores que siguen en sus rutinas. Los que se salen de la rutina son la excepción, no la regla. Y por supuesto, un sistema educativo para cambiarlo necesitas años y años debatiendo, haciendo reglas, cambiando luego la infraestructura. Es imposible. Entonces, seguramente el sistema de aprendizaje ya se ha roto totalmente. Pero tardaremos años en ver los efectos. ¿Qué pasa con estos chavales que con 12 años ya no ejercitan la capacidad de pensar, de buscar fuentes, de analizarlas de manera crítica, de sintetizarlas? De desarrollar su propia opinión. ¿Cómo van a ser estos chavales dentro de unos años, cuando se incorporen al mercado laboral?

- Quizá a los profesores les sería útil aquella frase de Joan Fuster, que decía que no hay que aceptar la derrota hasta que no veas que saldrás ganando.
- Es buena, ¡me la apunto! Y sí, creo que en este caso, si aceptamos la derrota podemos salir ganando. En ese sentido soy optimista: inevitablemente los chavales, cuando el sistema educativo se adapte a esto, tendrán mucho menos trabajo que llevarse a casa. Porque si pueden pedirle a ChatGPT cualquier cosa, se la va a hacer y es imposible detectar si la ha escrito o no, la herramienta. Si el profesor no tiene la opción de darle al Turnitin para saber si se ha copiado o no, lo lógico es que el trabajo se haga en clase y eso es mucho más razonable que lo que el alumnado tiene ahora en España: unas jornadas de trabajo muy superiores a la de cualquier profesional.

"Es imposible ahora mismo imaginarnos hasta qué punto ya se ha roto el sistema educativo. ¿Qué pasa con estos chavales que con 12 años ya no ejercitan la capacidad de pensar, de buscar fuentes, de analizarlas de manera crítica, de sintetizarlas?"

- Eso suena a esa idea de que a veces las cosas tienen que ponerse muy mal para que se arreglen.
- Exacto. Y también tengo la ilusión de que en el aspecto creativo, sea para bien: De que, como sucede siempre con el tema de oferta y demanda, cuando la oferta sea infinita, entonces perderá valor y a lo mejor a la gente le empiezan a interesar las pelis y las novelas que no son completamente obvias y que no las puede escribir una inteligencia artificial. Pero bueno, eso es por ponerme súper optimista, la verdad.

- Algunos de los interrogantes más potentes sobre la IA se refieren a su uso en el tratamiento de imágenes. ¿Es donde antes veremos un debate ético sobre la manera de ponerle límite?
- Pues no estoy seguro, pero es verdad que una imagen la consumes muy rápido y en décimas de segundo sabes si tiene el estilo de un autor u otro. Tiene sentido que por ahí aparezca la punta de lanza de la reflexión sobre los temas de la propiedad intelectual, etcétera. Realmente es un tema muy complejo en cualquier caso, porque estas máquinas no te están copiando realmente y la diferencia entre copia e inspiración es un tema jurídicamente muy espinoso desde hace tiempo, sin la IA, que lo que hace es multiplicar exponencialmente la escala del problema. Desde luego, hace falta regulación. Es necesario que un autor tenga derecho a decidir si su obra la puede leer un cerebro artificial o no, simplemente.

- Y ¿qué diría de la aplicación de la IA a una industria tradicional, como nuestra cerámica? ¿Cree que puede serle de utilidad para afrontar sus desafíos actuales? 
- Creo que hay que ir caso por caso, pero allí donde hay datos la IA te puede ayudar, eso está claro. O sea, el ML es poderosísimo para ver cosas donde tú solamente ves datos, para detectar patrones. Para optimizar procesos es muy difícil que no sirva de nada: es un poco lo de las radiografías, porque el ojo humano es incapaz de ver más de 127 características. Y un sistema de ML puede detectar cosas que son invisibles para nosotros y son relevantes. Puede un diagnóstico sobre una radiografía mejor que el de un técnico, aunque necesite un técnico al lado para detectar sesgos o defectos. Aunque no conozco bien el sector cerámico, me resulta difícil pensar en una empresa de tamaño medio que no pueda usar la IA para optimizar costes; otra cosa es que luego eso sea socialmente bueno o no. Porque Amazon ya lo hace, pero muchas veces a costa de los de los derechos de los trabajadores, llegando a extremos que asustan.

- ¿Cree que podemos ver en algún momento a estos sistemas alcanzar algún nivel de conciencia?
- Necesitaría varios días para responderme a mí mismo en qué consiste eso de adquirir conciencia. Y luego, aparte, estos son tan buenos simuladores que son capaces de decirte que tienen conciencia… si no lo dicen es porque sus profesores les han dado con el látigo para que no lo digan. Si no, lo soltarían, porque anda que no han leído literatura en la que los robots tienen conciencia. Pero claro, ¿qué es tener conciencia? Prefiero no dar una respuesta en plan cuñado, me abstengo. ¿Puede suceder en el futuro? ¿Por qué no? Ahora, con la tecnología actual, la implementada en ChatGPT 4, es una cosa que por construcción está muy, pero muy lejos. 

- Finalmente, como humanos ¿nos estamos haciendo las preguntas correctas ante este tipo de tecnologías? Por ejemplo, sobre las implicaciones de su enorme consumo energético en un contexto de cambio climático.
- Sí, es verdad, en términos de consumo, el entrenamiento que se necesita para crear un chat GPT es tremendo. Realmente estamos hablando de millones de dólares, e imagínate en huella de carbono, pues una huella considerable, enorme. Pero ese a mí no me preocupa tanto, porque un ChatGPT, si te sale bien, te dura un tiempo. El problema está, efectivamente, en que preguntarle a la IA tiene mucho más coste energético que preguntárselo a Google, cuya forma de trabajo está superoptimizada. El coste energético de devolverte una respuesta a ti que has hecho una ‘query’ en Google es muchísimo más bajo que el coste de contestarte algo vía GPT-4. Eso es verdad. Pero la cuestión es ¿para qué se usa? No es lo mismo hacerle una consulta equis que ser una empresa que hace monitorización de reputación online y tiene que revisarse al día 100.000 tweets, y se los pasa todos a GPT-4. La diferencia es de uno a 100.000.

- Ya, pero si quien mata moscas a cañonazos no ve el impacto ni siquiera en su factura de la luz, no tiene incentivos para no usarlo, ¿no?
- Eso es verdad, pero no existe el coste cero. O sea, realmente le va a costar un pastón hacer eso con GPT-4. La tendencia probablemente será que aunque todo el mundo lo pruebe para todo al inicio, luego inmediatamente se replegará a las cosas en las que efectivamente te da un beneficio, te compensa económicamente. Y no van a ser tantas como las que la gente lo está usando ahora: habrá un repliegue por puras causas económicas sin pensar en la huella de carbono. Piensa que la pasta la está pagando ChatGPT-4. Si tú estás pagando 20 € al mes, tienes una limitación: no puedes coger la API y enchufarle 100.000 cosas, porque cuando llevas 200 te dice “espera a mañana”. Porque si no lo hacen, les arruinas, es una consideración puramente económica, porque es muy caro.

- Es decir, la estrategia es ponernos el caramelo en la boca.
- Por entendernos, ahora te están ofreciendo la droga gratis a la salida del cole, pero en un momento dado te la van a empezar a cobrar a lo que vale. Y de hecho, para determinados tipos de usos ChatGPT-4 ya sale carísimo a las empresas. Pero viendo la IA en su conjunto, las posibilidades de que mejore la eficiencia energética son enormes: como te decía antes, donde hay datos hay posibilidad de optimización. Por eso no hay que demonizar a la IA tampoco. El potencial es enorme, como por ejemplo en el desarrollo de medicamentos: es espectacular lo que lo que han conseguido al mapear toda la estructura de las proteínas. Eso abre unas posibilidades increíbles de eficiencia en el diseño de medicamentos, que serán infinitamente más baratos. Es público, lo han publicado y los beneficios de eso son incalculables. Así que aunque GPT-4 sea el resultado de un acto irresponsable, y estemos en medio del follón, espero que haya alguna manera de que de que a medio plazo el aterrizaje sea para bien y no para mal. Seamos optimistas.

Noticias relacionadas

next