CASTELLÓ (EFE/Noemí G. Gómez). La primera vez que se unieron las palabras 'inteligencia' y 'artificial' fue en los 50 y si bien desde entonces se ha avanzado muchísimo, el verdadero boom ha llegado ahora. 2023 ha sido el año de la IA 'cotidiana', que arrastra aún múltiples desafíos: protección de menores, privacidad, desinformación o sesgos.
Aunque lleva años en asistentes de voz, en el monitoreo de redes sociales, en los sistemas de navegación o en los servicios de atención al cliente, la auténtica revolución de esta tecnología ha llegado con los modelos de inteligencia artificial (IA) generativa, sobre todo ChatGPT, capaces de "conversar" y crear textos, fotografías, vídeos o música a partir de miles de datos existentes.
"A pesar de la intensa presencia de la IA en nuestras vidas -casi la pregunta debería ser dónde no está presente-, es verdad que ChatGPT ha traído la inteligencia artificial a los titulares de los medios y del discurso público", señala a EFE Nuria Oliver, cofundadora y directora científica de la Fundación ELLIS Alicante, centrada en la investigación de la IA ética, responsable y para el bien social.
Probablemente, hasta su llegada, uno de los principales pensamientos erróneos era que esta consistía en robots, continúa esta doctora en IA por el Instituto Tecnológico de Massachusetts (MIT). Ahora, al democratizarse el acceso y uso de herramientas como ChatGPT, la sociedad se ha dado cuenta de que en realidad es software, no necesariamente robots.
La primera en llevarse el trozo del pastel de esta fama fue la empresa estadounidense OpenAI, cuando el 30 de noviembre de 2022 puso a disposición de los ciudadanos su chatbot ChatGPT. Pocos meses después y ya en 2023 lanzó su -polémica- versión mejorada (GPT-4) y entraron en escena competidores como Google con su modelo Bard.
Basados en el aprendizaje automático, estos sistemas y otros de inteligencia artificial han comenzado a colarse en el día a día de las aulas, de los diagnósticos médicos, de los mercados financieros, de la investigación científica y espacial o de la predicción meteorológica.
Pero el ritmo vertiginoso al que se han extendido, sobre todo la inteligencia artificial generativa, ha elevado la preocupación en lo relacionado a los datos y la privacidad, los sesgos o la IA como nueva forma de violentar a mujeres y niñas -como el caso de los falsos desnudos de menores en Almendralejo, Badajoz-.
Precisamente esta velocidad es lo que propició que más de 33.700 expertos de diversos ámbitos de todo el mundo -también españoles- se unieran el pasado marzo en una carta abierta para pedir a los laboratorios que suspendieran al menos seis meses el entrenamiento de aquellos sistemas más potentes que GPT-4.
Detrás de esa petición, rubricada también por conocidos empresarios del sector de la tecnología, estaba la necesidad de anticiparse a las posibles consecuencias de su uso y regularlo.
Esta misiva, no obstante, fue contestada desde otros sectores científicos y tecnológicos que la vieron como una distracción para evitar abordar los retos reales de la IA, cuyo desarrollo por otro lado es imparable y fundamental para abordar grandes desafíos, como el cambio climático.
Aún así, OpenAI, que ahora cuenta con una importante inversión de Microsoft, accedió a frenar -por el momento- el desarrollo de ChatGPT-5, aunque el mes pasado anunció la salida de "GPT-4 Turbo", su chatbot más poderoso entrenado con información hasta abril de 2023.
Con independencia de estas discrepancias, en lo que sí han coincidido la mayoría de expertos es en la necesidad de regular (no de prohibir). Precisamente la Unión Europea acaba de acordar la primera ley del mundo de IA.
Aún provisional -tendrá que ratificarla el Parlamento Europeo y el Consejo de la UE-, la norma permite o prohíbe la utilización de la inteligencia artificial en función de los riesgos que suponga.
Por ejemplo, prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual, y veta aquellos que pueden reconocer las emociones en centros de trabajo o escuelas.
El desarrollo de la ley, más lento que los avances en este campo de la informática, ha tenido que adaptarse a la evolución, en concreto, de los sistemas de IA generativa, otro de sus puntos fuertes.
En Europa tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o fotografía están generados por IA, y garantizar que los datos empleados para entrenar a los sistemas respetan los derechos de autor.
Y es que el peligro y preocupación con este tipo de inteligencia artificial es que busca un resultado verosímil, no necesariamente cierto. Ejemplos hay muchos, como las fotos hiperrealistas del papa Francisco con un plumas blanco o de Donald Trump resistiéndose a un arresto.
Pero también acciones mucho más graves por estar afectadas menores, como el caso de las imágenes de desnudos falsos de las niñas de Almendralejo.
Precisamente este asunto propició que la Agencia Española de Protección de Datos abriera el pasado septiembre una investigación de oficio. No era la primera vez que esta actuaba en temas de IA.
También inició actuaciones previas de investigación a OpenAI por un posible incumplimiento de la normativa española y europea de protección de datos.
Con la explosión de ChatGPT y otras herramientas similares, los usuarios vuelcan muchísima información, no solo propia sino de otros, y existe incertidumbre sobre qué datos recaban las empresas, qué hacen con ellos, si se ceden a terceros o si hay transferencia internacional.
"La IA tiene un inmenso potencial para ayudarnos a abordar los grandes desafíos del siglo XXI (...). De hecho, sabemos que necesitamos IA para sobrevivir como especie", subraya a EFE Nuria Oliver, pero al mismo tiempo no está exenta de limitaciones y plantea retos éticos que hay que abordar para asegurar un impacto realmente positivo.
Entre los desafíos, además de la privacidad o ciberseguridad, están los "deepfakes" que sirven para propagar noticias falsas y como pornovenganza, los sesgos o estereotipos algorítmicos, la falta de diversidad en los equipos que inventan los sistemas de IA -según la Unesco, solo el 12 % de las investigadoras en este campo son mujeres- o la huella de carbono que genera.
2023 no solo ha sido el año de ChatGPT -elegido por la revista Nature como uno de los personajes científicos (no humano) del año-, Bard, Gemini (también de Google) o Bing (Microsoft). ESMFold, un sistema de IA implementado por Meta, logró predecir la estructura de más de 740 millones de proteínas.
También, tal y como publicó la revista The Lancet Oncology, se demostró que el cribado con IA detecta un 20% más de cánceres de mama en comparación con la doble lectura rutinaria de las mamografías por radiólogos, y se usó aprendizaje automático para crear el atlas unicelular de todo el pulmón humano.
Google dio a conocer GraphCast, una IA capaz de predecir decenas de variables meteorológicas a 10 días en todo el planeta en menos de un minuto, una investigación publicada en Science que contó con participación española.
Y a días de empezar (o seguir) con el turrón, Campofrío presentó su tradicional anuncio navideño, esta vez guionizado con IA.