EN BUSCA DE LA EQUIDAD DE LA TECNOLOGÍA

La hora de la trasparencia de los algoritmos empresariales

24/10/2022 - 

VALÈNCIA. Más o menos todos tenemos asumido que el algoritmo de Netflix nos lance las recomendaciones de contenidos a consumir en función de parámetros como los que hemos visto anteriormente o el horario al que solemos hacerlo. Hasta aquí vale, pero ¿qué sucede cuando es un algoritmo el que determina si eres apto o no para un empleo; o si decide la prioridad para ser atendido en un centro sanitario en función de los ingresos que puedas generar dependiendo de si padeces una patología crónica o se trata de una simple urgencia?

Pues, por grave y alarmante que parezca, esas cosas suceden ya, sobre todo en Estados Unidos, mucho más avanzada que Europa en el uso de la Inteligencia Artificial (IA), una de las tecnologías emergentes clave dentro de la economía digital. Pero tampoco hace falta irse tan lejos para encontrar casos de uso como los descritos. En España, por ejemplo, hace ya años que el Departamento de Justicia de Cataluña puso en marcha el protocolo RisCanvi, un algoritmo que mide el riesgo de reincidencia de los reclusos para conceder los permisos. También tenemos el programa VioGén, utilizado por la policía para evaluar el riesgo que tiene una mujer maltratada de volver a ser atacada y, en función de ello, dictar las medidas de protección.

En cualquier caso, en materia de regulación y protección de derechos de la ciudadanía, es Europa la que acostumbra a adelantarse al mercado norteamericano, de aquí que la Comisión Europea lleve ya un tiempo trabajando sobre la futura ley de Inteligencia Artificial, todavía en borrador. Sería el equivalente a la Ley de Protección de Datos (RGPD) pero trasladado a la IA.

El Gobierno español, por su parte, ha anunciado la creación de la Agencia Española de Supervisión de la Inteligencia Artificial la cual se encargará del desarrollo, supervisión y seguimiento de los proyectos enmarcados dentro de la Estrategia Nacional de Inteligencia Artificial (ENIA).

Además, el pasado junio presentó, a través de la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, la creación de un sandbox (banco de pruebas) que debería haber empezado a funcionar este mes de octubre para experimentar y testar de forma segura proyectos basados en IA.

Un certificado de transparencia

A la Administración se ha anticipado la Asociación Española de la Economía Digital (Adigtal) que, en colaboración con la Fundación Eticas, acaban de anunciar una iniciativa pionera en Europa basada en el diseño de una certificación de transparencia algorítmica para las empresas.

Los trabajos ya iniciados consistirán en el diseño de los mecanismos de aportación de información que las empresas deberán facilitar a futuro para dar transparencia a sus sistemas algorítmicos. Según César Trello, director general de Adigital, el proyecto se halla en una primera fase cuyo objetivo no es otro que aportar transparencia y contribuir a la explicabilidad de cómo un algoritmo utilizado en una empresa llega a un resultado determinado. Promoverían así el uso responsable de los algoritmos.

 “Obviamente, no se trata de hacer público el código de la empresa, que eso vulneraría la propiedad intelectual y comercial”, aclara Trello. Al fin y al cabo el algoritmo puede ser la causa diferencial entre un proyecto empresarial y otros. Se trataría más de que las empresas que utilizan IA dieran a conocer a los usuarios y al resto de las organizaciones con las que interactúan como proveedores tecnológicos, los datos o parámetros que sus algoritmos tienen en cuenta para llegar a sus conclusiones y, en función de ello, que sea el cliente quien adopte la decisión informada de si le interesa o no seguir con esa compañía.

Para diseñar el certificado, definir su metodología y testearlo trabajan con cuatro empresas colaboradoras relevantes en distintos sectores: Blablacar, Cabify, Fintonic y Holaluz. Los profesionales de la Fundación Éticas, ya con diez años de experiencia haciendo auditorías algorítmicas, serán quienes se sienten con los responsables de las entidades colaboradoras para recibir la información referente a los datos que se procesan. “No es que estemos en un escenario Terminator- dice Alfonso Martínez, Chief Impact & Growth Officer de Eticas-. De lo que se trata ahora es de ponernos todos de acuerdo en definir el concepto de transparencia algorítmica si queremos aterrizarlo y convertirlo en algo práctico”.

El certificado sería, pues, como una herramienta tangible para aquellas empresas que acepten someterse a una auditoria para conseguirlo “y demostrar así que pueden seguir siendo competitivos en sus respectivas industrias a la vez que apuestan por la transparencia”, dice Martínez. No obstante, advierte Trello de que el certificado de transparencia sería solo para el algoritmo auditado, no para los restantes ni para la empresa. 

La intención de los impulsores del sello es que entre en vigor a comienzos del próximo año. De ser así, España sería la primera de Europa en contar con una herramienta de estas características. 

Y si no te gusta lo que persigue el algoritmo ¿qué?

Suponiendo que al final las empresas hagan un ejercicio de trasparencia y aporten información sobre los datos que recogen, para qué y cómo llegan a sus resultados, la siguiente pregunta que cabe hacerse es: ¿y si no estoy de acuerdo, qué hago?

La respuesta que aventura Trello es que, en ese caso, habría que defender la decisión del usuario bloqueando de alguna manera la relación con la empresa. En este sentido, alude a la Lista Robinson, un servicio de exclusión publicitaria al que pueden acceder tanto los consumidores, de forma gratuita, como las empresas, previo pago. Adigital gestiona la Lista Robinson que protege a los usuarios inscritos en el ámbito digital, bloqueando llamadas telefónicas, SMS y mails procedentes de empresas a las que no se haya dado el consentimiento explícito, una lista que según Trello, cuenta ya con 2,6 millones de ciudadanos inscritos.

Noticias relacionadas