Hoy es 22 de noviembre

LA ENTIDAD adaptó su metodología de privacidad para el desarrollo de modelos de IA

Harvard Business Review incluye a CaixaBank como ejemplo en aplicación de la IA responsable

Foto: ROBER SOLSONA/EP
19/05/2024 - 

VALÈNCIA (EP). Harvard Business Review ha incluido a CaixaBank como uno de los ejemplos de empresas que han adoptado principios y prácticas de Inteligencia Artificial (IA) responsable.

El artículo, publicado el pasado 10 de mayo, describe cuatro acciones que las empresas pueden llevar a cabo para asegurar que las prácticas de IA responsable se integren en sus estándares operativos: traducir, integrar, calibrar y difundir.

Además, analiza cómo las organizaciones pueden anticiparse y adaptarse a las normativas sobre la IA, como la Ley de Inteligencia Artificial de la UE, y cómo pueden aprovechar las ventajas competitivas de la IA responsable.

En este sentido, presenta casos de estudios de diversas industrias, como las telecomunicaciones, los medios de comunicación, la banca, el seguro y la salud, que han adoptado principios y prácticas de IA responsable.

Foto: CAIXABANK

Así, la revista menciona el caso de CaixaBank que, al operar en un sector "altamente regulado" como la banca, ya contaba con unos procedimientos de privacidad "sólidos" para cualquier desarrollo tecnológico nuevo.

"En 2020, el regulador español introdujo nuevos requisitos para el uso responsable de los modelos de IA que aprovechan los datos personales, incluidos más de 100 controles relacionados con la transparencia, la explicabilidad, la equidad (control de sesgos) y la solidez (precisión)", explica la publicación.

Para cumplir con este nuevo reglamento, CaixaBank adaptó su metodología de privacidad y sus procesos de validación actuales para el desarrollo de modelos de IA. "Seguimos nuestros procesos de privacidad para que la ética de la IA aproveche todo lo que la organización ha creado hasta ahora", ha trasladado el banco a Harvard Business Review.

Por último, la revista destaca la importancia de que responsables "no técnicos" participen "activamente" en el proceso de desarrollo de la IA, facilitando el diálogo, el apoyo, el equilibrio y el aprendizaje.

Noticias relacionadas

next